Khi chính phủ 28 nước, trong đó có những nước đi đầu trong xây dựng và phát triển trí tuệ nhân tạo (AI) như Mỹ hay Trung Quốc, lại ngồi với nhau tìm cách kiểm soát AI, câu hỏi bật ra là vì sao, AI có gì đáng sợ đến nỗi phải chế ngự ngay từ khi nó chưa hoàn chỉnh?
Tìm đọc tuyên bố Bletchley được đại diện 28 nước ký như một kết quả cụ thể của Hội nghị thượng đỉnh về an toàn AI (AI Safety Summit 2023) tổ chức tại Anh hồi đầu tháng, chúng ta sẽ dễ bị thất vọng vì nó chỉ liệt kê chung chung những rủi ro mà các hệ thống AI có thể gây ra.
Tuyên bố thừa nhận chưa hiểu hết các năng lực của AI nên khó lòng dự báo các nguy cơ AI đem đến, chỉ biết chúng có thể phát sinh từ việc cố tình sử dụng sai hay không kiểm soát được AI phù hợp với lợi ích của con người.
Hãy thử nhìn lại các ứng dụng AI mà ta đã có thể tiếp cận, như gần đây nhất là việc tải ảnh chân dung lên để AI dựa vào đó làm ra hàng loạt tấm hình gần giống chúng ta nhưng với diện mạo rất ấn tượng. Rõ ràng chúng ta đã góp phần tạo ra hình ảnh sai lệch nhưng không hề áy náy vì cứ nghĩ nó chỉ liên quan đến chúng ta.
Từ ứng dụng này đến các ứng dụng tương tự, đẻ ra hình chúng ta đứng cạnh người nổi tiếng, bắt tay diễn viên điện ảnh, ôm hôn ca sĩ nhạc nhẹ là không khó.
Như vậy AI đã trao cả cho những người có ý đồ xấu những công cụ để đi lừa đảo như giả làm người đứng chụp hình với quan chức cao cấp, hay đi tống tiền khi tạo ra ảnh xì căng đan không có thật.
Các hệ thống AI hiện nay đã đủ mạnh để tiếp tay cho kẻ xấu như thế, từ tạo video giả đến giúp chúng viết thư đánh lừa người cả tin.
Nỗi lo "robot cầm súng" thật ra không hiện thực bằng nỗi lo bị vi phạm bản quyền, bị mất việc hay bị giội bom tin giả.
Trở lại AI Safety Summit, sở dĩ nó được tổ chức tại tòa nhà Bletchley - cách London chừng 80km về phía bắc - là bởi đây là nơi một nhóm các nhà khoa học do Alan Turing dẫn đầu đã làm ra chiếc máy tính đầu tiên, giúp giải mã các bức điện của Đức quốc xã trong Đệ nhị thế chiến. Tổ chức hội nghị ở đây, nước Anh muốn trở thành một trung tâm sáng kiến của thế giới, lần này là giải mã và chế ngự AI.
Tuyên bố Bletchley viết: "Nhiều rủi ro xuất phát từ AI chủ yếu mang tính quốc tế về bản chất nên phải được giải quyết tốt nhất là thông qua hợp tác quốc tế". Tuy nhiên lần này, bản tuyên bố không đưa ra mục tiêu giải pháp cụ thể nào cả. Hội nghị chỉ lên lịch họp tiếp vào 6 tháng nữa tại Hàn Quốc và một năm sau lại gặp nhau tại Pháp.
Có lẽ một mô hình khả thi là các nước lần lượt đưa ra các giải pháp của riêng mình, áp dụng thí điểm tại nước mình trước rồi tích hợp vào một nỗ lực kiểm soát chung mang tính toàn cầu.
Ngay trước hội nghị, Tổng thống Mỹ Joe Biden đã ký một sắc lệnh hành pháp yêu cầu các công ty AI phải đánh giá rủi ro an ninh quốc gia trước khi đưa công nghệ ra cho công chúng.
Tại buổi lễ ký, ông Biden nêu mối quan ngại trước khả năng kẻ lừa đảo chỉ cần lấy 3 giây giọng nói của một người rồi nhào nặn đẻ ra nội dung mới. Ông kể có xem một đoạn video giả danh ông nói huyên thuyên và sững sờ bảo: "Tôi nói điều đó bao giờ nhỉ?".
Phát biểu của ông có thể xem như đường hướng chính sách về AI của Mỹ trong thời gian tới: "Một điều đã rõ: để hiện thực hóa tiềm năng của AI và tránh các rủi ro, chúng ta cần quản lý công nghệ này. Không còn con đường nào khác".
Châu Âu đang soạn thảo đạo luật AI, có thể sẽ sớm ban hành trong vài tuần tới, có mục đích bảo vệ người dân khỏi những hiểm họa do AI gây ra như hạn chế tối đa việc sử dụng các chương trình nhận diện gương mặt, yêu cầu các công ty AI như ChatGPT phải tiết lộ nhiều hơn nữa các dữ liệu họ sử dụng để xây dựng chương trình.
Đạo luật của EU sử dụng cách tiếp cận dựa trên rủi ro, tập trung nhắm đến các ứng dụng AI có tiềm năng gây nguy hại như hệ thống AI điều hành việc cấp nước, cấp điện, trong ngành tư pháp.
Những nơi này phải đánh giá rủi ro của ứng dụng AI trước khi đưa vào sử dụng, như cách thức đang áp dụng với dược phẩm.
Riêng nước Anh có cách tiếp cận khác. Họ cho rằng các luật lệ và quy định sẵn có là đủ để quản lý các hệ thống AI hiện nay. Tạm thời Anh thành lập Viện An toàn AI để đánh giá và khảo nghiệm các hệ thống mới. Cách tiếp cận này phản ánh lên cách điều hành hội nghị Bletchley, không vội đưa ra phương thức quản lý.
Thủ tướng Anh Rishi Sunak nói: "Làm sao chúng ta có thể viết luật có ý nghĩa cho một thứ chúng ta chưa hiểu hết trọn vẹn?".
Bởi thế mục đích của hội nghị lần này, như nói rõ trong tuyên bố Bletchley, là xác định các rủi ro an toàn của AI rồi mới xây dựng các chính sách dựa vào các rủi ro này ở các nước tham gia ký kết.
Trang web chính của Microsoft tại địa chỉ MSN.com tổng hợp tin tức từ nhiều nguồn như kiểu baomoi.com hay news.google.com.
Đến năm 2018, trang này vẫn tuyển dụng đến 800 biên tập viên nhằm giúp tuyển chọn tin tức dựa vào dòng chảy thời sự để giúp người đọc có bức tranh tổng quát về tình hình địa phương và thế giới.
Thế nhưng những năm gần đây Microsoft sa thải nhiều biên tập viên, ngày càng dựa vào AI để chọn tin - kết quả là một mớ hỗn độn mà hãng đang phải đau đầu giải quyết.
Chẳng hạn, mới hồi cuối tháng 10, tờ The Guardian của Anh đã gởi thư phản đối cách Microsoft xử lý một bản tin của báo.
Theo thỏa thuận, Microsoft có trả tiền cho các báo để đăng tin của báo lên trang MSN của mình.
Trước đó, trang MSN từng đăng nhiều tin giả như chuyện Tổng thống Joe Biden ngủ gật trong phút tưởng niệm nạn nhân vụ cháy rừng hay rút tít ẩu như tin Brandon Hunter, một cầu thủ bóng rổ, qua đời năm 42 tuổi được chạy tít: "Brandon Hunter trở nên vô dụng ở tuổi 42". Hệ thống AI của Microsoft nhiều lúc chọn đăng tin của các trang web nhỏ, không ai biết, gián tiếp giúp làm lây lan tin giả, tin theo thuyết âm mưu.
Các lời quảng cáo của Microsoft lúc tung ra "biên tập viên AI" như "các thuật toán đánh trúng mối quan tâm của độc giả" hóa ra là đúng theo hướng họ chọn toàn tin giật gân, câu khách như bản chất tò mò, thích hóng chuyện của con người. Dùng AI như thế là đi theo mặt trái của cuộc sống bởi nền văn minh loài người sinh ra cũng để giám sát bản năng của loài người chứ ai lại thả lỏng như MSN.
Hội nghị thượng đỉnh ở Bletchley đã thoáng đề cập, nhưng chưa đưa ra kết luận về một chủ đề được bàn tới gần đây trong giới công nghệ: liệu AI sẽ trở thành một thứ nguy hiểm như vũ khí hạt nhân, và thế giới có cần thành lập một tổ chức như Cơ quan Năng lượng nguyên tử quốc tế (IAEA) để giám sát hay không?
Trong ngày thứ hai của sự kiện, đại diện chủ nhà, Thủ tướng Anh Rishi Sunak cảnh báo AI có thể đe dọa nhân loại "ở tầm mức một đại dịch hay chiến tranh hạt nhân".
Đây không phải lần đầu có so sánh như thế.
Trong một tuyên bố chung hồi tháng 5, những tên tuổi lớn trong ngành nghiên cứu AI nhận định: "Chúng ta rồi sẽ cần một cái gì đó giống như IAEA dành cho những nỗ lực phát triển siêu AI: mọi cố gắng [đưa AI] vượt quá một ngưỡng nhất định về khả năng (hoặc tài nguyên như năng lực điện toán) sẽ cần phải được một cơ quan quốc tế có thẩm quyền giám sát, thanh tra và kiểm tra việc tuân thủ các tiêu chuẩn an toàn, cũng như đặt ra giới hạn về quy mô sử dụng và mức độ an ninh".
Trong một bài viết hồi cuối tháng 6, cây bút Dylan Matthews của Vox chỉ ra các điểm tương đồng và khác nhau giữa AI và công nghệ hạt nhân, để xem việc so sánh hai thứ với nhau có khập khiễng hay không.
Về điểm giống nhau, cả hai đều là thành quả của sự phát triển vũ bão của khoa học công nghệ; đều có khả năng gây hại quy mô lớn; đều phụ thuộc vào một "nguyên liệu" quan trọng - uranium với phát triển hạt nhân và chip với AI; và cùng là động lực để các cường quốc chạy đua vũ trang.
Vụ thử hạt nhân Trinity ngày 16-7-1945 ở Mỹ đã hiện thực hóa một lý thuyết (phản ứng phân hạch) chỉ mới hình thành trước đó chưa đầy 7 năm.
Tương tự, Transformer - mô hình xử lý ngôn ngữ tự nhiên sau này trở thành nền tảng để phát triển các mô hình ngôn ngữ lớn như GPT hay Claude - chỉ mới được công bố cách đây 6 năm.
Một điểm khác nhau nổi bật giữa vũ khí hạt nhân và AI, theo Matthews: một bên là công nghệ quân sự, một bên là công nghệ cho mục đích chung.
Quân sự hóa AI là một thực tế đang diễn ra, nhưng công nghệ này về cơ bản sẽ phục vụ quần chúng nhiều hơn; giống như điện hay Internet, nó khiến cuộc sống dễ dàng hơn, và vì thế không cần phải cấm cửa triệt để.
Tác giả kết luận: so sánh AI với vũ khí hạt nhân có thể là vô ích - một bên có cả một lịch sử để tham khảo, một bên chưa rõ tương lai thế nào.
Nhưng sẽ có ý nghĩa hơn nếu tập trung vào một vài điểm giống nhau, nhất là chuyện cả hai đều là động lực để các nước chạy đua vũ trang - với hạt nhân là Mỹ và Liên Xô những năm 1940, và với AI là Mỹ và Trung Quốc hiện nay.
Chỉ riêng chuyện này, việc có một tổ chức quốc tế giám sát như IAEA là hợp lý. "Cách tốt nhất để xử lý một công nghệ mới, mạnh mẽ và nguy hiểm là thông qua hợp tác quốc tế rộng rãi.
Cách tiếp cận đúng đắn không phải là nằm yên và để các nhà khoa học và kỹ sư biến đổi thế giới của chúng ta mà không cần sự can thiệp từ bên ngoài" - anh viết.
Năm 1952, 11 quốc gia ký hiệp định thành lập Tổ chức Nghiên cứu hạt nhân châu Âu (CERN), với nhiệm vụ "hợp tác trong nghiên cứu khoa học [hạt nhân] với tính chất thuần túy cơ bản", nghĩa là vì lợi ích công cộng.
5 năm sau, IAEA được thành lập để giám sát các kho dự trữ uranium toàn cầu và hạn chế phổ biến vũ khí hạt nhân. CERN và IAEA, cùng một số tổ chức khác, đã giúp chúng ta tránh được một thảm họa hạt nhân trong 70 năm qua.
Nếu nhân loại đang cần một CERN hay IAEA cho AI, mà đúng hơn là AGI (trí tuệ tổng hợp nhân tạo, AI cao cấp với khả năng nhận thức như của con người) thì các cơ quan đó sẽ thế nào?
MAGIC sẽ chỉ nhắm vào các nghiên cứu AI có rủi ro cao, chẳng hạn "AI toàn năng" - mọi đột phá trong nghiên cứu dạng này sẽ phải được thẩm định độ an toàn trước khi công bố rộng rãi.
Với cơ chế này, MAGIC sẽ không ảnh hưởng đến đại đa số các công trình nghiên cứu và phát triển AI nói chung. Miotti cũng nhấn mạnh đây là cách làm phổ biến trong các lĩnh vực khác, chẳng hạn nghiên cứu về các mầm bệnh gây chết người bị giới hạn trong các phòng thí nghiệm có mức độ an toàn sinh học rất cao, hay các nghiên cứu về thuốc đều được giám sát bởi các cơ quan quản lý như FDA.
MAGIC cũng có thể đặt ra ngưỡng năng lực điện toán cho nghiên cứu AI, tương tự các chuẩn an toàn về làm giàu uranium của IAEA.
"MAGIC có thể đảm bảo an toàn và bảo mật cần thiết cho công nghệ mang tính biến đổi này và phân phối lợi ích cho tất cả các bên ký kết. CERN là tiền lệ cho thấy chúng ta có thể thành công với MAGIC" - tác giả kết luận.
Một cách làm khác, theo phân tích của Elias Groll, biên tập viên cao cấp trang tin an ninh mạng CyberScoop, là đánh vào 3 chân kiềng của AI, hay còn gọi là "tam giác AI" (AI Triad): dữ liệu, thuật toán và năng lực điện toán.
Trong khi phần dữ liệu và thuật toán hầu như không thể can thiệp, chân kiềng còn lại, cụ thể là các chip xử lý đồ họa (GPU) siêu mạnh, dễ kiểm soát hơn.
Cách làm này đã được thử nghiệm trong thực tế: hồi tháng 10, Mỹ cấm xuất khẩu các mẫu GPU tối tân và thiết bị làm chip tiên tiến sang Trung Quốc.
Năm xưa, cộng đồng quốc tế đã phải khẩn trương hành động vì một "động lực" rõ mồn một và thảm khốc - hai quả bom ném vào Hiroshima và Nagasaki. Ngược lại, những rủi ro mang tính hủy diệt do AI gây ra hiện chỉ mang tính lý thuyết, đa phần bắt nguồn từ khoa học viễn tưởng, nên cộng đồng quốc tế chưa đủ động lực để mau chóng xây dựng một thỏa thuận kiểu "không phổ biến vũ khí AI quốc tế".
Helen Toner, chuyên gia chính sách AI thuộc trung tâm an ninh và công nghệ mới Đại học Georgetown, cho rằng những thảo luận về việc kiểm soát AI gặp trở ngại là chúng có vẻ đi trước thời đại.
Nếu 10 hoặc 20 năm nữa, khi các công ty công nghệ đã đưa AI đến mức đe dọa nền văn minh nhân loại, hẳn thế giới sẽ nhiều ý chí và sự đồng thuận chính trị hơn về việc kiểm soát nó.
Lịch sử cho thấy các hiệp ước và công ước quốc tế thường là sản phẩm của bi kịch và thảm họa, và vì vậy những người ủng hộ việc kiểm soát AI đang phải đối mặt với câu hỏi: liệu có phải đợi tới lúc đó không?
Trước mắt, các chính phủ đã có câu trả lời: trong khi chờ đợi một thảm họa không biết có xảy ra hay không, tốt hơn là tập trung vào những mối đe dọa gần hơn, như đã thể hiện rõ ở hội nghị Bletchley.
Với nhiều người, IAEA là một tổ chức có nhiệm vụ chủ yếu cử các thanh sát viên đi khắp thế giới để đảm bảo các chương trình năng lượng hạt nhân vì mục đích hòa bình không chuyển hướng sang chế tạo bom hạt nhân.
Công việc ít được biết đến hơn của cơ quan này, theo bài viết trên CyberScoop, là tạo điều kiện thuận lợi cho việc chuyển giao khoa học hạt nhân.
Việc "đổi chác" với các quốc gia về cơ bản là thế này: cứ ký Hiệp ước không phổ biến vũ khí hạt nhân và cam kết không chế tạo bom đi, và IAEA sẽ giúp quý vị thu lợi ích từ chương trình hạt nhân vì mục đích hòa bình. Chính "củ cà rốt" này là động lực khiến hầu hết các quốc gia đều hào hứng với IAEA.
Một chế độ kiểm soát AI, vì thế, cũng cần một "củ cà rốt" để khuyến khích các nước tham gia. Paul Scharre, giám đốc nghiên cứu tổ chức học giả Center for a New American Security, nêu một hướng khả dĩ: các quốc gia sẽ được tiếp cận với các con chip cao cấp hay giấy phép sử dụng các trung tâm dữ liệu, nếu họ cam kết chỉ dùng chúng để phát triển mô hình AI "cho mục đích hòa bình".
"Nếu quý vị muốn truy cập mô hình AI để phục vụ khám phá khoa học, có ngay; chỉ cần không dùng nó để chế tạo vũ khí sinh học" - Scharre nói.
Trên thực tế, cách làm này hoàn toàn khả thi. Ngoài việc kiểm soát chip - như các lệnh cấm xuất khẩu của Mỹ, nhiều phòng nghiên cứu AI trong những năm gần đây đã từ bỏ mô hình mã nguồn mở, vốn là đặc điểm nổi bật của ngành.
Ngày nay, các mô hình AI tiên tiến nhất chỉ có thể truy cập thông qua các ứng dụng hoặc API, cho phép chủ sở hữu kiểm soát ai là người được tiếp cận.
----------------------------------------------------------------------------
Xem thêm: mth.68765358122113202-taos-meik-oas-mal-teh-ueih-auhc-ia/nv.ertiout