Ông Sundar Pichai, CEO của Google (trái) và ông Sam Altman, CEO của OpenAI. Ảnh: The NewYork Times
Trong cuộc họp mặt đầu tiên của Nhà Trắng về AI với lãnh đạo các công ty, Phó tổng thống Mỹ Kamala Harris đã nhấn mạnh yêu cầu các công ty công nghệ lớn rằng, họ có nghĩa vụ “đạo đức” để giữ an toàn cho sản phẩm. Cuộc họp diễn ra trong khoảng hai giờ tại Phòng Roosevelt của Nhà Trắng. Tổng thống Biden cũng tham gia cuộc họp một thời gian ngắn.
Trước đó, Nhà Trắng đã công bố các sáng kiến đầu tiên nhằm khắc phục rủi ro của trí tuệ nhân tạo (AI) kể từ khi các chatbot do AI điều khiển bùng nổ.
Các quan chức Nhà Trắng cho biết, Quỹ khoa học quốc gia có kế hoạch chi 140 triệu USD cho các trung tâm nghiên cứu mới, tập trung vào AI. Chính quyền cũng cam kết đưa ra các dự thảo cho cơ quan Chính phủ để đảm bảo việc sử dụng AI bảo vệ "quyền và sự an toàn của người dân nước Mỹ".
Thêm vào đó, một số công ty phát triển AI đã đồng ý cung cấp sản phẩm của họ để được giám sát vào tháng 8 tới, tại một hội nghị an ninh mạng.
Các thông báo trên được đưa ra vài giờ trước khi Phó tổng thống Kamala Harris và các quan chức khác dự kiến gặp gỡ các giám đốc điều hành của Google, Microsoft, OpenAI, nhà sản xuất của ChatGPT và Anthropic - một AI khởi nghiệp để bàn luận về công nghệ.
Một quan chức chính quyền cao cấp cho biết, Nhà Trắng lên kế hoạch làm việc với các công ty về trách nhiệm của họ trong việc giải quyết các rủi ro phát sinh bởi AI.
Nhà Trắng đang chịu áp lực ngày càng tăng đối với việc AI ngày càng có khả năng tạo ra những hình ảnh tinh vi và sống động như thật. Sự bùng nổ mối quan tâm vào công nghệ bắt đầu năm trước, khi OpenAI phát hành ChatGPT và ngay lập tức trở thành công cụ được sử dụng để tìm kiếm thông tin, làm bài tập về nhà và hỗ trợ trong công việc. Kể từ đó, một số công ty công nghệ lớn đã nhanh chóng kết hợp chatbot vào sản phẩm của họ, tăng tốc nghiên cứu về AI, trong khi các nhà đầu tư mạo hiểm đổ tiền vào các khởi nghiệp về AI.
Nhưng sự bùng nổ của AI cũng gia tăng thắc mắc về cách thức công nghệ sẽ làm biến đổi nền kinh tế, làm rung chuyển địa - chính trị và thúc đẩy các hoạt động tội phạm. Các nhà phê bình đã lo ngại về nhiều hệ thống AI không rõ ràng, nhưng cực kỳ mạnh mẽ, với khả năng đưa ra các quyết định mang tính phân biệt đối xử, thay thế con người trong công việc và lan truyền thông tin sai lệch, thậm chí vi phạm pháp luật.
Tổng thống Biden gần đây đã nói rằng: "Vẫn phải xem liệu AI có nguy hiểm” và một số thành viên Chính phủ của ông đã cam kết can thiệp nếu những công nghệ này được sử dụng một cách có hại.
Về cuộc họp tại Nhà Trắng, người phát ngôn của Google và Microsoft từ chối bình luận trước cuộc họp. Người phát ngôn của Anthropic xác nhận Công ty sẽ tham dự. Người phát ngôn của OpenAI không trả lời cho yêu cầu đó.
Các thông báo được xây dựng dựa trên các nỗ lực trước đó khi chính quyền đặt rào cản đối với AI. Năm ngoái, Nhà Trắng đã công bố cái được gọi là "Bản thiết kế của AI Bill of Rights" nói rằng, các hệ thống tự động sẽ bảo vệ quyền riêng tư dữ liệu của người dùng, bảo vệ họ khỏi hệ quả của phân biệt đối xử và làm rõ các hành động được thực hiện.
Vào tháng 1/2023, Bộ Thương mại cũng đã công bố khuôn khổ để giảm thiểu rủi ro trong sự phát triển của AI và đã được thực hiện trong nhiều năm.
Việc giới thiệu Chat GPT và Bard của Google đã gây áp lực lớn cho các chính phủ, buộc họ phải hành động. Liên minh châu Âu - vốn đã đàm phán về các quy định về AI - đã phải đối mặt với nhiều yêu cầu để điều chỉnh phạm vi rộng hơn của AI, thay vì chỉ các hệ thống được coi là rủi ro cao vốn có.
Tại Hoa Kỳ, các thành viên của Quốc hội, bao gồm Thượng nghị sĩ Chuck Schumer của New York đã bắt tay vào soạn thảo hoặc đề xuất luật để điều chỉnh AI.
Nhưng các bước cụ thể hơn để hạn chế công nghệ trong nước nhiều khả năng đến từ các cơ quan thực thi pháp luật ở Washington.
Trong một bài viết của tờ The New York Times vào thứ 4, bà Lina Khan, Chủ tịch Ủy ban Thương mại Liên bang cho biết quốc gia đang ở "thời điểm quan trọng" với AI. Bà ví những phát triển công nghệ gần đây với sự ra đời của những ông lớn như Google và Facebook và cảnh báo, nếu không có các quy định phù hợp, công nghệ này có thể tạo ra quyền lực cho các công ty công nghệ lớn và cho các kẻ lừa đảo những công cụ có ích.
Bà nói rằng: "Khi việc sử dụng AI càng ngày càng phổ biến, các quan chức nhà nước có trách nhiệm đảm bảo “lịch sử khó học” này không gặp lại".