Các tổ chức lớn của EU đã dành cả tuần để đưa ra các đề xuất trong nỗ lực đạt được thỏa thuận. Các điểm vướng mắc bao gồm cách điều chỉnh các mô hình AI tạo sinh được sử dụng để tạo ra các công cụ như ChatGPT và sử dụng các công cụ nhận dạng sinh trắc học, chẳng hạn như nhận dạng khuôn mặt và quét dấu vân tay.
Jean-Noël Barrot, Bộ trưởng kỹ thuật số của Pháp cho biết: “Sự thống trị về công nghệ đang đi trước sự thống trị về kinh tế và chính trị”.
Đức, Pháp và Ý đã phản đối việc điều chỉnh trực tiếp các mô hình AI tạo sinh – hay còn được gọi là “mô hình nền tảng” - thay vào đó ủng hộ việc tự điều chỉnh của các công ty đằng sau chúng thông qua các quy tắc ứng xử do chính phủ ban hành.
Mối lo ngại của các cơ quan quản lý là quy định quá mức có thể cản trở khả năng cạnh tranh của châu Âu với các công ty công nghệ hàng đầu Trung Quốc và Mỹ. Đức và Pháp là quê hương của một số công ty khởi nghiệp AI hứa hẹn nhất châu Âu, bao gồm DeepL và Mistral AI.
Đạo luật AI của EU là đạo luật đầu tiên nhắm mục tiêu cụ thể đến AI và sau nhiều năm nỗ lực của châu Âu nhằm điều chỉnh những quy định liên quan tới công nghệ. Luật này có nguồn gốc từ năm 2021, khi Ủy ban châu Âu lần đầu tiên đề xuất một khuôn khổ pháp lý và quy định chung cho AI.
Luật chia AI thành các loại rủi ro từ “không thể chấp nhận” - nghĩa là các công nghệ phải bị cấm - đến các dạng AI có rủi ro cao, trung bình và thấp.
ChatGPT và các công cụ AI tạo sinh khác như Stable Diffusion, Bard của Google và Claude của Anthropic đã khiến các chuyên gia và cơ quan quản lý AI bất ngờ với khả năng tạo ra kết quả phức tạp và giống con người từ các truy vấn đơn giản sử dụng lượng dữ liệu khổng lồ. AI đã làm dấy lên những lời chỉ trích do lo ngại về khả năng mất việc làm, tạo ra ngôn ngữ phân biệt đối xử và xâm phạm quyền riêng tư.
Việc đưa ra luật pháp hướng dẫn AI đã trở nên cấp bách sau khi ChatGPT được ra mắt vào năm ngoái và trở thành hiện tượng trên toàn thế giới bằng cách chứng minh khả năng tiến bộ của AI. Tại Mỹ, chính quyền Tổng thống Biden gần đây đã ban hành lệnh hành pháp tập trung một phần vào tác động an ninh quốc gia của AI. Anh, Nhật Bản và các quốc gia khác đã thực hiện một cách tiếp cận thoải mái hơn, trong khi Trung Quốc đã đưa ra một số hạn chế đối với các thuật toán đề xuất và sử dụng dữ liệu.
Các quy định mới sẽ được theo dõi chặt chẽ trên toàn cầu. Chúng sẽ không chỉ ảnh hưởng đến các nhà phát triển AI như Google, Meta, Microsoft và OpenA, mà còn ảnh hưởng tới các doanh nghiệp khác dự kiến sẽ sử dụng công nghệ này trong các lĩnh vực như giáo dục, chăm sóc sức khỏe và ngân hàng. Các chính phủ cũng đang chuyển sang sử dụng AI trong tư pháp hình sự và phân bổ lợi ích công cộng.
Tuy nhiên, việc thực thi quy định vẫn chưa rõ ràng. Đạo luật AI sẽ có sự tham gia của các cơ quan quản lý trên 27 quốc gia EU và yêu cầu tuyển dụng các chuyên gia mới vào thời điểm ngân sách chính phủ đang eo hẹp. Những thách thức pháp lý có thể xảy ra khi các công ty thử nghiệm các quy định mới trước tòa. Trước đây, luật pháp EU bao gồm luật riêng tư kỹ thuật số được gọi là Quy định chung về bảo vệ dữ liệu đã bị chỉ trích vì được thực thi không đồng đều.