Ngày 7/12, Liên minh châu Âu (EU) đã không đạt được đồng thuận về các nội dung đề xuất trong dự luật quản lý trí tuệ nhân tạo (AI) mà khối này lần đầu tiên đưa ra trên thế giới.
Cuộc thảo luận giữa các nước thành viên EU và Nghị viện châu Âu đã bắt đầu từ chiều 6/12, với hy vọng có thể đạt được một thỏa thuận, sớm nhất vào đầu giờ sáng 7/12. Tuy nhiên, sau 24 giờ, các bên đã không đi đến thống nhất chung. Một quan chức EU cho biết thảo luận sẽ được nối lại vào ngày 8/12.
Nghị viện châu Âu và các nước thành viên EU hiện có quan điểm trái chiều về hai vấn đề. Thứ nhất là cách thức quản lý các mô hình nền tảng như ChatGPT. Các mô hình nền tảng là các hệ thống AI được đào tạo trên các tập dữ liệu lớn, với khả năng học hỏi từ dữ liệu mới để thực hiện nhiều tác vụ khác nhau. Các nước gồm Pháp, Đức và Italy kêu gọi loại bỏ những hệ thống này ra khỏi những quy định cứng rắn hơn của luật.
Trong khi đó, một số nước khác cho rằng luật quản lý AI của EU cần hạn chế thiệt hại có thể xảy ra do lạm dụng AI nhưng vẫn muốn khuyến khích sự đổi mới. Điều này là do các nước châu Âu này vẫn muốn tạo ra được những mô hình nền tảng AI của riêng mình, có khả năng cạnh tranh với công cụ trò chuyện (chatbot) ChatGPT của công ty OpenAI của Mỹ.
Một rào cản thứ hai đối với nỗ lực thống nhất bộ luật quản lý AI là các nhà lập pháp EU chia rẽ về việc cơ quan thực thi pháp luật sử dụng hệ thống AI để nhận dạng sinh trắc học các cá nhân trong không gian công cộng.
Vì vậy, có ý kiến cho rằng ngay cả khi EU đạt được một thỏa thuận vào ngày 8/12 thì luật quản lý AI của khối sẽ khó có hiệu lực sớm nhất vào năm 2026.
Năm 2021, Ủy ban Châu Âu đã lần đầu đề xuất luật quản lý AI. Châu Âu hy vọng thiết lập và triển khai được bộ luật quản lý AI đầu tiên trên thế giới vào cuối năm nay, trong bối cảnh nền tảng công nghệ này đang trải qua những bước phát triển mạnh mẽ. Đặc biệt, sự ra đời của công cụ AI như ChatGPT đã khiến thế giới phải bất ngờ.
Mặc dù công nghệ AI có tiềm năng trong việc hỗ trợ con người trong các lĩnh vực của cuộc sống như chăm sóc sức khỏe, song nhiều ý kiến quan ngại về gia tăng nguy cơ lạm dụng loại công nghệ này để tạo ra những thông tin sai lệch. Một trong tình trạng lạm dụng như vậy phải kể đến việc sử dụng công nghệ deepfake (công nghệ AI) để tạo video với gương mặt và giọng nói giống hệt một người có thật.
Theo báo Tin tức