Đạo luật Trí tuệ nhân tạo (AI) của Liên minh Châu Âu cuối cùng đã có hiệu lực 5 tháng sau khi được quốc hội Liên minh Châu Âu thông qua. Với luật hiện có hiệu lực, nó trở thành quy định mang tính bước ngoặt về AI và có thể tạo đà cho các quốc gia khác quản lý lĩnh vực mới nổi.
Tuy nhiên, hầu hết các điều khoản trong Đạo luật AI sẽ chưa có hiệu lực ngay lập tức vì có nhiều mốc thời gian để áp dụng quy tắc. Điều này dự kiến sẽ giúp các công ty có thêm thời gian để tuân thủ luật pháp vì lĩnh vực này phát triển và cho phép quốc gia thành viên tự trang bị cho mình việc thực thi luật pháp.
Các trường hợp sử dụng AI được phân loại dựa trên rủi ro
Đạo luật áp dụng hệ thống phân loại dựa trên rủi ro để xác định các quy tắc sẽ áp dụng cho từng công ty AI. Các danh mục bao gồm không có rủi ro, rủi ro tối thiểu, rủi ro cao và bị cấm. Thời điểm các quy tắc sẽ có hiệu lực tùy thuộc vào danh mục mà hệ thống AI thuộc vào.
Đối với các hệ thống AI bị cấm, cơ quan quản lý đã đặt ra thời hạn là tháng 2/2025 để cấm các hệ thống thu thập dữ liệu trên Internet nhằm mở rộng cơ sở dữ liệu nhận dạng khuôn mặt hoặc thao túng người dùng đưa ra quyết định.
Những loại thuộc danh mục ứng dụng có rủi ro cao cũng sẽ có 6 tháng kể từ ngày 1/8 để tuân thủ quy tắc nghiêm ngặt áp dụng cho họ. Các hệ thống AI được phân loại là có rủi ro cao bao gồm các hệ thống được sử dụng để nhận dạng khuôn mặt, sinh trắc học, dịch vụ công quan trọng, giáo dục, việc làm và phần mềm y tế.
Các yêu cầu đối với nhóm bao gồm trình bày tập dữ liệu đào tạo cho cơ quan quản lý để kiểm toán và cung cấp bằng chứng về sự giám sát của con người. Họ cũng được yêu cầu tiến hành kiểm tra sự phù hợp trước khi đưa ra thị trường. Đối với các hệ thống có rủi ro cao được các cơ quan chính phủ hoặc dịch vụ công sử dụng, nhà phát triển sẽ phải đăng ký trong cơ sở dữ liệu của EU.
Trong khi đó, khoảng 85% hệ thống AI thuộc loại rủi ro tối thiểu, có các quy tắc linh hoạt hơn. Tuy nhiên, Luật vẫn đưa ra các hình phạt nhằm răn đe hành vi vi phạm. Mức phạt dao động từ 7% doanh thu hàng năm trên toàn cầu khi các công ty vi phạm hệ thống AI bị cấm cho đến 1,5% vì cung cấp thông tin sai cho cơ quan quản lý.
AI tạo sinh thuộc nhóm có hạn chế tối thiểu
Đối với các nhà phát triển hệ thống AI tạo sinh, những mối lo ngại được đánh giá là hạn chế vì Đạo luật gắn nhãn mô hình của họ là ví dụ về AI có mục đích chung (GPAI) và phân loại hầu hết là rủi ro tối thiểu. Như vậy, các chatbot AI hàng đầu như MetaAI, ChatGPT, Perplexity, Claude AI, v.v. sẽ không bị ảnh hưởng đáng kể.
Đạo luật chỉ yêu cầu tính minh bạch cao hơn từ các công ty AI này thông qua việc tiết lộ dữ liệu đào tạo của họ. Họ cũng dự kiến sẽ tuân thủ các quy định về bản quyền của EU. Tuy nhiên, một nhóm nhỏ GPAI được coi là đủ quan trọng để gây ra rủi ro hệ thống. Ví dụ, những chương trình được đào tạo sử dụng sức mạnh tính toán trên một mức quy định.
Điều thú vị là EU cũng chịu trách nhiệm thực thi các quy tắc liên quan đến GPAI, mặc dù mỗi quốc gia đều chịu trách nhiệm thực thi quy tắc chung theo Đạo luật. Các quốc gia có thời hạn đến tháng 8/2025 để thành lập cơ quan thực hiện Đạo luật trong nước của họ.
Trong khi đó, một số khía cạnh của Đạo luật vẫn còn nhiều chỗ chưa rõ ràng, như các hướng dẫn cụ thể mà nhà phát triển GPAI phải tuân thủ. Các cơ quan quản lý đang phát triển Quy tắc thực hành cho mục đích này và Văn phòng AI đứng đầu phụ trách.
Văn phòng AI là cơ quan giám sát và xây dựng hệ sinh thái AI, gần đây đã công bố một quy trình tham vấn và kêu gọi tất cả các bên liên quan tham gia vào quá trình soạn thảo quy tắc. Họ dự định sẽ hoàn thành Bộ quy tắc trước tháng 4/2025.
Tham gia Telegram: https://t.me/tapchibitcoinvn
Theo dõi Twitter (X): https://twitter.com/tapchibtc_io
Theo dõi Tiktok: https://www.tiktok.com/@tapchibitcoin
- Đài Loan công bố dự thảo luật trí tuệ nhân tạo (AI)
- Grayscale ra mắt quỹ crypto tập trung vào trí tuệ nhân tạo; giá token AI tăng vọt
- CFTC Hoa Kỳ xem xét hoạt động lừa đảo liên quan đến 15 token bao gồm cả memecoin BEN
Minh Anh
Theo Cryptopolitan