Một bài đăng của đồng tác giả CEO OpenAI Sam Altman, Chủ tịch OpenAI Greg Brockman và Nhà khoa học trưởng OpenAI Ilya Sutskever cảnh báo rằng cần có quy định chặt chẽ cho sự phát triển của trí tuệ nhân tạo (AI) để ngăn chặn các kịch bản thảm khốc tiềm ẩn.
“Bây giờ là thời điểm tốt để bắt đầu suy nghĩ về việc quản lý siêu trí tuệ. Với bức tranh mà chúng ta thấy hiện nay, có thể hình dung rằng trong vòng 10 năm tới, các hệ thống AI sẽ vượt qua trình độ kỹ năng chuyên gia trong hầu hết các lĩnh vực và thực hiện nhiều hoạt động hiệu quả ngang với một trong những tập đoàn lớn nhất hiện nay”, Altman nói, đồng thời thừa nhận rằng các hệ thống AI trong tương lai có thể vượt trội hơn đáng kể trí tuệ nhân tạo chung (AGI) về khả năng.
Nhắc lại những lo ngại mà Altman đã nêu ra trong phiên điều trần gần đây trước Quốc hội Hoa Kỳ, các tác giả chỉ ra 3 trụ cột mà họ cho là quan trọng đối với việc lập kế hoạch chiến lược trong tương lai.
Ba trụ cột cần quan tâm đối với AI
Đầu tiên, OpenAI tin rằng phải có sự cân bằng giữa kiểm soát và đổi mới, đồng thời thúc đẩy thỏa thuận xã hội “cho phép chúng tôi vừa duy trì sự an toàn vừa giúp tích hợp trơn tru các hệ thống này với xã hội”.
Tiếp theo, họ ủng hộ ý tưởng về “cơ quan quốc tế” được giao nhiệm vụ kiểm tra hệ thống, thực thi kiểm toán, kiểm tra tuân thủ tiêu chuẩn an toàn cũng như triển khai và hạn chế bảo mật. Họ đề xuất cơ quan quản lý AI trên toàn thế giới nên tương tự như International Atomic Energy Agency (Cơ quan Năng lượng Nguyên tử Quốc tế).
Cuối cùng, họ nhấn mạnh sự cần thiết của “năng lực kỹ thuật” để duy trì kiểm soát siêu trí tuệ và đảm bảo “an toàn”. Những yêu cầu cụ thể cho điều này vẫn còn mơ hồ, ngay cả với OpenAI, nhưng bài đăng phản đối các biện pháp quản lý khó khăn như giấy phép và kiểm toán đối với công nghệ nằm dưới ngưỡng siêu trí tuệ.
Về bản chất, ý tưởng là giữ cho siêu trí tuệ phù hợp với ý định của những người huấn luyện nó, ngăn chặn “kịch bản foom”— bùng nổ nhanh chóng, không thể kiểm soát về khả năng của AI vượt xa tầm kiểm soát của con người.
OpenAI cũng cảnh báo về tác động thảm khốc tiềm ẩn từ sự phát triển mất kiểm soát của mô hình AI có thể gây ra đối với xã hội trong tương lai. Các chuyên gia khác trong lĩnh vực này cũng viện dẫn những lo ngại tương tự, từ “Bố già” AI Geoffrey Hinton cho đến các nhà sáng lập các công ty AI như Stability AI và thậm chí cả nhân viên OpenAI trước đây từng tham gia đào tạo GPT LLM. Lời kêu gọi khẩn cấp về cách tiếp cận chủ động đối với quản trị và quy định AI đã thu hút sự chú ý của các cơ quan quản lý trên toàn thế giới.
Thách thức của siêu trí tuệ “an toàn”
OpenAI tin rằng một khi những điểm nêu trên được giải quyết, tiềm năng của AI có thể được khai thác một cách tự do hơn vì mục đích tốt:
“Công nghệ này sẽ cải thiện xã hội của chúng ta và khả năng sáng tạo của mọi người khi sử dụng công cụ mới chắc chắn sẽ làm chúng ta kinh ngạc”.
Các tác giả cũng giải thích rằng không gian hiện đang phát triển với tốc độ nhanh và điều đó sẽ không thay đổi.
“Để ngăn chặn nó, đòi hỏi một thứ gì đó giống như chế độ giám sát toàn cầu và thậm chí khó có thể đạt hiệu quả”, blog viết.
Bất chấp những thách thức này, các nhà lãnh đạo của OpenAI vẫn cam kết tìm hiểu câu hỏi:
“Làm thế nào chúng ta có thể đảm bảo đạt được khả năng kỹ thuật để siêu trí tuệ được an toàn?”.
Thế giới hiện không có câu trả lời, nhưng chắc chắn sẽ cần điều đó và hiện tại ChatGPT chưa thể cung cấp.
Tham gia Telegram của Tạp Chí Bitcoin: https://t.me/tapchibitcoinvn
Theo dõi Twitter: https://twitter.com/tapchibtc_io
Theo dõi Tiktok: https://www.tiktok.com/@tapchibitcoin
- Bitcoin sắp lao dốc? Giới chuyên gia đưa ra cảnh báo lớn
- Tích hợp ChatGPT liệu có mang đến làn gió mới cho Solana?
- ChatGPT: 4 công nghệ mới nổi này có thể là cơn sốt bùng nổ tiếp theo cho tiền điện tử sau AI
Đình Đình
Theo Decrypt