Vitalik Buterin, người đứng sau Ethereum, đã kêu gọi một cách tiếp cận thận trọng hơn đối với nghiên cứu AI, nhấn mạnh rằng cuộc đua hiện nay là hành động “rất rủi ro”.
Đáp lại lời chỉ trích về OpenAI và nhà lãnh đạo Ryan Selkis – CEO của công ty tình báo tiền điện tử Messari, người tạo ra blockchain có ảnh hưởng thứ hai trên thế giới đã nêu quan điểm của mình về các nguyên tắc cốt lõi sẽ thúc đẩy sự phát triển của AI alignment (trí tuệ nhân tạo điều chỉnh).
Buterin khẳng định: “AI siêu thông minh rất rủi ro và chúng ta không nên lao vào nó, đồng thời nên chống lại những người cố gắng theo đuổi lĩnh vực này”. Buterin khẳng định: “Xin đừng thiết lập máy chủ trị giá 7 nghìn tỷ USD”.
AI siêu thông minh là một dạng lý thuyết của trí tuệ nhân tạo vượt qua trí thông minh của con người trong hầu hết các lĩnh vực. Trong khi nhiều người coi trí tuệ nhân tạo tổng quát (AGI) là sự hiện thực hóa về tiềm năng đầy đủ của công nghệ mới nổi, thì các mô hình siêu thông minh sẽ là bước nhảy vọt tiếp theo.
Mặc dù các hệ thống AI tiên tiến ngày nay vẫn chưa đạt đến ngưỡng này, nhưng những tiến bộ trong học máy, mạng lưới thần kinh và các công nghệ liên quan đến AI khác vẫn tiếp tục phát triển và mọi người vừa phấn khích vừa lo lắng.
Sau dòng tweet của Messari về AGI, Buterin nhấn mạnh tầm quan trọng của hệ sinh thái AI đa dạng để tránh một thế giới mà giá trị khổng lồ của AI được sở hữu và kiểm soát bởi rất ít người.
“Một hệ sinh thái mạnh mẽ gồm các mô hình mở hoạt động trên phần cứng tiêu dùng là hàng rào quan trọng để bảo vệ chúng ta khỏi tương lai, nơi mà giá trị AI thu được là siêu tập trung và hầu hết suy nghĩ của con người sẽ được đọc, điều chỉnh bởi một vài máy chủ trung tâm do một số ít người kiểm soát”.
Người tạo ra Ethereum đã theo dõi chặt chẽ bối cảnh AI, gần đây đã ca ngợi mô hình LLM Llama3 mã nguồn mở. Ông cũng gợi ý rằng LLM đa phương thức GPT-4o của OpenAI có thể đã vượt qua Turing test sau khi một nghiên cứu lập luận rằng, không thể phân biệt phản ứng của con người với phản ứng do AI tạo ra.
Buterin cũng đề cập đến việc phân loại các mô hình AI thành các nhóm “nhỏ” và “lớn”, trong đó ưu tiên tập trung vào việc điều chỉnh các mô hình “lớn”. Tuy nhiên, ông bày tỏ lo ngại rằng, nhiều đề xuất hiện tại có thể dẫn đến việc mọi thứ đều được xếp vào nhóm “lớn”.
Nhận xét của Buterin được đưa ra trong bối cảnh đang có những cuộc tranh luận sôi nổi xung quanh AI alignment và sự từ chức của các nhân vật chủ chốt trong nhóm nghiên cứu của OpenAI.
Ilya Sutskever và Jan Leike đã rời công ty, trong đó Leike cáo buộc Giám đốc điều hành OpenAI, Sam Altman, ưu tiên “các sản phẩm thu lợi” hơn là phát triển AI có trách nhiệm.
Có nguồn tin tiết lộ rằng, OpenAI có các thỏa thuận không tiết lộ (NDA) nghiêm ngặt nhằm ngăn cản nhân viên của họ thảo luận về công ty sau khi rời đi.
Các cuộc tranh luận cấp cao, tầm nhìn dài hạn về AI siêu thông minh đang trở nên cấp bách hơn, với các chuyên gia bày tỏ mối quan ngại trong khi đưa ra nhiều khuyến nghị khác nhau.
Paul Christiano, người trước đây lãnh đạo nhóm mô hình ngôn ngữ tại OpenAI, đã thành lập Alignment Research Center, tổ chức phi lợi nhuận chuyên điều chỉnh các hệ thống AI và máy học phù hợp với “lợi ích của con người”.
Theo báo cáo, Christiano cho rằng, có thể có “50% khả năng xảy ra thảm họa ngay sau khi chúng ta có hệ thống AI thông minh tương đương với con người”.
Mặt khác, vào tháng 4/2023, Yann LeCun, trưởng nhóm nghiên cứu của Meta, tin rằng kịch bản thảm khốc như vậy rất khó xảy ra. Ông khẳng định rằng, sự phát triển AI ngắn hạn ảnh hưởng đáng kể đến cách mà AI phát triển, định hình quỹ đạo dài hạn của nó.
Ngược lại, Buterin tự coi mình là người theo chủ nghĩa trung gian. Trong bài luận từ năm 2023, được ông đã phê duyệt trong ngày hôm nay, Buterin nhận ra rằng, “dường như rất khó để có một thế giới thân thiện do AI siêu thông minh thống trị”, nơi con người không khác gì thú cưng. Nhưng ông cũng lập luận rằng, thông thường thì phiên bản N của một loại công nghệ sẽ gây ra sự cố và phiên bản N+1 sẽ khắc phục nó. Tuy nhiên, việc khắc phục cần sự nỗ lực có chủ đích của con người. Nói cách khác, nếu AI siêu thông minh trở thành vấn đề, con người có thể sẽ tìm ra cách giải quyết vấn đề đó.
Sự ra đi của các nhà nghiên cứu điều chỉnh từ OpenAI và cách tiếp cận thay đổi của công ty đối với các chính sách an toàn đã làm dấy lên mối lo ngại về việc thiếu quan tâm đến phạm trù đạo đức trong quá trình phát triển AI giữa các công ty startup AI lớn.
Thật vậy, Google, Meta và Microsoft cũng được cho là đã giải tán các nhóm chịu trách nhiệm đảm bảo rằng AI đang được phát triển một cách an toàn.
Tham gia Telegram của Tạp Chí Bitcoin: https://t.me/tapchibitcoinvn
Theo dõi Twitter (X): https://twitter.com/tapchibtc_io
Theo dõi Tiktok: https://www.tiktok.com/@tapchibitcoin
- Hồng Kông yêu cầu Worldcoin ngừng quét mống mắt do vi phạm bảo mật dữ liệu
- Elon Musk cảnh báo sản phẩm AI Copilot+ của Microsoft giống như phim Black Mirror
- Liệu tiềm năng phê duyệt Ethereum ETF có báo hiệu sự thay đổi trong chính sách tiền điện tử của Hoa Kỳ?
Việt Cường
Theo DeCrypt