VẤN ĐỀ HAI PHÚT
Cách tiếp cận với những nguy cơ tồn vong của nhân loại không thể theo kiểu thử sai . Sẽ chẳng có cơ hội nào để học hỏi từ những sai lầm . Cách tiếp cận phản ứng theo dõi những gì xảy ra , hạn chế thương tổn , và rút kinh nghiệm – là không thể thực hiện được .
NICK BOSTROM , KHOA TRIẾT HỌC , ĐẠI HỌC OXFORD
Ai không căm ghét bạn , cũng không yêu quý bạn , nhưng bạn được cấu thành từ những nguyên tử mà nó sẽ cần dùng vào việc khác .
– ELIEZER YUDKOWSKY , NHÀ NGHIÊN CỨU , VIỆN NGHIÊN CỨU TRÍ THÔNG MINH MÁY TÍNH
Siêu trí tuệ nhân tạo chưa tồn tại , cũng như trí tuệ nhân tạo phổ quát , thử có khả năng học hỏi như chúng ta và sẽ đuổi kịp rồi vượt qua chúng ta về trí thông minh trên nhiều phương diện . Tuy nhiên , những trí tuệ nhân tạo bình thường lâu nay vẫn ở quanh chúng ta , thực hiện hàng trăm tác vụ , giúp ích cho con người . Đôi khi được gọi là AI yếu hoặc hẹp , nó thực hiện tốt việc tìm kiếm thông tin ( Google ) , giới thiệu sách bạn có thể sẽ thích đọc dựa trên những lựa chọn trước đó ( Amazon ) , thực hiện khoảng 50 – 70 % các lệnh mua bán trên sàn chứng khoán NYSE và NASDAQ . Bởi chúng chỉ làm một nhiệm vụ , dù cực tốt , những siêu máy tính như máy chơi cờ Deep Blue hoặc máy chơi game Jeopardy ! Watson cũng được xếp vào loại AI hẹp .
Cho đến nay AI vẫn rất có ích . Trên một trong hàng tá con chip máy tính trên xe ô tô của tôi , thuật toán chuyến đổi áp lực từ chân phanh sang nhịp phanh tối ưu ( hệ thống chống bó phanh ABS ) có khả năng chống trượt tốt hơn rất nhiều so với khi tôi điều chỉnh phanh . Công cụ tìm kiếm Google trở thành trợ lý ảo của tôi , và nhiều khả năng cũng là của bạn . Cuộc sống trở nên tốt hơn khi có AI trợ giúp . Và không lâu nữa sẽ còn hơn thế nhiều . Hãy tưởng tượng một đội hàng trăm máy tính có trình độ tương đương tiến sĩ chạy 24 / 7 để giải quyết những vấn đề quan trọng như điều trị ung thư , nghiên cứu và phát triển dược phẩm , kéo dài tuổi thọ , làm nhiên liệu nhân tạo , và thay đổi thời tiết . Hãy tưởng tượng cuộc cách mạng trong ngành robot sẽ tạo ra những máy móc thông minh biết thích nghi , làm những công việc nguy hiểm như đào mỏ , chữa cháy , ra trận . thám hiếm đại dương và vũ trụ . Hãy tạm quên đi hiểm họa của siêu vi tuệ nhân tạo với khả năng tự cải tiến . AGI sẽ là phát minh quan trọng hữu ích nhất của loài người .
Nhưng chính xác thì chúng ta đang nói về cái gì . khi chúng ta nói về phẩm chất nhiệm màu của những phát minh này, về trí thông minh ở cấp độ con người ? Trí thông minh cho phép con người chúng ta làm được những gì mà loài vật không thể?
Vâng, là một người thông minh bình thường , bạn có thể nói chuyện điện thoại . Bạn có thể lái xe . Bạn có thể nhận ra hàng ngàn đồ vật thông thường , mô tả kết cấu và cách sử dụng chúng . Bạn có thể khai thác Internet . Bạn có thể đếm đến 10 bằng nhiều thứ tiếng , và có lẽ nói thạo không chỉ một ngôn ngữ . Bạn có những kiến thức phố thống ; hữu dụng – bạn biết rằng cái tay cầm thì gắn với cửa và cốc chén , cùng vô số những điều có ích khác về môi trường sống . Bạn có thể thay đổi môi trường sống thường xuyên , thích nghi với từng loại một .
Bạn có thể làm một số chuyện theo thứ tự hoặc phối hợp chúng với nhau , hoặc tạm dừng một số thứ để tập trung sự chú ý của bạn vào thứ hiện quan trọng nhất . Bạn có thể chuyển đổi giữa các công việc có tính chất khác biệt một cách không khó khăn , không do dự . Và có lẽ quan trọng nhất là bạn có thể học các kỹ năng mới , những kiến thức mới , lên kế hoạch tự cải thiện bản thân . Phần lớn sinh vật đều có sẵn mọi kỹ năng mà chúng sẽ luôn sử dụng . Bạn thì không .
Bộ những năng lực cao cấp của bạn chính là thứ mà chúng ta gọi là trí thông minh cấp độ con người , dạng trí thông minh phổ quát mà những nhà phát triển AGI đang muốn đạt được ở máy tính.
Liệu một máy tính thông minh phổ quát có cần một cơ thể? Để tương thích với khái niệm của chúng ta về trí thông minh phổ quát, máy tính cần có cách để nhận dữ liệu đầu vào từ môi trường , và cung cấp dữ liệu đầu ra , nhưng chưa đủ . Nó cần một số cách để thao tác với các vật thể trong thế giới thực . Nhưng như chúng ta đã thấy trong kịch bản Đứa trẻ Bận rộn , một trí thông minh đủ mạnh có thể sai khiến ai đó hoặc cái gì đó điều khiển các vật thể trong thế giới thực . Alan Turing đã thiết kế một bài kiểm tra trí thông minh cấp độ con người , hiện được gọi là bài kiểm tra Turing mà chúng ta sẽ khảo sát sau . Tiêu chuẩn của ông cho việc biểu thị trí thông minh cấp độ con người chỉ bao gồm cách nhập và xuất dữ liệu cơ bản nhất qua bàn phím và màn hình .
Lý lẽ tốt nhất cho việc tại sao AI tiên tiến cần một cơ thể có thể đến từ công đoạn học hỏi và phát triển – các nhà khoa học có thể khám phá ra rằng không thể “ nuôi lớn ” AGI nếu nó không có một cơ thể . Chúng ta sẽ khảo sát câu hỏi quan trọng về “cơ thể hóa” trí thông minh sau , còn bây giờ hãy quay lại với định nghĩa của chúng ta . Giờ thì có thể tạm thống nhất rằng khi nói tới trí thông minh phổ quát , chúng ta hàm ý đó là khả năng giải quyết vấn đề , học hỏi và thực hiện các hành động hiệu quả giống như con người , trong các môi trường khác nhau .
Trong khi đó , lĩnh vực robot cả những vấn để riêng của nó . Cho đến nay , chưa có robot nào thực sự thông minh kể cả theo nghĩa hẹp , và chỉ vài robot có nhiều hơn những kỹ năng thô sơ như tự động di chuyển và thao tác trên các đồ vật . Robot giỏi hay kém phụ thuộc hoàn toàn vào trí thông minh điều khiển nó .
Vậy thì bao lâu nữa chúng ta sẽ đạt tới AGI ? Một số chuyên gia AI mà tôi từng nói chuyện không nghĩ rằng năm 2020 là quá sớm cho việc xuất hiện trí tuệ nhân tạo cấp độ con người . Nhưng nói chung thì những thăm dò gần đây cho thấy các nhà khoa học máy tính và chuyên gia về các lĩnh vực liên quan tới AI như kỹ thuật , Công nghệ robot , khoa học thần kinh , lại dự đoán thận trọng hơn . Họ nghĩ rằng có hơn 10 % cơ hội AGI sẽ xuất hiện trước năm 2028 , hơn 50 % trước năm 2050 . Trước khi kết thúc thế kỷ này , cơ hội là 90 % .
Ngoài ra , các chuyên gia cho là quân đội hoặc những Công ty lớn sẽ đạt đến AGI trước , còn giới học thuật và các tổ chức nhỏ thì có lẽ khó hơn . Về mặt tốt và mặt xấu , các kết quả không gây bất ngờ – việc chế tạo AGI sẽ mang lại cho chúng ta những lợi ích khổng lồ , và đe dọa chúng ta với những thảm họa khủng khiếp , bao gồm cả những loại mà Con người sẽ không vượt qua được . ” Những thảm họa khủng khiếp nhất , như chúng ta đã khảo sát ở Chương 1 , đến từ cầu nối giữa AGI – trí chống minh cấp độ Con người – và ASI – trí thông minh siêu cấp . Và khoảng thời gian giữa AGI và AST có thể khá ngắn. Nhưng đáng chú ý là trong khi những rủi ro đến từ việc chia sẻ hành tinh này với siêu trí tuệ nhân tạo luôn được nhiều người trong cộng đồng AI coi là chủ đề thảo luận quan trọng nhất ở bất cứ đâu , thì nó lại gần như bị truyền thông đại chúng lờ đi . Tại sao vậy ?
Có nhiều lý do . Phần lớn những đối thoại về sự nguy hiểm của Al đều không rộng hoặc sâu , và chẳng mấy người hiểu chúng . Những vấn đề này được biết đến nhiều ở Thung lũng Silicon và trong giới học thuật , nhưng chúng không được quan tâm ở những nơi khác , đáng báo động nhất là trong lĩnh vực báo chí công nghệ . Khi một tiên đoán tận thế được nhắc đến , nhiều blogger , biên tập viên , và các nhà công nghệ lập tức bĩu môi và nói kiểu như “ Ồ không , lại kiểu phim Terminator ! Chẳng phải chúng tôi đã nghe những thử bảo thủ và bị quan này đến phát chán rồi sao ? ” Phản ứng kiểu này quá ư lười nhác , thể hiện trong những lý lẽ hời hợt . Có những thực tế phiền toái là với giới báo chí công nghệ , những mối nguy về AI không hấp dẫn hoặc dễ hiểu như những tin tức về vi xử lý lõi kép 3 – D , màn hình cảm ứng hoặc ứng dụng đang được ưa chuộng .
Tôi cũng nghĩ rằng vai trò giải trí được ưa chuộng đa làm cho những mối nguy AI không được quan tâm một cách nghiêm túc . Trong nhiều thập niên , câu chuyện con người bị trí tuệ nhân tạo xóa sổ , thường có dạng robot hình người , hoặc nghệ thuật hơn khi có dạng một thấu kính phát sáng đỏ , đã là sản phẩm chính của các bộ phim , tiểu thuyết khoa học viễn tưởng và trò chơi video được ưa chuộng . Hãy tưởng tượng nếu Trung tâm Kiểm soát Dịch bệnh đưa ra một lời cảnh báo nghiêm trọng về ma cà rồng ( không giống như trò bảo động giả vờ của họ gần đây về xác Sống ) . Vì ma cà rồng luôn là một thứ thú vị , nên sẽ cần một khoảng thời gian nhất định để dân chúng ngậm cái miệng đang ngoác ra cười lại , và bắt đầu vội vã đóng các cọc gỗ . Có thể chúng ta đang ở thời kỳ đó với AI , và chỉ có một tai nạn hoặc một trải nghiệm suýt chết mới khiến chúng ta tỉnh ngộ .
Một lý do khác cho việc AI và sự diệt vong của loài người thường không nhận được sự quan tâm nghiêm túc có thể là vì điểm mù tâm lý của chúng ta – một thành kiến trong nhận thức . Thành kiến trong nhận thức là những lỗ hống trên con đường tư duy của chúng ta . Hai nhà tâm lý học Mỹ gốc Do Thái là Amos Tversky và Daniel Kahneman đã bắt đầu nghiên cứu về thành kiến trong nhận thức từ năm 1972 . Ý tưởng cơ bản của họ là con người chúng ta ra quyết định theo những cách phi lý . Bản thân sự quan sát đó là không đủ cho giải Nobel ( Kahneman được trao giải Nobel năm 2002 ) ; cái hay của nó là ở chỗ chúng ta phi lý theo những mô hình có thể kiểm chứng được một cách khoa học . Để ra những quyết định nhanh chóng và hữu dụng trong quá trình tiến hóa sinh học , chúng ta luôn di theo những con đường vẫn giống nhau trong tư duy, thuật ngữ gọi là heuristics . Một trong số đó là nội suy nhiều thứ – quá nhiều để có thể đứng – từ những kinh nghiệm bản thân chúng ta . “
Ví dụ như bạn đến thăm một người bạn và ngôi nhà của anh ta bị cháy . Bạn thoát ra được , và hôm sau bạn trả lời một bản thăm dò vể xếp hạng các nguyên nhân gây tai nạn chết người . Ai có thể trách bạn khi bạn xếp “ cháy ” vào vị trí thứ nhất hoặc thứ hai trong các nguyên nhân thường xảy ra nhất ? Thật ra thì ở Mỹ , cháy nằm cuối danh sách xếp hạng , xếp sau té ngã , tai nạn giao thông , và ngộ độc . Nhưng bằng cách chọn cháy , bạn đã thể hiện thứ gọi là thành kiến “ thường trực ” : kinh nghiệm gần đây ảnh hưởng đến quyết định của bạn , khiến nó trở nên phi lý . Nhưng đừng buồn , ai cũng vậy cả , và còn có cả tá loại thành kiến khác ngoài thứ thành kiến thường trực này .
Có lẽ chính thứ thành kiến thường trực này đã làm chúng ta không liên hệ trí tuệ nhân tạo với sự diệt vong của nhân loại . Chúng ta chưa từng trải qua những tai nạn được truyền thông mô tả chi tiết do AI gây ra , trong khi chúng ta đã gặp nhiều chuyện gần như thế với những thử thường lệ khác . Chúng ta biết về những siêu virus như HIV , SARS và dịch cúm Tây Ban Nha năm 1918 . Chúng ta đã nhìn thấy cách vũ khí hạt nhân xóa số những thành phố đông đúc. Chúng ta sợ hãi trước những bằng chứng địa chất về mảnh thiên thạch cổ xưa kích cỡ bang Texas . Những thảm hoa hạt nhân ở đảo Three Mile ( 1979 ) , Chernobyl ( 1986 ) và Fukushima ( 2011 ) cho thấy chúng ta vẫn phải học các bài học xương máu hết lần này đến lần khác .
Trí tuệ nhân tạo vẫn chưa xuất hiện trên rada dò tìm những mối nguy diệt chủng của chúng ta . Một tai họa có thể sẽ thay đổi điều đó , như thảm họa khủng bố 11 / 9 đã làm thế giới hiểu ra rằng máy bay có thể được dùng như một vũ khí . Cuộc tấn công đó đã tạo ra một cuộc cách mạng trong an ninh sân bay , rồi một tổ chức tiêu tốn 44 tỉ đô – la một năm được thành lập , có tên Bộ An ninh nội địa . Chúng ta có nhất thiết phải cần thảm họa AI để học được bài học đau thương tương tự : Hy vọng là không , bởi có một vấn đề lớn đối với các thảm họa AI . Chúng không giống như thảm họa hàng không , thảm họa hạt nhân , hoặc bất cứ một thảm họa công nghệ nào khác có thể , trừ công nghệ nano . Đó là vì rất có khả năng chúng ta không thể vượt qua được thảm họa AI đầu tiên .
AI ngoài tầm kiểm soát còn có một sự khác biệt quan trọng nữa so với các thảm họa công nghệ . Nhà máy điện hạt nhân và máy bay là các sự vụ đơn nhất – khi thảm hoa qua đi bạn chỉ cần khắc phục . Một thảm họa AI thực sự sẽ bao gồm phần mềm thông minh có khả năng tự cải tiến và nhân bản với tốc độ cao . Nó không bao giờ dừng lại . Làm sao chúng ta có thể dừng một thảm họa lại nếu nó vượt qua cả rào cản phòng thủ mạnh nhất – bộ não của chúng ta ? Và bằng cách nào chúng ta có thể khắc phục một thảm họa mà một khi xảy ra sẽ không bao giờ dừng lại ?
Một lý do khác cho sự vắng mặt kỳ lạ của AI trong các cuộc thảo luận về các mối nguy diệt chủng chính là vì khái niệm Singularity đã choán lấy hầu hết những cuộc đối thoại .
” Singularity ” đã trở thành một từ được dùng rất thời thượng , dù nó có khá nhiều định nghĩa thường được sử dụng một cách lẫn lộn . Ray Kurzweil , nhà phát minh nổi tiếng , tác gia , và là người cổ vũ cho phong trào Singularity , định nghĩa Singularity là một thời kỳ “ phi thường ” ( bắt đầu vào khoảng năm 2015 ) mà kể từ đó tốc độ tiến bộ công nghệ sẽ thay đổi cuộc sống con người không thể đảo ngược . Hầu hết các trí thông minh sẽ thuộc về máy tính , mạnh hơn hàng ngàn tỉ lần máy tính hiện nay . Singularity sẽ khởi nguồn cho một thời đại mới của lịch sử loài người , trong đó hầu hết các vấn đề hiện nay của chúng ta như đối khác , bệnh tật , kể cả cái chết , sẽ được giải quyết .
Trí tuệ nhân tạo là nhân vật chính trong câu chuyện truyền thông về Singalarity , nhưng công nghệ nano cũng đóng một vai trò hỗ trợ quan trọng . Nhiều chuyên gia dự đoán siêu thị tuệ nhân tạo sẽ đưa công nghệ nano đến bước nhảy vọt, vì nó sẽ tìm ra giải pháp cho những vấn đề khó nhằn trong việc phát triển công nghệ này . Một số thì nghĩ rằng sẽ tốt hơn nếu ASI xuất hiện sớm , vì công nghệ nano là là một thứ không quá ổn định để bộ não tí hon của chúng ta chơi đùa . Thật ra thì nhiều lợi ích gắn với Sangularity đến từ công nghệ nano , không phải từ trí tuệ nhân tạo. Xây dựng ở cấp độ nguyên tử có thể cung cấp nhiều ứng dụng, trong đó có sự bất tử , bằng cách chặn quá trình lão hóa ở cấp độ tế bào lại ; hiện thực ảo tuyệt đối, vì các bot nano sẽ tác động trực tiếp lên cơ quan cảm giác của cơ thể, quét neuron và tải trí óc vào máy tính.
Tuy nhiên , những người hoài nghi nói rằng robot nano nằm ngoài tầm kiểm soát có thể sẽ nhân bản không ngừng , biển hành tinh này thành một đống “ chất nhờn xám ” khổng lồ . Vấn đề“ chất nhờn xám ” này là bộ mặt Frankenstein được biết đến nhiều nhất của công nghệ nano . Nhưng hầu như không có ai mô tả vấn đề tương tự của AI , ví dụ “ sự bùng nổ trí thông minh ” trong đó sự phát triển của những máy móc thông minh hơn con người sẽ đưa chúng ta đến chỗ diệt vong . Đó là một trong nhiều mặt tối của viễn cảnh Singularity , một trong nhiều mặt tối mà chúng ta không biết đầy đủ . Sự không biết đó có lẽ đến từ cái mà tôi gọi là vấn đề hai phút .
Tôi từng nghe hàng chục nhà khoa học , nhà phát minh và nhà đạo đức học giảng về siêu trí tuệ nhân tạo . Hầu hết đều nghĩ nó chắc chắn sẽ xảy ra , và tán dương phần thưởng mà vị thần ASI sẽ ban cho chúng ta . Sau đó , thường là ở hai phút cuối của bài nói chuyện , các chuyên gia này sẽ lưu ý rằng nếu AI không được quản lý phù hợp , nó có thể sẽ xóa số loài người . Sau đó thì cử tọa khẽ cười vẻ lo lắng, chỉ muốn nhanh chóng quay lại với những tin tức tốt lành .
Các tác giả tiếp cận cuộc cách mạng công nghệ sắp tới này bằng một trong hai cách . Cách thứ nhất là kiểu như cuốn The Singularity is Near của Kurzweil . Mục đích của họ là đặt nền móng lý thuyết cho một tương lại vô cùng xán lạn . Nếu có điều gì đó tồi tệ xảy ra ở đây , bạn sẽ không bao giờ được nghe về nó trong bản nhạc lạc quan chói tai này . Cách thứ hai thể hiện trong cuốn Wired for Thought ( Kết nối tư duy ) của Jeff Stibel . Nó nhìn vào tương lai công nghệ từ góc nhìn kinh doanh . Stibel lập luận đầy thuyết phục rằng Internet là một bộ não được kết nối ngày một hoàn thiện , và những nhà khởi nghiệp về web nên tính đến điểu này . Những cuốn sách như của Stibel tìm cách dạy cho các doanh nhân hiểu được cách để tạo sự liên kết giữa những xu hướng trên Internet với người tiêu dùng , qua đó thu được nhiều lợi nhuận .
Hầu hết các nhà lý thuyết và các tác gia công nghệ đều quên mất một góc nhìn thứ ba , ít màu hồng hơn , và cuốn sách này sẽ hướng đến cách tiếp cận đó . Luận điểm ở đây là cái kết của việc chế tạo những máy tính thông minh đầu tiên , rồi thông minh hơn con người , không phải là sự gia nhập của chúng vào đời sống , mà là chúng chinh phục chúng ta . Trong công cuộc tìm kiếm AGI , các nhà nghiên cứu sẽ tạo ra một dạng trí thông minh mạnh hơn trí thông minh của chính họ , và họ sẽ không thể kiểm soát hay thấu hiểu đầy đủ .
Chúng ta đã học được bài học về điều sẽ xảy ra khi những thực thể văn minh hơn đối đầu với những thực thể man dã hơn : Christopher Columbus đối đầu với thổ dân Tiano , Pizzaro đối đầu với người Inca , người châu Âu đối đầu với thổ dân Bắc Mỹ .
Hãy chuẩn bị cho cuộc đối đầu tiếp theo . Siêu trí tuệ nhân tạo chống lại bạn và tôi .
Có lẽ những nhà tư tưởng về công nghệ đã cân nhắc về mặt trái của AI , nhưng tin rằng nó khó xảy ra nên chẳng cần để tâm . Hoặc có biết , nhưng nghĩ rằng mình không thể làm gì để thay đổi điều đó . Nhà phát triển AI có tiếng Ben Goertzel , người lập ra lộ trình đến AGI mà chúng ta sẽ khảo sát ở Chương 11 , nói với tôi rằng chúng ta sẽ không biết cách tự vệ trước AI cho đến khi có thêm nhiều kinh nghiệm với nó . Kurzweil , từ lâu đã đưa ra lập luận tương tự – phát minh và sự hợp nhất với siêu trí tuệ nhân tạo sẽ diễn ra tuần tự , đủ để chúng ta vừa làm vừa học . Cả hai đều đồng ý rằng những mối nguy hiểm thực sự của AI không thể thấy được từ bây giờ . Nói cách khác , nếu bạn sống trong thời đại xe ngựa kéo , bạn sẽ không thể đoán được làm thế nào để lại một chiếc ô tô đi trên con đường đóng băng . Vậy thì , thư giãn đi , chúng ta sẽ tìm ra cách khi đến thời điểm đó .
Vấn đề của tôi với cách nhìn từng bước một này là tuy máy móc siêu thông minh thực sự có thể quét sạch nhân loại , hoặc xóa sổ địa vị của con người , nhưng tôi nghĩ rằng những AI chúng ta sẽ gặp trên con đường phát triển siêu trí tuệ nhân tạo cũng nguy hiểm không kém . Kiểu như đụng phải một con gấu xám mẹ là rất nguy hiểm khi đi dã ngoại , nhưng cũng đừng đánh giá thấp khả năng quăng quật mọi thứ của con gấu con . Thêm nữa , những người chủ trương đi từng bước nghĩ rằng từ nền tảng trí thông minh cấp độ con người , bước nhảy lên siêu trí tuệ nhân tạo có thể mất vài năm hay vài thập niên . Điều đó sẽ cho chúng ta một thời kỳ hòa bình để cùng chung sống với những máy móc thông minh , trong lúc đó chúng ta có thể học được nhiều về cách tương tác với chúng . Sau đó thì các hậu duệ cao cấp của chúng sẽ không làm chúng ta bất ngờ .
Nhưng chuyện không nhất thiết phải vậy . Bước nhảy từ trí thông minh cấp độ con người đến siêu trí tuệ nhân tạo , thông qua vòng lặp tích cực của sự tự cải tiến , có thể sẽ là một kiểu nhảy vọt mang tên “ cất cánh nhanh . ” Trong kịch bản này , một AGI sẽ cải tiến trí thông minh của nó nhanh đến nỗi nó trở thành siêu trí tuệ nhân tạo trong vài tuần , vài ngày , hay thậm chí vài giờ , thay vì vài tháng hoặc vài năm . Chương 1 đã mô tả sơ bộ tốc độ và hậu quả của kiểu cất cánh nhanh này . Có thể không có gì là tuần tự cả .
Có khả năng Goertzel và Kurzweil đúng – chúng ta sẽ tìm hiểu sâu hơn về cách nhìn tuần tự sau. Nhưng điều tôi muốn tập trung vào ngay bây giờ là một số ý tưởng quan trọng và đáng báo động đến từ kịch bản Đứa Trẻ Bận Rộn.
Các nhà khoa học máy tính, đặc biệt là những người làm việc cho các cơ quan quốc phòng và tình báo , sẽ cảm thấy cần phải tăng tốc trong việc phát triển AGI , vì đối với họ những khả năng khác ( chẳng hạn như chính quyển Trung Quốc phát triển được trước ) còn đáng sợ hơn chính việc phát triển vội vã AGI . Các nhà khoa học máy tính có thể cũng cảm thấy nên tăng tốc trong việc phát triển AGI để kiểm soát tốt hơn những công nghệ khác có độ bất ổn cao sắp ra đời trong thế kỷ này , chẳng hạn như công nghệ nano . Họ có thể sẽ không dừng lại để kiểm tra về tính tự cải tiến . Một trí tuệ nhân tạo tự cải tiến có thể nhảy vọt từ AGI sang ASI trong một phiên bản cất cánh nhanh của một “ sự bùng nổ trí thông minh ” .
Vì không thể biết thử thông minh hơn con người sẽ làm gì , nên chúng ta chỉ có thể tưởng tượng một phần nhỏ của những khả năng mà chúng sẽ dùng để chống lại chúng ta , chẳng hạn tự nhân đôi để đưa nhiều trí tuệ siêu thông minh vào giải quyết vấn đề , phát triển cùng lúc nhiều chiến lược hòng thoát thân và sinh tổn , cũng như nói dối và chơi xấu . Cuối cùng , chúng ta đã thận trọng giả sử rằng ASI đầu tiên sẽ không yêu và không ghét , mà sẽ bàng quan với hạnh phúc , sức khỏe và sự tồn tại của chúng ta.
Liệu chúng ta có thể tính toán những rủi ro tiềm tàng từ ASI ? Trong cuốn Technological Risk ( Rủi ro công nghệ ) , H . W . Lewis vạch rõ các loại rủi ro và xếp hạng chủng tùy theo khả năng trở thành hiện thực . Dễ xảy ra nhất là những hành động có khả năng cao và hậu quả nặng nề , như lái một chiếc ô tô từ thành phố này đến thành phố khác . Có nhiều dữ liệu để tính toán . Các sự kiện có khả năng thấp , hậu quả nặng nề như động đất thì hiểm hơn và do đó khó lường trước hơn . Nhưng hậu quả của chúng lại quá nghiêm trọng , nên cần phải tính toán khả năng xảy ra .
Ngoài ra còn có những rủi ro với xác suất thấp vì chúng chưa bao giờ xảy ra , nhưng hậu quả thì nặng nề . Biến đổi khí hậu do ô nhiễm môi trường là một ví dụ tốt . ” Cuộc thử nghiệm bom nguyên tử đầu tiên ngày 16 / 7 / 1945 tại White Sands , bang New Mexico là một ví dụ khác . Về mặt kỹ thuật , siêu trí tuệ nhân tạo thuộc phạm trù này . Kinh nghiệm không giúp được gì nhiều . Bạn không thể tính toán xác suất của nó bằng những phương pháp chống kê truyền thống .
Tuy vậy , dựa trên tốc độ phát triển hiện nay của AI , tôi tin là việc phát minh ra siêu trí tuệ nhân tạo thuộc phạm trụ đầu tiên ở một sự kiện có khả năng cao và hậu quả nặng nề . Hơn thế , ngay cả nếu nó là một sự kiện có khả năng thấp , thì mức độ rủi ro của nó cũng đủ để xếp vào loại cần được chúng ta quan tâm hàng đầu . Nói cách khác , tôi tin rằng kịch bản Đứa trẻ Bận Rộn sẽ sớm xảy ra .
Nỗi lo sợ bị một thứ thông minh hơn con người thống trị đã có từ lâu , nhưng phải đến đầu thế kỷ này , một thí nghiệm phức tạp về nó mới được thực hiện ở Thung lũng Silicon , và lập tức trở thành chuyện lưu truyền trên Internet .
Có một lời đồn thế này : một thiên tài cô độc đã tham gia vào một chuỗi cá cược với số tiền lớn , trong trò chơi mà ông ta gọi là Thí nghiệm chiếc hộp AI . Trong thí nghiệm , ông ta sẽ đóng vai AI . Một loạt các triệu phú dot – com sẽ lần lượt đóng vai Người giữ cửa – một nhà chế tạo AI đang đối đầu với thể lưỡng nan của việc trông giữ và kiềm chế AI thông – minh – hơn – con – người . AI và Người giữ cửa sẽ giao tiếp qua một phòng chat online . Người ta nói rằng , chỉ sử dụng mỗi bàn phím , lần nào người đóng vai ASI cũng trốn ra được và thắng cược . Quan trọng hơn , ông ta đã chứng minh được quan điểm của mình . Nếu ông ta , một con người đơn thuần , chỉ cần nói chuyện mà có thể ra khỏi hộp , thì một ASI hàng trăm hoặc ngàn lần thông minh hơn cũng có thể làm được , và còn làm nhanh hơn nhiều . Điều này sẽ dẫn tới cuộc tàn sát loài người . Tin đồn tiếp tục rằng thiên tài nọ sau đó đã biệt tăm . Do thu hút được quá nhiều sự chú ý từ Thí nghiệm chiếc hộp AI , từ các bài báo và bài luận về AI , ông ta đã có một số lớn người hâm mộ . Sở dĩ ông ta tạo ra vụ cá cược về Thí nghiệm chiếc hộp AI là để cứu nhân loại , chứ không phải để tiêu phí thời gian với người hâm mộ . Vì thế , ông ta đã ẩn thân rất khó tìm .
Phần 1: Phát Minh Cuối Cùng – Trí tuệ nhân tạo và sự cáo chung của kỷ nguyên con người (Phần 1)
Phần 2: Phát Minh Cuối Cùng – Trí tuệ nhân tạo và sự cáo chung của kỷ nguyên con người (Phần 2)
Phần 3: Phát Minh Cuối Cùng – Trí tuệ nhân tạo và sự cáo chung của kỷ nguyên con người (Phần 3)
Phần 4: Phát Minh Cuối Cùng – Trí tuệ nhân tạo và sự cáo chung của kỷ nguyên con người (Phần 4)
James Barrat
Sách: Phát Minh Cuối Cùng – Trí tuệ nhân tạo và sự cáo chung của kỷ nguyên con người