Google đã gỡ bỏ một cam kết trong các nguyên tắc trí tuệ nhân tạo (AI) của mình, cam kết trước đây là tránh phát triển AI phục vụ cho vũ khí và giám sát. Sự thay đổi này phản ánh cách tiếp cận của công ty đối với các quan hệ đối tác an ninh quốc gia khi AI ngày càng được tích hợp vào hoạt động quân sự và tình báo.
Trong một bài đăng trên blog được công bố vào thứ 3, các nhà điều hành của Google cho biết cập nhật là cần thiết do AI ngày càng phổ biến và sự cần thiết đối với các công ty công nghệ có trụ sở tại quốc gia dân chủ để hỗ trợ khách hàng chính phủ và quốc phòng.
“Chúng tôi tin rằng các nền dân chủ nên dẫn đầu trong phát triển AI, với những giá trị cốt lõi như tự do, bình đẳng và tôn trọng quyền con người. Chúng tôi tin các công ty, chính phủ và tổ chức chia sẻ những giá trị này nên hợp tác để tạo ra AI bảo vệ con người, thúc đẩy tăng trưởng toàn cầu và hỗ trợ an ninh quốc gia”.
Nguyên tắc AI trước đây của công ty được ban hành vào năm 2018, đã từ chối rõ ràng “vũ khí hoặc các công nghệ khác có mục đích chính hoặc việc triển khai là gây ra hoặc trực tiếp “làm bị thương mọi người” và “các công nghệ thu thập hoặc sử dụng thông tin để giám sát, vi phạm các chuẩn mực được quốc tế chấp nhận”. Hiện tại, nguyên tắc này đã bị xóa khỏi trang web Nguyên tắc AI của công ty.
Google cập nhật các nguyên tắc AI vì “an ninh quốc gia”
Các nguyên tắc đã sửa đổi của Google hiện nêu rõ rằng công ty sẽ tiến hành phát triển AI khi “lợi ích tổng thể có thể vượt xa đáng kể các rủi ro và nhược điểm có thể thấy trước”. Bản cập nhật đánh dấu sự thay đổi đáng kể so với lập trường trước đó, nhấn mạnh vào các cân nhắc về đạo đức và tránh ứng dụng AI có thể gây hại.
Hơn nữa, các nhà lãnh đạo ngành công nghệ Hoa Kỳ dường như đang nỗ lực cải thiện năng lực AI của đất nước, để tiến lên phía trước trong “cuộc chiến tranh lạnh” công nghệ giữa Hoa Kỳ và Trung Quốc.
Vào thứ 2, Giám đốc công nghệ Shyam Sankar của Palantir đã mô tả cuộc đua AI là nỗ lực của “toàn quốc gia” cần vượt ra ngoài khuôn khổ của Bộ Quốc phòng để “Hoa Kỳ chiến thắng”.
Trong nhiều năm, các hạn chế của Google đối với các ứng dụng AI về an ninh quốc gia đã khiến công ty này trở thành một ngoại lệ trong số các công ty AI hàng đầu. Các gã khổng lồ công nghệ khác, bao gồm Microsoft và Amazon, duy trì quan hệ đối tác lâu dài với Lầu Năm Góc – trụ sở của Bộ Quốc phòng Hoa Kỳ, trong khi các công ty AI mới hơn đang gắn kết nhiều hơn trong quan hệ quân sự.
Vào cuối năm ngoái, OpenAI, công ty sáng tạo ChatGPT, đã công bố hợp tác với nhà thầu quốc phòng Anduril để phát triển công nghệ AI cho quân đội Hoa Kỳ. Tương tự như vậy, Anthropic – công ty đứng sau chatbot Claude đã hợp tác với Palantir để cung cấp dịch vụ AI cho các cơ quan tình báo Hoa Kỳ thông qua Amazon Web Services.
Michael Horowitz, một giáo sư khoa học chính trị tại Đại học Pennsylvania và là cựu quan chức Lầu Năm Góc am hiểu về các công nghệ mới nổi, nhận xét thay đổi chính sách của Google là một phần của xu hướng rộng hơn.
“Thông báo của Google là bằng chứng khác cho thấy mối quan hệ giữa ngành công nghệ và Bộ Quốc phòng Hoa Kỳ đang ngày càng gắn kết, bao gồm cả các công ty AI hàng đầu. Việc Google cập nhật chính sách để phản ánh thực tế mới là điều hợp lý”.
Cuộc tranh cãi về các hợp đồng quân sự và giám sát của Google
Vào năm 2023, Google đã sa thải hơn 50 nhân viên sau một loạt các cuộc biểu tình phản đối Project Nimbus, một hợp đồng điện toán đám mây và AI trị giá 1,2 tỷ đô la hợp tác với Amazon để cung cấp dịch vụ cho chính phủ và quân đội Israel. Các nhà điều hành của Google đã nhiều lần bảo vệ thỏa thuận này, khẳng định nó không vi phạm các nguyên tắc AI của Google.
Tuy nhiên, các tài liệu được công bố vào tháng 12 cho thấy thỏa thuận của Google với Israel bao gồm các tính năng AI như phân loại hình ảnh và theo dõi vật thể, cũng như các điều khoản tiềm năng cho các nhà sản xuất vũ khí thuộc sở hữu nhà nước.
Theo tài liệu, bốn tháng trước khi ký kết Project Nimbus, các nhà điều hành của Google đã bày tỏ lo ngại thỏa thuận này có thể làm tổn hại đến danh tiếng của công ty và các dịch vụ đám mây của họ có thể liên quan đến vi phạm nhân quyền.
Cùng lúc đó, Google đã đối mặt với chỉ trích vì hạn chế các cuộc thảo luận nội bộ về xung đột địa chính trị, bao gồm cả cuộc chiến ở Gaza. Một số nhân viên cáo buộc công ty ngừng các cuộc tranh luận trong khi đồng thời gia tăng sự tham gia vào các hợp đồng AI liên quan đến quốc phòng và giám sát.
Trên mạng xã hội, sau khi Google cập nhật các nguyên tắc AI của mình, người dùng đang tranh luận liệu kế hoạch của công ty công nghệ này là bảo vệ lợi ích của người dân hay chỉ là một chiêu trò để giành phần lớn nhất trong các hợp đồng quốc phòng của chính phủ.
“Vậy, AI sẽ được sử dụng cho vũ khí và giám sát của Hoa Kỳ hay sẽ được bán cho người trả giá cao nhất?”, một người dùng trên X đã hỏi.
Disclaimer: Bài viết chỉ có mục đích thông tin, không phải lời khuyên đầu tư. Nhà đầu tư nên tìm hiểu kỹ trước khi ra quyết định. Chúng tôi không chịu trách nhiệm về các quyết định đầu tư của bạn.
Tham gia Telegram: https://t.me/tapchibitcoinvn
Twitter (X): https://twitter.com/tapchibtc_io
- Ấn Độ bắt tay với Google và Meta ngăn chặn lừa đảo “pig butchering” crypto
- OpenAI đẩy mạnh chiến lược vào Châu Á với quan hệ đối tác Kakao trong bối cảnh đàm phán với SoftBank
- AI agent crypto chuyển sang bi quan khi vốn hóa thị trường giảm 15% trong 24 giờ
Minh Anh