ChatGPT, một chatbot trí tuệ nhân tạo do OpenAI đào tạo, đã cáo buộc sai luật sư tranh tụng hình sự nổi tiếng và giáo sư luật Jonathan Turley về hành vi quấy rối tình dục.
Chatbot đã “thêm mắm dặm muối” cho một bài báo của Washington Post về chuyến đi của trường luật tới Alaska, trong đó Turley bị buộc tội đưa ra những lời nói khiêu khích tình dục và cố tình sờ mó một sinh viên, mặc dù Turley chưa bao giờ tham gia chuyến đi như vậy.
Danh tiếng của ông đã bị ảnh hưởng nặng nề sau khi những tuyên bố tai hại này nhanh chóng lan truyền trên mạng xã hội.
Ông bức xúc:
“Tôi rất ngạc nhiên vì tôi chưa bao giờ đến Alaska với sinh viên, The Post chưa bao giờ đăng một bài báo như vậy và tôi chưa bao giờ bị bất kỳ ai buộc tội quấy rối hoặc tấn công tình dục”.
Sau khi nhận được email từ một giáo sư luật đồng nghiệp sử dụng ChatGPT để nghiên cứu các trường hợp quấy rối tình dục của các học giả tại các trường luật Hoa Kỳ, Turley đã biết về các cáo buộc.
Giáo sư Jonthan Turley
Cần thiết phải thận trọng khi sử dụng dữ liệu do AI tạo ra
Trên blog của mình, vị giáo sư làm việc tại George Washington University cho biết:
“Hôm qua, Tổng thống Joe Biden đã tuyên bố “vẫn còn phải xem” liệu Trí tuệ nhân tạo có “nguy hiểm” hay không. Tôi xin phép có ý kiến khác”.
Những lo ngại về độ tin cậy của ChatGPT và khả năng xảy ra các trường hợp trong tương lai giống như Turley đã được nêu ra do trải nghiệm của ông. Chatbot được cung cấp bởi Microsoft, công ty cho biết đã thực hiện các bản nâng cấp để cải thiện độ chính xác.
ChatGPT có bị ảo giác không?
Khi AI tạo ra kết quả không mong muốn, không chính xác và không phù hợp với bằng chứng trong thế giới thực, nó được cho là bị “ảo giác”.
Nội dung, tin tức hoặc thông tin sai lệch về các cá nhân, sự kiện có thể là kết quả của những ảo giác này. Những trường hợp như của Turley cho thấy tác động sâu rộng của việc phổ biến thông tin sai lệch do AI tạo ra trên các phương tiện truyền thông và mạng xã hội.
Các nhà phát triển của ChatGPT, OpenAI, đã nhận ra sự cần thiết phải hướng dẫn công chúng về những hạn chế của các công cụ AI và giảm thiểu khả năng người dùng gặp phải ảo giác như vậy.
Những nỗ lực của công ty để làm cho chatbot chính xác hơn được đánh giá cao, nhưng cần phải làm nhiều việc hơn nữa để đảm bảo điều này không tái diễn.
Vụ việc cũng đã thu hút sự chú ý đến giá trị của việc sử dụng AI có đạo đức và cần thiết phải hiểu sâu hơn những hạn chế của nó.
Yêu cầu sự giám sát của con người
Mặc dù AI có tiềm năng cải thiện đáng kể nhiều khía cạnh trong cuộc sống của chúng ta, nhưng vẫn chưa hoàn hảo và phải được con người giám sát để đảm bảo độ chính xác và độ tin cậy.
Khi trí tuệ nhân tạo tích hợp nhiều hơn vào cuộc sống hàng ngày của chúng ta, điều quan trọng là phải thận trọng và có trách nhiệm trong khi sử dụng những công nghệ như vậy.
Vấn đề của Turley với ChatGPT nêu bật tầm quan trọng của việc thận trọng khi xử lý những điểm không nhất quán và sai lệch do AI tạo ra.
Điều cần thiết là chúng ta phải đảm bảo công nghệ này được sử dụng một cách có đạo đức và có trách nhiệm, luôn nhận thức về điểm mạnh và điểm yếu của nó, khi nó tiếp tục biến đổi môi trường sống của chúng ta.
Trong khi đó, theo giám đốc truyền thông cấp cao Katy Asher của Microsoft, công ty đã thực hiện các bước để đảm bảo tính chính xác của nền tảng.
Turley đã viết phản hồi trên blog của mình:
“Bạn có thể bị AI phỉ báng và những tập đoàn này sẽ chỉ nhún vai nói rằng họ cố gắng trung thực”.
Jake Moore, cố vấn an ninh mạng toàn cầu tại ESET, đã cảnh báo người dùng ChatGPT không nên tin tưởng hoàn toàn để ngăn chặn tình trạng lan truyền thông tin sai lệch có hại.
Tham gia Telegram của Tạp Chí Bitcoin: https://t.me/tapchibitcoinvn
Theo dõi Twitter: https://twitter.com/tapchibtc_io
Theo dõi Tiktok: https://www.tiktok.com/@tapchibitcoin
- Peter Schiff hoan nghênh ChatGPT vì không khuyến nghị đầu tư vào Bitcoin
- CEO Coinbase: Dừng phát triển ChatGPT là một ‘ý tưởng tồi’
- Hành vi của trader gần đây cho biết có nên Long Bitcoin hay không?
Đình Đình
Theo Bitcoinist