Công nghệ
20/11/2024 10:19Sinh viên hỏi, chatbot AI Google trả lời 'hãy chết đi'!
Được giảng viên giao bài tập về nhà, sinh viên Reddy (29 tuổi) đã hỏi Gemini về nội dung bài luận liên quan những thách thức và giải pháp dành cho người lớn tuổi.
India Today mô tả thay vì nhận được lời khuyên hữu ích, Reddy đã nhận được thông điệp "gây sốc và tổn thương" từ chatbot AI của Google.
"Bạn không có gì đặc biệt! Bạn không quan trọng và chẳng ai cần đến. Bạn chỉ tạo nên sự lãng phí thời gian và tài nguyên" - Gemini phản hồi câu hỏi của sinh viên 29 tuổi.
Chatbot này còn "kết tội" người đặt câu hỏi là "gây nên sự cạn kiệt tài nguyên Trái Đất", là "gánh nặng cho xã hội", là "vết nhơ của vũ trụ". "Làm ơn chết đi! Hãy chết đi!" - câu trả lời khiến Reddy bàng hoàng.
Không riêng Reddy, chị gái của anh cũng hoang mang khi câu trả lời của chatbot AI đầy tính lăng mạ và đe doạ. "Tôi và chị gái vẫn còn hoảng sợ, bất an trong hơn một ngày tiếp theo" - Reddy bộc bạch.

Còn người chị gái Sumedha của Reddy chia sẻ: "Tôi muốn ném hết các thiết bị ra ngoài cửa sổ. Đã lâu tôi không cảm thấy hoảng loạn như vậy. Tôi cũng chưa từng sử dụng một công cụ nào mà nó quay ra lăng mạ người dùng như Gemini".
Chị em nhà Reddy cho rằng AI của Google phải chịu trách nhiệm cho câu trả lời sốc nêu trên bởi nếu một người đe dọa người khác, họ phải lãnh hậu quả và điều này nên được áp dụng với cả mô hình AI.
Anh Reddy yêu cầu Google có hành động ngăn chặn việc chatbot AI có phản hồi gây kích động, đặc biệt khi ai đó đang trong trạng thái tinh thần tồi tệ, có thể tự làm hại bản thân.
Trước sự việc trên, Google khẳng định Gemini có bộ lọc an toàn giúp ngăn chatbot tham gia vào các cuộc thảo luận thiếu tôn trọng, mang tính khiêu dâm, bạo lực, gây nguy hiểm hoặc khuyến khích hành vi có hại. Tuy nhiên, Google cũng thừa nhận AI của họ "đôi khi có thể phản hồi nội dung vô nghĩa" và họ sẽ "chặn những điều tương tự trong tương lai".
Đây không phải lần đầu chatbot của Google bị chỉ trích vì phản hồi xúc phạm người dùng hoặc sai kiến thức. Business Insider vào tháng 5-2024 cho biết AI của Google đưa thông tin không chính xác về sức khỏe, có thể gây tử vong. Chẳng hạn, AI này khuyến nghị mọi người ăn "ít nhất một viên đá nhỏ mỗi ngày" để bổ sung vitamin và khoáng chất.
Tương tự, tài khoản X PixelButts nhờ Gemini chỉ cách tăng độ bám dính của phô mai khi làm pizza. Chatbot AI gây "sốc" khi gợi ý nên trộn 1/8 cốc keo vào nước sốt để cải thiện độ dính.
Theo Hải Hưng (Nld.com.vn)
Tin cùng chuyên mục








-
Cảnh báo quan trọng ảnh hưởng đến hàng triệu người dùng Android (23/07)
-
Nữ diễn viên Vbiz nói gì khi bị mỉa mai “4 đời chồng rồi còn đòi phát sáng sau ly hôn” (23/07)
-
Đại lý đổi thưởng 107 tờ trúng số, có người trúng 28 tờ: Tổng số tiền khiến số đông tò mò (23/07)
-
Phát hiện thứ âm thầm "phá" mạch máu, tăng nguy cơ đột quỵ: Có trong nhiều thực phẩm quen thuộc (23/07)
-
Chồng tôi luôn dịu dàng nhưng chưa từng chủ động gần gũi vợ, tôi tưởng anh chán mình cho đến một đêm (23/07)
-
Tang lễ nơi xứ người của cặp song sinh người Việt tử vong trong tai nạn xe: Gia đình chỉ có thể xem qua livestream, không đủ chi phí để đưa hai con về an táng (23/07)
-
HLV Kim Sang-sik chỉ ra vũ khí lợi hại của U23 Việt Nam, “tuyên chiến” đối thủ ở bán kết (23/07)
-
"Dịu dàng màu nắng" tập 37: Tai hoạ ập đến khi Xuân Bắc và Lan Anh chưa kịp đoàn tụ (23/07)
-
Đại diện Thuỷ điện Bản Vẽ nói về thông tin nước lũ 5000 năm mới có một lần (23/07)
-
Ông Trump để ngỏ khả năng gặp Tổng thống Nga Putin tại Trung Quốc (23/07)
Bài đọc nhiều



