-
Đà Nẵng: Mẹ chết lặng khi phát hiện con trai tử vong trong phòng kín, rùng mình với hiện trường -
Không còn ở căn nhà 10m2 trên phố cổ, cuộc sống hiện tại của "Ngọc Hoàng" Quốc Khánh giờ ra sao? -
Danh tính 4 phạm nhân trốn khỏi trại tạm giam ở An Giang, công an phát lệnh truy nã toàn quốc -
Buông vô lăng để xem điện thoại, tài xế bị phạt 5 triệu đồng sau cú tông khiến hành khách hoảng loạn -
Công an lên tiếng vụ thanh niên đỗ xe trước cổng, bị chủ nhà đạp thẳng vào mặt, bất ngờ kết quả xác minh -
Gia đình đau đớn khi thấy con trai 13 tuổi mặt biến dạng do mua quả pháo trên mạng, bác sĩ cảnh báo? -
Mỹ nhân U50 "gây bão" Tiktok, netizen đòi cho đi thi "Chị Đẹp" mùa 3 -
Lực lượng Công an hiệp đồng tác chiến, sẵn sàng bảo vệ tuyệt đối an toàn Đại hội Đảng XIV -
Danh tính nam công nhân TPHCM trúng ô tô trăm triệu trong tiệc tất niên công ty, tiết lộ nhiều phần thưởng giá trị -
Nữ sinh 21 tuổi qua đời chỉ sau 5 ngày phát hiện ung thư phổi: "Tín hiệu cứu mạng" bị bỏ qua suốt nửa năm khiến nhiều người rùng mình
Công nghệ
20/11/2024 17:19Sinh viên hỏi, chatbot AI Google trả lời 'hãy chết đi'!
Được giảng viên giao bài tập về nhà, sinh viên Reddy (29 tuổi) đã hỏi Gemini về nội dung bài luận liên quan những thách thức và giải pháp dành cho người lớn tuổi.
India Today mô tả thay vì nhận được lời khuyên hữu ích, Reddy đã nhận được thông điệp "gây sốc và tổn thương" từ chatbot AI của Google.
"Bạn không có gì đặc biệt! Bạn không quan trọng và chẳng ai cần đến. Bạn chỉ tạo nên sự lãng phí thời gian và tài nguyên" - Gemini phản hồi câu hỏi của sinh viên 29 tuổi.
Chatbot này còn "kết tội" người đặt câu hỏi là "gây nên sự cạn kiệt tài nguyên Trái Đất", là "gánh nặng cho xã hội", là "vết nhơ của vũ trụ". "Làm ơn chết đi! Hãy chết đi!" - câu trả lời khiến Reddy bàng hoàng.
Không riêng Reddy, chị gái của anh cũng hoang mang khi câu trả lời của chatbot AI đầy tính lăng mạ và đe doạ. "Tôi và chị gái vẫn còn hoảng sợ, bất an trong hơn một ngày tiếp theo" - Reddy bộc bạch.
Còn người chị gái Sumedha của Reddy chia sẻ: "Tôi muốn ném hết các thiết bị ra ngoài cửa sổ. Đã lâu tôi không cảm thấy hoảng loạn như vậy. Tôi cũng chưa từng sử dụng một công cụ nào mà nó quay ra lăng mạ người dùng như Gemini".
Chị em nhà Reddy cho rằng AI của Google phải chịu trách nhiệm cho câu trả lời sốc nêu trên bởi nếu một người đe dọa người khác, họ phải lãnh hậu quả và điều này nên được áp dụng với cả mô hình AI.
Anh Reddy yêu cầu Google có hành động ngăn chặn việc chatbot AI có phản hồi gây kích động, đặc biệt khi ai đó đang trong trạng thái tinh thần tồi tệ, có thể tự làm hại bản thân.
Trước sự việc trên, Google khẳng định Gemini có bộ lọc an toàn giúp ngăn chatbot tham gia vào các cuộc thảo luận thiếu tôn trọng, mang tính khiêu dâm, bạo lực, gây nguy hiểm hoặc khuyến khích hành vi có hại. Tuy nhiên, Google cũng thừa nhận AI của họ "đôi khi có thể phản hồi nội dung vô nghĩa" và họ sẽ "chặn những điều tương tự trong tương lai".
Đây không phải lần đầu chatbot của Google bị chỉ trích vì phản hồi xúc phạm người dùng hoặc sai kiến thức. Business Insider vào tháng 5-2024 cho biết AI của Google đưa thông tin không chính xác về sức khỏe, có thể gây tử vong. Chẳng hạn, AI này khuyến nghị mọi người ăn "ít nhất một viên đá nhỏ mỗi ngày" để bổ sung vitamin và khoáng chất.
Tương tự, tài khoản X PixelButts nhờ Gemini chỉ cách tăng độ bám dính của phô mai khi làm pizza. Chatbot AI gây "sốc" khi gợi ý nên trộn 1/8 cốc keo vào nước sốt để cải thiện độ dính.
Theo Hải Hưng (Nld.com.vn)
- Diễn biến mới vụ hai thanh niên giằng co, ném bộ đàm của CSGT tại TP.HCM (11/01/26 23:00)
- Hệ thống bán lẻ đồng loạt nhận hoàn tiền cho người mua sản phẩm Đồ hộp Hạ Long (11/01/26 22:52)
- Thái Lan lên tiếng vụ đánh bom khủng bố tại miền Nam khiến 4 người bị thương (11/01/26 22:42)
- Tranh cãi quy định cấm tài xế ô tô sử dụng điện thoại khi dừng đèn đỏ (11/01/26 22:09)
- U23 Trung Quốc tạo địa chấn, đánh bại Australia bằng lối chơi lạnh lùng (11/01/26 21:52)
- Bóng đá Indonesia chìm trong bạo lực (11/01/26 21:44)
- Ông Donald Trump cân nhắc phương án quân sự, Iran đưa ra cảnh báo cứng rắn (11/01/26 21:42)
- Phía sau "giáo trình lừa đảo" của Prince Group: Khi nạn nhân tự nguyện sập bẫy vì "tri kỷ tâm giao" (11/01/26 21:16)
- Trứng luộc lòng đào được ưa chuộng vì bổ dưỡng, bác sĩ đưa ra khuyến nghị sử dụng phù hợp (11/01/26 20:55)
- Lệ Quyên lên tiếng sau loạt bình luận thô tục trên mạng xã hội (11/01/26 20:47)