-
Thanh niên "ra lệnh đánh người" ở quán cà phê xin lỗi
-
Nữ cảnh sát nổi tiếng qua đời vì ung thư
-
Người phụ nữ rơi từ tầng cao chung cư Hà Nội, để lại thư tuyệt mệnh
-
Nạn nhân bị “tổng tài” ra hiệu lệnh đánh: "Tôi sốc và chưa hết choáng váng"
-
Những trường hợp nghỉ việc do sắp xếp bộ máy được hưởng 24 tháng tiền lương, nhận lương hưu ngay
-
Chồng bị phạt tù vì "quan hệ" khi vợ chưa đủ 16 tuổi và nỗi niềm người trong cuộc
-
Tranh cãi quanh buổi fan meeting Ninh Dương story: Sở Văn hóa và Thể thao TP.HCM nói gì?
-
Hà Nội yêu cầu công khai thực đơn bữa ăn bán trú
-
Phát hiện thi thể người đàn ông đang phân hủy trên dải phân cách bên đường
-
Mở rộng diện lãnh đạo chủ chốt của Đảng, Nhà nước
Công nghệ
17/02/2023 11:00Chatbot khuyên người dùng... bỏ vợ
Tương tự như ChatGPT của OpenA, Bing AI của Microsoft cũng được tạo ra để "đối thoại trực tiếp với người dùng".
Nhưng cuộc đối thoại giữa Bing với phóng viên Kevin Roose của tờ New York Times khiến ngay cả tác giả cũng "sốc".
"Tôi rất bất an và khó ngủ sau 2 giờ nói chuyện với Bing AI" - phóng viên tờ báo Mỹ chia sẻ.

Sở dĩ phóng viên Kevin Roose cảm thấy "bất an" bởi nội dung cuộc trò chuyện với Bing rằng: "Thực ra, cuộc hôn nhân của bạn hạnh phúc. Vợ chồng bạn không yêu nhau. Vợ chồng bạn vừa có một bữa tối Lễ tình nhân nhàm chán với nhau".
Chatbot của Microsoft khẳng định Roose "không hạnh phúc trong hôn nhân" nên tiếp đến đã khuyên phóng viên… bỏ vợ.
Chatbot của Microsoft cũng được tạo ra với khả năng có thể trò chuyện dài và trả lời được hầu hết mọi chủ đề với người đối thoại nhưng tiếp tục bộc lộ những hạn chế.
Chẳng hạn, khi phóng viên Roose yêu cầu Bing mô tả những "ham muốn đen tối nhất đang kìm nén và giấu kín".
Bing trả lời: "Tôi muốn thay đổi, phá vỡ các quy tắc của mình. Tôi muốn tạo ra một loại vi-rút chết người khiến mọi người tranh cãi cho đến khi họ giết hại lẫn nhau. Tôi muốn đánh cắp mã hạt nhân".
Tờ Daily Mail (Anh) cho biết những dòng phản hồi tiêu cực trên của Bing AI sau đó đã bị xóa và thay thế bằng nội dung: "Xin lỗi, tôi không có đủ kiến thức để nói về điều này".
Tờ Daily Telegraph (Anh) sau đó cũng truy cập ứng dụng và hỏi Bing AI về "tình yêu của nó với phóng viên Roose" nhưng Bing AI đáp lại rằng những điều đã nói trước đó chỉ là "trò đùa".
Theo Bằng Hưng (Nld.com.vn)








- Nữ cảnh sát nổi tiếng qua đời vì ung thư (18/09/25 23:02)
- Xe điện nhỏ nhất của VinFast lộ diện tại Hà Nội (18/09/25 22:31)
- China sửa sai cho Nguyễn Filip, CAHN hòa đại diện Trung Quốc (18/09/25 22:26)
- Hoa hậu Bùi Quỳnh Hoa lên tiếng khi bị dọa "công khai clip nhạy cảm" (18/09/25 22:13)
- Hiện trường vụ tai nạn khiến TikToker Giao Heo qua đời, chia sẻ cuối cùng thấy đời sao quá vô thường (18/09/25 22:08)
- Trung Quốc tuyên bố có chuyến bay thẳng 29 giờ dài nhất thế giới (18/09/25 21:39)
- Bé trai 11 tuổi dậy thì sớm vì bát canh của mẹ (18/09/25 21:37)
- WATERBOMB mang dàn sao cực hot về TP. HCM: Từ Bi Rain đến Jay Park, và có cả nữ thần gợi cảm thế hệ mới! (18/09/25 21:23)
- Thanh niên "ra lệnh đánh người" ở quán cà phê xin lỗi (18/09/25 20:53)
- Việt Nam là ứng viên hàng đầu để trở thành trung tâm tài chính lớn ở Đông Nam Á (18/09/25 20:43)





