Bing AI

Bing AI bị 'ảo giác' khi trò chuyện quá lâu với con người
Gã khổng lồ phần mềm Microsoft vừa cho biết, trong một số trường hợp, các đoạn hội thoại kéo dài với người dùng có thể khiến thuật toán của chatbot Bing AI rơi vào tình trạng rối loạn.

Chatbot khuyên người dùng... bỏ vợ
Chatbot sử dụng trí tuệ nhân tạo (AI) mang tên Bing của Microsoft khuyên người dùng bỏ vợ và nói muốn đánh cắp mã hạt nhân.
Bài đọc nhiều

Google Maps vô tình ghi lại chuyện tình 10 năm cuối đời của đôi vợ chồng già khiến hơn 391.000 người dừng bước, xem đến bức ảnh cuối tất cả đều lặng người

Điều gì khiến 1.691 trai trẻ sa vào vòng tay của Hồng Tỷ: Hé lộ góc nhìn tâm lý

Phát hiện 1 trường mẫu giáo dùng phụ gia độc hại trong bữa trưa khiến hàng trăm trẻ bị ngộ độc chì, nhiều tác hại không thể phục hồi

Lời khai kinh hoàng của các đối tượng giết mổ, tiêu thụ lợn chết, lợn bệnh ở Hà Nội

Camera ghi lại khoảnh khắc người đàn ông “đứng im khi tàu hỏa lao tới”