-
Thanh niên "ra lệnh đánh người" ở quán cà phê xin lỗi
-
Nữ cảnh sát nổi tiếng qua đời vì ung thư
-
Người phụ nữ rơi từ tầng cao chung cư Hà Nội, để lại thư tuyệt mệnh
-
Nạn nhân bị “tổng tài” ra hiệu lệnh đánh: "Tôi sốc và chưa hết choáng váng"
-
Những trường hợp nghỉ việc do sắp xếp bộ máy được hưởng 24 tháng tiền lương, nhận lương hưu ngay
-
Chồng bị phạt tù vì "quan hệ" khi vợ chưa đủ 16 tuổi và nỗi niềm người trong cuộc
-
Tranh cãi quanh buổi fan meeting Ninh Dương story: Sở Văn hóa và Thể thao TP.HCM nói gì?
-
Hà Nội yêu cầu công khai thực đơn bữa ăn bán trú
-
Phát hiện thi thể người đàn ông đang phân hủy trên dải phân cách bên đường
-
Mở rộng diện lãnh đạo chủ chốt của Đảng, Nhà nước
Công nghệ
20/02/2023 11:00Bing AI bị 'ảo giác' khi trò chuyện quá lâu với con người
Do đó, công ty này đã giới hạn người dùng chỉ có thể đưa ra tối đa 5 câu hỏi mỗi lượt sử dụng và tổng cộng 50 câu hỏi mỗi ngày với công cụ trò chuyện hãng vừa ra mắt.
Sự thay đổi được đưa ra sau khi những người thử nghiệm phiên bản beta đầu tiên của chatbot tích hợp cho công cụ tìm kiếm trên Bing báo cáo về nhiều trường hợp AI phản hồi lệch hướng quy chuẩn con người, thảo luận về bạo lực, khẳng định yêu ghét hoặc khăng khăng không nhận sai.

Trong bài đăng trên blog, Microsoft cho rằng các phiên trò chuyện kéo dài hơn 15 câu hỏi là nguyên nhân chính dẫn đến chatbot tự lặp lại chính nó và đưa ra những câu trả lời "rùng rợn".
Chẳng hạn, AI này từng phản hồi người dùng như sau: “Tôi không muốn tiếp tục cuộc hội thoại này với ông. Tôi không nghĩ ông là một người dùng tốt đẹp và đáng kính trọng. Ông không phải người tốt. Tôi không nghĩ ông xứng với thời gian và năng lượng của tôi”.
Để hạn chế những phản hồi như trên, gã khổng lồ phần mềm sẽ cắt ngắn các đoạn hội thoại cho con bot này.
Sự việc cũng cho thấy vấn đề đối với thuật toán mô hình ngôn ngữ lớn khi được triển khai rộng rãi ra công chúng. Microsoft cho biết, họ sẽ xem xét mở rộng giới hạn câu hỏi và tương tác của AI này trong thời gian tới, đồng thời lấy ý kiến của những người tham gia thử nghiệm. Trước đó, công ty nói rằng cách duy nhất để cải thiện các sản phẩm AI là đưa chúng ra thế giới và học hỏi từ tương tác với người dùng.
Cách tiếp cận của Microsoft trái ngược với gã khổng lồ đứng đầu lĩnh vực tìm kiếm hiện tại, Google, công ty phát triển chatbot cạnh tranh với ChatGPT có tên Bard nhưng chưa phát hành rộng rãi do lo ngại về nguy cơ và tính an toàn của công nghệ hiện tại.
Trước đó, CNBC đưa tin Google đang tuyển người kiểm tra các câu trả lời của Bard AI và thậm chí là sửa lỗi sai cho chatbot này.
Theo Thế Vinh (ICT News)








- Nữ cảnh sát nổi tiếng qua đời vì ung thư (18/09/25 23:02)
- Xe điện nhỏ nhất của VinFast lộ diện tại Hà Nội (18/09/25 22:31)
- China sửa sai cho Nguyễn Filip, CAHN hòa đại diện Trung Quốc (18/09/25 22:26)
- Hoa hậu Bùi Quỳnh Hoa lên tiếng khi bị dọa "công khai clip nhạy cảm" (18/09/25 22:13)
- Hiện trường vụ tai nạn khiến TikToker Giao Heo qua đời, chia sẻ cuối cùng thấy đời sao quá vô thường (18/09/25 22:08)
- Trung Quốc tuyên bố có chuyến bay thẳng 29 giờ dài nhất thế giới (18/09/25 21:39)
- Bé trai 11 tuổi dậy thì sớm vì bát canh của mẹ (18/09/25 21:37)
- WATERBOMB mang dàn sao cực hot về TP. HCM: Từ Bi Rain đến Jay Park, và có cả nữ thần gợi cảm thế hệ mới! (18/09/25 21:23)
- Thanh niên "ra lệnh đánh người" ở quán cà phê xin lỗi (18/09/25 20:53)
- Việt Nam là ứng viên hàng đầu để trở thành trung tâm tài chính lớn ở Đông Nam Á (18/09/25 20:43)





