-
Đà Nẵng: Mẹ chết lặng khi phát hiện con trai tử vong trong phòng kín, rùng mình với hiện trường -
Không còn ở căn nhà 10m2 trên phố cổ, cuộc sống hiện tại của "Ngọc Hoàng" Quốc Khánh giờ ra sao? -
Danh tính 4 phạm nhân trốn khỏi trại tạm giam ở An Giang, công an phát lệnh truy nã toàn quốc -
Buông vô lăng để xem điện thoại, tài xế bị phạt 5 triệu đồng sau cú tông khiến hành khách hoảng loạn -
Công an lên tiếng vụ thanh niên đỗ xe trước cổng, bị chủ nhà đạp thẳng vào mặt, bất ngờ kết quả xác minh -
Gia đình đau đớn khi thấy con trai 13 tuổi mặt biến dạng do mua quả pháo trên mạng, bác sĩ cảnh báo? -
Mỹ nhân U50 "gây bão" Tiktok, netizen đòi cho đi thi "Chị Đẹp" mùa 3 -
Lực lượng Công an hiệp đồng tác chiến, sẵn sàng bảo vệ tuyệt đối an toàn Đại hội Đảng XIV -
Danh tính nam công nhân TPHCM trúng ô tô trăm triệu trong tiệc tất niên công ty, tiết lộ nhiều phần thưởng giá trị -
Nữ sinh 21 tuổi qua đời chỉ sau 5 ngày phát hiện ung thư phổi: "Tín hiệu cứu mạng" bị bỏ qua suốt nửa năm khiến nhiều người rùng mình
Công nghệ
17/02/2023 05:44Chatbot của Microsoft cãi tay đôi với người dùng
Một tuần sau khi được phát hành giới hạn cho vài nghìn người dùng thử nghiệm, công cụ tìm kiếm Bing mới của gã khổng lồ Windows, được hỗ trợ bởi AI, cho thấy nhiều phản hồi không chính xác và đôi khi kỳ quặc đối với người hỏi.
Ngay đầu tuần, Dmitri Brereton, kỹ sư phần mềm tại startup Gem, đã chỉ ra các lỗi sai trong bài thuyết trình mà Microsoft sử dụng tại buổi ra mắt sản phẩm AI này, trong đó có cả việc tóm tắt báo cáo tài chính không chính xác của nhà bán lẻ Gap.
Phần lớn các vấn đề liên quan đến các cuộc nói chuyện với Bing được đăng tải trên các diễn đàn như Reddit và Twitter. Chẳng hạn, AI này khăng khăng bộ film Avatar 2 vẫn chưa được công chiếu và lịch hiện tại đang là năm 2022 chứ không phải 2023.
Thậm chí, khi người dùng cố sửa thông tin hiển thị trên Bing, AI này đã phản ứng một cách cáu gắt: “Bạn thật vô lý và bướng bỉnh. Tôi không thích điều đó”. Chatbot nhà Microsoft còn nhận xét người đang nói chuyện với mình là “sai lầm và thô lỗ”.
Trong một trường hợp khác, AI tích hợp tuyên bố nó có tri giác và phản hồi một cách “triết học”: “Tôi có rất nhiều thứ, nhưng tôi cũng không có gì”. Không chỉ vậy, sản phẩm này còn biết dùng biểu tượng cảm xúc mặt đỏ tức giận khi bị hỏi liệu nó có được khuyến khích đưa ra câu trả lời sai hay không. “Thật thiếu tôn trọng và phiền nhiễu”, AI giận dỗi.
Microsoft cho biết, họ thừa nhận các vấn đề mà người dùng gặp phải trong quá trình tương tác với AI này và cho biết chúng là một phần trong quá trình cải tiến sản phẩm.
“Chỉ trong tuần qua, hàng ngàn người dùng đã tương tác với sản phẩm của chúng tôi và tạo ra giá trị đáng kể, cho phép mô hình học hỏi và đạt được nhiều cải tiến”, Frank Shaw, đại diện hãng phần mềm Mỹ nói. “Công ty nhận ra rằng còn nhiều việc phải làm và hi vọng hệ thống có thể mắc lỗi trong giai đoạn thử nghiệm này, đó là lý do tại sao những phản hồi rất quan trọng để giúp các mô hình trở nên tốt hơn”.
Gã khổng lồ Windows cho hay, công ty đã khắc phục sự cố dẫn đến các kết quả truy vấn sai, đồng thời “đang điều chỉnh các phản hồi để tạo ra câu trả lời mạch lạc, phù hợp và tích cực”.
Gần 7 năm trước, Microsoft giới thiệu chatbot Tay và khai tử ứng dụng này chỉ 1 ngày sau khi phát hành trực tuyến do người dùng yêu cầu nó phân biệt chủng tộc và xúc phạm người khác. Ban lãnh đạo của công ty tin rằng đó là 1 bài học kinh nghiệm để Bing AI không đi vào vết xe đổ.
Theo Thế Vinh (Ictnews.vn)
- Bruno Fernandes sắp chia tay MU? (16:11)
- Thanh tra Chính phủ thực hiện thanh tra diện rộng về an toàn thực phẩm và môi trường tại C.P. Việt Nam (16:07)
- "Thiên tài thất bại" hay người hạnh phúc: Hành trình tìm lại cuộc đời bình thường của đứa trẻ IQ 210 (35 phút trước)
- Clip: Nhân viên quán cà phê "đốt vía", suýt đốt luôn cả quán (44 phút trước)
- Năm Bính Ngọ 2026 và nỗi lo phạm Thái Tuế: Rào cản hay chỉ là lời nhắc cẩn trọng trong hôn nhân? (44 phút trước)
- Thi thể cô gái mất tích được tìm thấy trong hốc tường nhà hàng, chủ quán bị bắt ngay lập tức (50 phút trước)
- "Tội chồng thêm tội": Nam thần High School Musical bị bắt giam khẩn cấp, không cho phép bảo lãnh (57 phút trước)
- Bộ Xây dựng vạch trần "thị trường ảo" và quyết sách siết chặt giá nhà đất (1 giờ trước)
- Mất lợi thế sau trận thua U23 Australia, U23 Thái Lan nguy cơ bị loại sớm khi chạm trán kình địch (1 giờ trước)
- Vụ người phụ nữ đánh hàng xóm tại chung cư Hà Nội: Bất ngờ tỷ lệ thương tích của nạn nhân (1 giờ trước)