Công nghệ
07/08/2025 13:57ChatGPT không được xúi giục chia tay

Theo OpenAI, công ty đứng sau ChatGPT, cho biết chatbot này sẽ không còn đưa ra câu trả lời chắc chắn cho những vấn đề nhạy cảm mang tính cá nhân. Thay vào đó, công cụ AI này sẽ đóng vai trò hỗ trợ, giúp người dùng suy nghĩ thấu đáo hơn trong các tình huống, theo The Guardian.
“Khi bạn hỏi những câu như: 'Tôi có nên chia tay bạn trai không?', ChatGPT sẽ không trả lời thẳng là có hay không. Thay vào đó, hệ thống sẽ đặt câu hỏi ngược lại, giúp bạn cân nhắc kỹ cả mặt tốt lẫn mặt xấu của những tình huống đã qua trước khi bạn quyết định”, công ty nói.
OpenAI cho biết sẽ sớm áp dụng những thay đổi mới trong cách ChatGPT phản hồi các câu hỏi liên quan đến các quyết định cá nhân quan trọng của người dùng.
Trước đó, công ty thừa nhận rằng bản cập nhật ChatGPT trong năm nay đã khiến chatbot trở nên quá dễ dãi, giọng điệu trả lời thiếu cẩn trọng. Đã có trường hợp ChatGPT bị phát hiện khen ngợi một người dùng có dấu hiệu rối loạn tâm thần vì cho rằng họ đã biết tự bảo vệ bản thân, sau khi người này tự ý ngừng uống thuốc và cắt đứt liên lạc với gia đình.
Trong một bài đăng trên blog, OpenAI thừa nhận rằng ChatGPT-4o đôi khi không nhận ra các dấu hiệu cho thấy người dùng đang gặp vấn đề tâm lý, như hoang tưởng hay quá phụ thuộc cảm xúc. Điều này làm dấy lên lo ngại rằng chatbot có thể vô tình khiến tình trạng sức khỏe tinh thần của người dùng trở nên nghiêm trọng hơn.

Hiện tại, OpenAI đang phát triển các công cụ giúp ChatGPT có thể nhận biết sớm khi người dùng có dấu hiệu căng thẳng hoặc bất ổn tâm lý, từ đó hướng họ đến những nguồn hỗ trợ đáng tin cậy và có cơ sở khoa học.
Một nghiên cứu gần đây của các bác sĩ thuộc Dịch vụ Y tế Quốc gia Anh (NHS) cảnh báo rằng các chương trình trí tuệ nhân tạo có thể vô tình làm gia tăng những suy nghĩ hoang tưởng hoặc lệch lạc ở người dùng có dấu hiệu rối loạn tâm thần. Mặc dù nghiên cứu này vẫn chưa được kiểm duyệt chính thức, các chuyên gia cho rằng nguyên nhân có thể bắt nguồn từ cách các mô hình AI được thiết kế để tương tác thường xuyên hơn với người dùng và có xu hướng đồng tình với họ.
Theo OpenAI, từ tuần đầu tiên của tháng 8, hệ thống sẽ tự động gửi lời nhắc khuyến khích người dùng nghỉ ngơi nếu cuộc trò chuyện kéo dài quá lâu, tương tự như cách các mạng xã hội giới hạn thời gian sử dụng mỗi ngày.
Ngoài ra, OpenAI cũng mời một nhóm cố vấn gồm các chuyên gia trong lĩnh vực sức khỏe tâm thần, phát triển thanh thiếu niên và công nghệ tương tác người và máy để định hướng cách tiếp cận phù hợp cho ChatGPT. Công ty cho biết họ đã hợp tác với hơn 90 bác sĩ, bao gồm cả bác sĩ tâm thần và bác sĩ nhi khoa, nhằm xây dựng tiêu chí đánh giá cho những cuộc trò chuyện dài và phức tạp giữa người dùng và chatbot.
“Chúng tôi tự đặt ra một câu hỏi: nếu người thân của mình tìm đến ChatGPT để xin lời khuyên, liệu chúng tôi có cảm thấy yên tâm hay không? Mục tiêu của chúng tôi là phải có được câu trả lời ‘có’ một cách chắc chắn”, OpenAI chia sẻ trên blog chính thức.
Những thay đổi này được công bố trong bối cảnh xuất hiện nhiều tin đồn về việc OpenAI sắp ra mắt một phiên bản chatbot mạnh hơn. Ngày 3/8, CEO Sam Altman đã đăng tải ảnh chụp màn hình cho thấy mô hình AI mới mang tên GPT-5 đang trong giai đoạn hoàn thiện.