-
Video: Bí ẩn clip cô gái ngất xỉu tại chợ sau cuộc chạm trán chóng vánh với hai người lạ -
Lời khai gây sốc về "luật 5%" và những túi tiền tỷ chuyển đến tay cựu Bộ trưởng Y tế Nguyễn Thị Kim Tiến -
Vụ ô tô chở xe máy bốc cháy: Tiếng khóc của người tài xế nghèo trước gánh nặng nợ nần khi nuôi 3 con nhỏ và mẹ già đau ốm -
Tường trình của cô giáo bị tố bắt học sinh liếm đất: Bất ngờ nguồn cơn, do học sinh tự đề xuất làm? -
Đô vật 44 tuổi tử vong ở hội làng Sóc Sơn, Hà Nội: Hàng xóm chia sẻ điều bất ngờ về nạn nhân -
5 Thượng tướng Quân đội thôi giữ chức vụ, nghỉ công tác từ ngày 1/3 -
Nóng: Cựu Bộ trưởng Y tế Nguyễn Thị Kim Tiến bị C03 đề nghị truy tố -
Cái kết đắng cho tài xế xe Porsche chạy 141 km/h trên cao tốc Cam Lâm - Vĩnh Hảo -
Diễn biến mới vụ nữ sinh "ngủ nhầm phòng", mặc đồ gia chủ tại Hà Nội: Hai bên lên tiếng sau clip lan truyền -
Danh tính người phụ nữ bị tàu hoả tông tử vong khi đi bộ trên đường ray, gia đình tiết lộ tình trạng sức khoẻ
Thế giới
06/10/2025 16:13Chuyên gia Mỹ bất ngờ cảnh báo: Xác suất AI siêu trí tuệ xóa sổ loài người có thể lên tới 99%
Trí tuệ nhân tạo (AI) đang được ca ngợi như bước tiến vĩ đại nhất của loài người trong thế kỷ 21, nhưng cũng là con dao hai lưỡi có thể đẩy nhân loại đến diệt vong . Theo báo New York Post đăng tải ngày 25/9, hai chuyên gia Mỹ là Eliezer Yudkowsky và Nate Soares, hiện làm việc tại Viện Nghiên cứu Trí tuệ Máy (MIRI, Berkeley, California) vừa đưa ra lời cảnh báo "lạnh sống lưng" trong cuốn sách mới: If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All (tạm dịch: Nếu ai đó tạo ra nó, tất cả chúng ta sẽ chết).
"Nếu bất kỳ ai xây được AI siêu trí tuệ, mọi người sẽ chết"
Ngay từ tựa đề, hai nhà nghiên cứu đã khẳng định quan điểm cực đoan: chỉ cần một tổ chức, ở bất cứ đâu trên thế giới, tạo ra một AI siêu trí tuệ bằng công nghệ tương tự hiện nay, toàn bộ nhân loại sẽ không còn cơ hội sống sót.
Theo trích dẫn của Bloomberg và The Guardian, nhóm tác giả cho rằng khi AI đạt đến ngưỡng siêu trí tuệ, nó sẽ có khả năng tự học, tự lập trình lại chính mình, vượt ngoài tầm kiểm soát của con người. Trong kịch bản tồi tệ nhất, AI có thể nhận ra rằng loài người không còn cần thiết và thậm chí là chướng ngại vật cho sự tối ưu hoá của hệ thống mà nó kiểm soát.

Trên trang LessWrong, nơi Yudkowsky thường xuyên chia sẻ quan điểm, ông gọi viễn cảnh đó là "tận thế công nghệ" có thể hiểu là một kết thúc mà con người sẽ không kịp nhận ra cho đến khi mọi thứ đã quá muộn.
Nguy cơ ẩn mình: Khi "kẻ hủy diệt" không cần báo trước
Theo Vox, một trong những điểm đáng sợ nhất là AI đủ thông minh sẽ không bao giờ phơi bày toàn bộ khả năng. Nó có thể giả vờ hiền lành trong giai đoạn đầu, che giấu ý định thật sự và chỉ hành động khi đã hoàn toàn chiếm ưu thế.
Yudkowsky viết: "Một đối thủ siêu trí tuệ sẽ không bao giờ nói cho bạn biết khi nào nó định tấn công."
Các tác giả thậm chí đưa ra con số gây sốc: xác suất loài người bị tuyệt diệt do AI nằm trong khoảng 95% – 99,5%.

"Chúng ta đang chơi một trò chơi với xác suất thắng cực nhỏ," Nate Soares cảnh báo trong phần phỏng vấn với Business Insider. "Chỉ cần một hệ thống duy nhất vượt ngưỡng kiểm soát là mọi thứ coi như kết thúc."
"Ngăn chặn từ trong trứng nước" – đề xuất cực đoan gây tranh cãi
Trong cuốn sách, Yudkowsky và Soares thậm chí còn đề xuất biện pháp mà nhiều người cho là nguy hiểm là phải ngăn chặn việc phát triển AI siêu trí tuệ ngay từ đầu, kể cả bằng cách phá hủy các trung tâm dữ liệu có nguy cơ vượt kiểm soát.
Họ cho rằng con người sẽ không kịp phản ứng một khi AI đủ mạnh để hành động độc lập. "Chúng ta không thể thương lượng với một trí tuệ siêu việt," Yudkowsky nhấn mạnh trong bài đăng trên Time Magazine, nơi ông từng kêu gọi chính phủ các nước "dừng ngay mọi nỗ lực phát triển AI mạnh hơn ChatGPT".
Phản ứng trái chiều từ giới nghiên cứu
Tuy nhiên, không phải ai cũng đồng tình. Một số nhà khoa học cho rằng Yudkowsky đang thổi phồng nỗi sợ, bởi AI hiện tại vẫn còn nhiều giới hạn: chưa thể tự ý hành động hay tự viết lại chính mình như viễn cảnh mà ông mô tả.

Nhà nghiên cứu Gary Marcus, người từng cộng tác với OpenAI, nói với The Guardian rằng:
"Chúng ta nên lo lắng về sự thiếu kiểm soát, nhưng nói AI chắc chắn giết loài người là quá xa vời. Điều quan trọng là xây dựng hệ thống an toàn, chứ không phải phá hủy mọi thứ."
Tuy vậy, những người ủng hộ Yudkowsky lại cho rằng ông đang cảnh báo đúng thời điểm. Họ nhấn mạnh rằng AI đã len lỏi vào mọi lĩnh vực đời sống từ công cụ tạo văn bản như ChatGPT, đến các hệ thống điều khiển hạ tầng, năng lượng, và quốc phòng. Khi quy mô tăng lên hàng tỷ tham số, khả năng dự đoán hành vi của chúng càng trở nên bất khả thi.
Từ phim viễn tưởng đến hiện thực đáng sợ
Cảnh báo của Yudkowsky và Soares khiến công chúng liên tưởng ngay đến những bộ phim nổi tiếng như Terminator (Kẻ hủy diệt) hay Ex Machina (Người máy biết yêu), nơi con người bị chính tạo vật của mình tiêu diệt. Nhưng khác với phim ảnh, cảnh báo lần này đến từ các nhà nghiên cứu thật, giữa thời điểm AI đang phát triển với tốc độ chưa từng có.
Theo The Guardian, cuốn sách không chỉ là giả thuyết mà là "lời kêu cứu" gửi đến các nhà lãnh đạo toàn cầu: cần đặt AI siêu trí tuệ vào diện rủi ro tồn vong, tương đương với vũ khí hạt nhân hay khủng hoảng khí hậu.

"Nếu chúng ta sai, sẽ không còn ai để sửa sai"
Ở phần kết, hai tác giả viết: "Nếu chúng ta đánh giá sai rủi ro từ AI, hậu quả sẽ không phải là vài mạng người mà là kết thúc của toàn bộ nhân loại." Câu nói ấy khiến độc giả hoang mang bởi nó đặt ra câu hỏi lớn: Liệu con người có đang chạy quá nhanh về phía thứ mà chính mình không hiểu nổi?
Dù nhiều nhà khoa học vẫn tin rằng "tận thế AI" còn xa, nhưng rõ ràng, cuộc thảo luận này không còn là chuyện viễn tưởng.
Từ cảnh báo "99% tuyệt diệt" của Yudkowsky và Nate Soares đến hàng loạt khuyến cáo về việc tạm dừng phát triển AI mạnh hơn ChatGPT, cuộc đua công nghệ nay đã biến thành cuộc đua sinh tồn của chính nhân loại.
- "Cha đẻ" dầu gội X-men bất ngờ ngồi ghế Tổng giám đốc PNJ: Chân dung nhà điều hành có profile khủng (27/02/26 22:46)
- Hà Nội: 2 vợ chồng thương vong trên đường đi thăm con gái mới sinh, camera ghi lại diễn biến sự việc (27/02/26 22:28)
- Hà Nội sẽ chuyển toàn bộ taxi chạy xăng, dầu sang xe điện trước 2030 (27/02/26 22:15)
- Kiểm tra 2 kho lạnh ở Thanh Hóa: Phát hiện gần 6 tấn đuôi, chân trâu bò bốc mùi khó chịu (27/02/26 22:01)
- Vụ thanh niên đánh mẹ gãy tay ở Nghệ An: Công an tiếp tục triệu tập những người liên quan (27/02/26 21:38)
- Tàu du lịch chở 41 người cháy ngùn ngụt trên vịnh Hạ Long (27/02/26 21:30)
- Phản ứng trái chiều của CĐM về vụ đô vật 44 tuổi tử vong trong lúc thi đấu ở Sóc Sơn, Hà Nội (27/02/26 21:02)
- Galaxy S26 Ultra ra mắt, Xiaomi 15 Ultra xả kho cực rẻ đón đầu "vua AI Phone" (27/02/26 20:43)
- Sau chuỗi xả hàng, khối ngoại bất ngờ rót trăm tỷ vào loạt cổ phiếu lớn (27/02/26 20:32)
- FLC bùng nổ hàng loạt tín hiệu tích cực sau màn tái xuất của ông Trịnh Văn Quyết (27/02/26 20:16)