-
“Ăn nước bọt với nước rác ngon không?”: Khách sốc vì bài đăng của nhân viên quán nướng Hà Nội sau mâu thuẫn
-
Miền Bắc sắp mưa to đến rất to, 8 tỉnh sau đặc biệt chú ý
-
Trường đại học Y khoa Phạm Ngọc Thạch lên tiếng vụ thí sinh 24 tuổi trúng tuyển tiến sĩ
-
Lốc xoáy đánh chìm nhiều thuyền của ngư dân
-
Doãn Hải My cùng Đoàn Văn Hậu đưa quý tử đi chơi Trung thu, visual "bạch nguyệt quang" gây sốt cõi mạng
-
6 máy bơm hoạt động ngày đêm "giải cứu" xóm ngập cả tuần ở Hà Nội
-
Bạn gái tiết lộ điều ít ai biết về Văn Thanh
-
Vỡ hụi trăm tỷ ở TPHCM: Nhiều người ở khắp các tỉnh, thành kéo về tố cáo
-
"Chảy máu chất xám ngược": Vì sao gần 100 nhà khoa học rời Mỹ về Trung Quốc?
-
Bánh Trung thu ngày Rằm tháng Tám: Dù "ế" nhưng nhiều thương hiệu không giảm giá
Thế giới
06/10/2025 16:13Chuyên gia Mỹ bất ngờ cảnh báo: Xác suất AI siêu trí tuệ xóa sổ loài người có thể lên tới 99%
Trí tuệ nhân tạo (AI) đang được ca ngợi như bước tiến vĩ đại nhất của loài người trong thế kỷ 21, nhưng cũng là con dao hai lưỡi có thể đẩy nhân loại đến diệt vong . Theo báo New York Post đăng tải ngày 25/9, hai chuyên gia Mỹ là Eliezer Yudkowsky và Nate Soares, hiện làm việc tại Viện Nghiên cứu Trí tuệ Máy (MIRI, Berkeley, California) vừa đưa ra lời cảnh báo "lạnh sống lưng" trong cuốn sách mới: If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All (tạm dịch: Nếu ai đó tạo ra nó, tất cả chúng ta sẽ chết).
"Nếu bất kỳ ai xây được AI siêu trí tuệ, mọi người sẽ chết"
Ngay từ tựa đề, hai nhà nghiên cứu đã khẳng định quan điểm cực đoan: chỉ cần một tổ chức, ở bất cứ đâu trên thế giới, tạo ra một AI siêu trí tuệ bằng công nghệ tương tự hiện nay, toàn bộ nhân loại sẽ không còn cơ hội sống sót.
Theo trích dẫn của Bloomberg và The Guardian, nhóm tác giả cho rằng khi AI đạt đến ngưỡng siêu trí tuệ, nó sẽ có khả năng tự học, tự lập trình lại chính mình, vượt ngoài tầm kiểm soát của con người. Trong kịch bản tồi tệ nhất, AI có thể nhận ra rằng loài người không còn cần thiết và thậm chí là chướng ngại vật cho sự tối ưu hoá của hệ thống mà nó kiểm soát.

Trên trang LessWrong, nơi Yudkowsky thường xuyên chia sẻ quan điểm, ông gọi viễn cảnh đó là "tận thế công nghệ" có thể hiểu là một kết thúc mà con người sẽ không kịp nhận ra cho đến khi mọi thứ đã quá muộn.
Nguy cơ ẩn mình: Khi "kẻ hủy diệt" không cần báo trước
Theo Vox, một trong những điểm đáng sợ nhất là AI đủ thông minh sẽ không bao giờ phơi bày toàn bộ khả năng. Nó có thể giả vờ hiền lành trong giai đoạn đầu, che giấu ý định thật sự và chỉ hành động khi đã hoàn toàn chiếm ưu thế.
Yudkowsky viết: "Một đối thủ siêu trí tuệ sẽ không bao giờ nói cho bạn biết khi nào nó định tấn công."
Các tác giả thậm chí đưa ra con số gây sốc: xác suất loài người bị tuyệt diệt do AI nằm trong khoảng 95% – 99,5%.

"Chúng ta đang chơi một trò chơi với xác suất thắng cực nhỏ," Nate Soares cảnh báo trong phần phỏng vấn với Business Insider. "Chỉ cần một hệ thống duy nhất vượt ngưỡng kiểm soát là mọi thứ coi như kết thúc."
"Ngăn chặn từ trong trứng nước" – đề xuất cực đoan gây tranh cãi
Trong cuốn sách, Yudkowsky và Soares thậm chí còn đề xuất biện pháp mà nhiều người cho là nguy hiểm là phải ngăn chặn việc phát triển AI siêu trí tuệ ngay từ đầu, kể cả bằng cách phá hủy các trung tâm dữ liệu có nguy cơ vượt kiểm soát.
Họ cho rằng con người sẽ không kịp phản ứng một khi AI đủ mạnh để hành động độc lập. "Chúng ta không thể thương lượng với một trí tuệ siêu việt," Yudkowsky nhấn mạnh trong bài đăng trên Time Magazine, nơi ông từng kêu gọi chính phủ các nước "dừng ngay mọi nỗ lực phát triển AI mạnh hơn ChatGPT".
Phản ứng trái chiều từ giới nghiên cứu
Tuy nhiên, không phải ai cũng đồng tình. Một số nhà khoa học cho rằng Yudkowsky đang thổi phồng nỗi sợ, bởi AI hiện tại vẫn còn nhiều giới hạn: chưa thể tự ý hành động hay tự viết lại chính mình như viễn cảnh mà ông mô tả.

Nhà nghiên cứu Gary Marcus, người từng cộng tác với OpenAI, nói với The Guardian rằng:
"Chúng ta nên lo lắng về sự thiếu kiểm soát, nhưng nói AI chắc chắn giết loài người là quá xa vời. Điều quan trọng là xây dựng hệ thống an toàn, chứ không phải phá hủy mọi thứ."
Tuy vậy, những người ủng hộ Yudkowsky lại cho rằng ông đang cảnh báo đúng thời điểm. Họ nhấn mạnh rằng AI đã len lỏi vào mọi lĩnh vực đời sống từ công cụ tạo văn bản như ChatGPT, đến các hệ thống điều khiển hạ tầng, năng lượng, và quốc phòng. Khi quy mô tăng lên hàng tỷ tham số, khả năng dự đoán hành vi của chúng càng trở nên bất khả thi.
Từ phim viễn tưởng đến hiện thực đáng sợ
Cảnh báo của Yudkowsky và Soares khiến công chúng liên tưởng ngay đến những bộ phim nổi tiếng như Terminator (Kẻ hủy diệt) hay Ex Machina (Người máy biết yêu), nơi con người bị chính tạo vật của mình tiêu diệt. Nhưng khác với phim ảnh, cảnh báo lần này đến từ các nhà nghiên cứu thật, giữa thời điểm AI đang phát triển với tốc độ chưa từng có.
Theo The Guardian, cuốn sách không chỉ là giả thuyết mà là "lời kêu cứu" gửi đến các nhà lãnh đạo toàn cầu: cần đặt AI siêu trí tuệ vào diện rủi ro tồn vong, tương đương với vũ khí hạt nhân hay khủng hoảng khí hậu.

"Nếu chúng ta sai, sẽ không còn ai để sửa sai"
Ở phần kết, hai tác giả viết: "Nếu chúng ta đánh giá sai rủi ro từ AI, hậu quả sẽ không phải là vài mạng người mà là kết thúc của toàn bộ nhân loại." Câu nói ấy khiến độc giả hoang mang bởi nó đặt ra câu hỏi lớn: Liệu con người có đang chạy quá nhanh về phía thứ mà chính mình không hiểu nổi?
Dù nhiều nhà khoa học vẫn tin rằng "tận thế AI" còn xa, nhưng rõ ràng, cuộc thảo luận này không còn là chuyện viễn tưởng.
Từ cảnh báo "99% tuyệt diệt" của Yudkowsky và Nate Soares đến hàng loạt khuyến cáo về việc tạm dừng phát triển AI mạnh hơn ChatGPT, cuộc đua công nghệ nay đã biến thành cuộc đua sinh tồn của chính nhân loại.








- Giám đốc Công an Đồng Nai thông tin vụ 3 người trong gia đình bị sát hại (18:08)
- Vụ sát hại 3 người vì "làm nhiệm vụ trong game": Nghi phạm sững sờ, không ngờ công an tìm ra mình nhanh như vậy (18:00)
- Khởi tố cựu Phó Bí thư Tỉnh ủy Đồng Nai Phan Thị Mỹ Thanh về tội ‘Nhận hối lộ" (57 phút trước)
- Bốn người thương vong sau cú va chạm giữa xe ô tô và xe đầu kéo ở Quảng Trị (1 giờ trước)
- Đối tượng nghiện game sát hại 3 người ở Đồng Nai: Hé lộ hành động xóa dấu vết tinh vi sau khi nổ súng (1 giờ trước)
- Vingroup lập công ty thép VinMetal vốn 10.000 tỷ đồng: Làm thép đặc chủng cho xe điện (1 giờ trước)
- Cận cảnh nơi sắp trở thành nhà hát opera 12.700 tỷ đồng bên Hồ Tây (2 giờ trước)
- Vietnam’s Next Top Model 2025: Lộ diện Top 3 bước vào Chung kết, vì sao không có Nàng Mơ? (2 giờ trước)
- “Ăn nước bọt với nước rác ngon không?”: Khách sốc vì bài đăng của nhân viên quán nướng Hà Nội sau mâu thuẫn (2 giờ trước)
- Tập chơi xe phân khối lớn, chọn xe máy 250cc có phù hợp? (2 giờ trước)




