-
TP.HCM: Kinh hoàng khoảnh khắc 50m đường "biến mất" xuống lòng kênh sau tiếng động lớn -
Chuyện lạ ngày Tết: Nàng dâu "mừng rơi nước mắt" vì bị bố chồng gạt tên khỏi danh sách về quê -
Miền Bắc sắp chuyển rét đậm, rét hại do đón đợt không khí lạnh cường độ mạnh -
Hà Nội: Phân luồng, cấm đường hàng loạt tuyến phố quanh sân vận động Mỹ Đình từ ngày 18/1 -
Danh tính người phụ nữ hô hào đua xe ở Hà Nội, lời khai khi bị triệu tập lên làm việc với công an -
Chuyên gia cảnh báo: 4 thói quen "lười" đang âm thầm bào mòn tuổi thọ của bạn -
Tóc Tiên ly hôn Touliver sau 6 năm: Nhìn lại quan điểm sống tự do và lý do chưa từng sinh con -
Indonesia huy động lực lượng tìm kiếm máy bay mất tích, toàn bộ hành khách và thành viên chưa rõ số phận -
"Thuế quan đổi đất": Tổng thống Trump áp thuế 8 nước Châu Âu để mua bằng được Greenland -
U23 châu Á 2026: Xác định hai trận bán kết chưa từng có
Công nghệ
26/10/2025 15:45Gần 1.000 nhân vật ảnh hưởng, bao gồm cả 'Bố già AI', kêu gọi cấm siêu trí tuệ

Cuối tuần qua, một chiến dịch mang tính biểu tượng đã xuất hiện: hơn 850 nhân vật có tầm ảnh hưởng từ công nghệ, chính trị và giới giải trí đồng ký tên vào một tuyên bố do Future of Life Institute khởi xướng, kêu gọi “cấm phát triển hệ thống trí tuệ nhân tạo siêu việt con người” (superintelligence) cho đến khi có “sự đồng thuận khoa học rộng rãi rằng chúng có thể được phát triển một cách an toàn và kiểm soát”.
Điều đáng chú ý là danh sách người ký rất đa dạng: từ những chuyên gia AI đầu ngành như Geoffrey Hinton, Yoshua Bengio đến các nhà sáng lập công nghệ như Wozniak, doanh nhân như Branson, ca sĩ, diễn viên, chính trị gia. Sự tham gia của những cái tên ngoài ngành công nghệ truyền thống cho thấy lo ngại về AI không còn là chuyện “chuyên gia nói với chuyên gia” mà đã trở thành một vấn đề xã hội – ai cũng được mời tham vấn.
Theo tuyên bố, các hệ thống AI siêu trí tuệ là những mô hình khả năng vượt trội con người trên hầu hết nhiệm vụ nhận thức, và điều đáng lo là quá trình phát triển chúng đang diễn ra với tốc độ rất nhanh, đôi khi vượt khả năng kiểm soát, đồng thời thiếu sự tham vấn từ công chúng và thiếu khung pháp lý vững chắc. Thăm dò kèm theo cho thấy chỉ khoảng 5% người Mỹ ủng hộ phát triển AI siêu trí tuệ không bị điều tiết, trong khi phần lớn muốn có điều kiện trước khi tiếp tục.
Tại sao động thái này lại quan trọng? Trước hết vì nó phản ánh một bước ngoặt trong nhận thức: khi mà “cuộc đua AI” giữa các tập đoàn lớn như OpenAI, Google, Meta Platforms được xem là vấn đề cạnh tranh công nghệ, thì giờ đây nó được đặt trong tư thế “rủi ro toàn cầu” – về nhân quyền, an ninh, kiểm soát và bản chất con người. Việc những người bên ngoài ngành công nghệ – nghệ sĩ, chính trị gia, tôn giáo – tham gia ký tên chứng tỏ mối lo ấy đã lan rộng.
Thứ hai, cái mới ở đây không chỉ là lời kêu gọi “tạm dừng” như các sáng kiến trước (ví dụ năm 2023 có thư kêu gọi ngừng phát triển AI mạnh hơn GPT-4) mà là yêu cầu cụ thể hơn: không chỉ tạm ngưng, mà cấm cho đến khi có chứng cứ rõ ràng rằng việc xây dựng siêu trí tuệ là an toàn và có thể kiểm soát được. Đó là thay đổi lớn trong cách nhìn nhận – từ “hãy chậm lại” sang “hãy chặn lại (hoặc đưa vào khung điều kiện rất chặt)”.
Tuy nhiên, cũng có nhiều hoài nghi và thách thức. Việc xác định “siêu trí tuệ” là gì, thời điểm nào nó xuất hiện, và ai sẽ kiểm soát đều chưa rõ. Một số chuyên gia cho rằng vẫn còn nhiều năm mới tới ngưỡng đó, và việc cấm có thể tạo ra hậu quả là làm giảm tốc độ đổi mới hoặc đẩy hoạt động nghiên cứu vào “bê bối” không kiểm soát. Ngoài ra, các công ty đang đầu tư khổng lồ vào AI – nếu bị điều tiết quá sớm – có thể chuyển ra các khu vực pháp lý lỏng lẻo hơn.

Từ góc độ chính sách và kinh tế, lời kêu gọi này đặt ra áp lực mới cho các nhà lập pháp và quản lý: liệu công bằng khi chỉ để các công ty tự điều chỉnh và “chạy đua” với nhau trong lĩnh vực mà hậu quả có thể vượt tầm kiểm soát? Với xu hướng quốc tế hoá việc điều tiết AI (ví dụ như luật AI của EU), đây là một tín hiệu mạnh rằng công chúng và các nhà lãnh đạo đang yêu cầu tham gia khống chế công nghệ, chứ không đơn thuần chỉ là khán giả.
Cuộc khảo sát 2.000 người trưởng thành tại Mỹ cũng phát hiện ra rằng phần lớn tin rằng “AI siêu phàm” không nên được tạo ra cho đến khi được chứng minh là an toàn hoặc có thể kiểm soát được và muốn có quy định chặt chẽ về AI tiên tiến.
Trong một tuyên bố được đăng tải trên trang web, nhà khoa học máy tính Bengio cho biết các hệ thống AI có thể vượt qua hầu hết mọi người trong hầu hết các nhiệm vụ nhận thức chỉ trong vòng vài năm. Ông nói thêm rằng mặc dù những tiến bộ như vậy có thể giúp giải quyết các thách thức toàn cầu, nhưng chúng cũng mang lại những rủi ro đáng kể.
Ông cho biết: “Để tiến tới siêu trí tuệ một cách an toàn, chúng ta phải xác định một cách khoa học cách thiết kế các hệ thống AI về cơ bản không có khả năng gây hại cho con người, dù là thông qua sự sai lệch hay mục đích sử dụng có ác ý”.
“Chúng ta cũng cần đảm bảo rằng công chúng có tiếng nói mạnh mẽ hơn trong các quyết định sẽ định hình tương lai chung của chúng ta”.
Theo: CNBC
- Cập nhật thông tin mới nhất về không khí lạnh: Miền Bắc sắp chuyển rét đậm (21:43)
- Hà Nội kiểm định, đánh giá chất lượng các chung cư cũ (21:30)
- Bầu Đức hé lộ danh tính người đàn ông sẵn sàng cho vay 2000 tỷ sau bức thư tay mà không cần giấy nợ (21:12)
- Kết quả điều tra vụ đầu bếp lâu năm bị cuốn vào máy trộn bột khổng lồ, hiện trường gây ám ảnh (21:00)
- Lời khai của kẻ cầm rựa rượt chém người trước quán cà phê ở Huế, bất ngờ lý do "phát điên" (1 giờ trước)
- Việt Nam nhận lời mời tham gia Hội đồng Hòa bình Dải Gaza (1 giờ trước)
- Nam thanh niên bị chém suýt chết trên đường đi làm về, nguồn cơn mọi chuyện không ai nghĩ đến (1 giờ trước)
- Học sinh Việt Nam thắng lớn tại Kỳ thi Olympic Hóa học Châu Á 2026 với 44 giải thưởng (2 giờ trước)
- MaiQuinn chính thức lên tiếng về tin đồn "người thứ ba", phủ nhận nghi vấn đi Pháp cùng Touliver (2 giờ trước)
- Miền Bắc sắp đón đợt không khí lạnh rất mạnh: Cảnh báo rét đậm, rét hại và nguyên tắc "3 phút" an toàn (2 giờ trước)