-
Hà Nội chính thức cho phép xe bán tải lưu thông 24/24 giờ -
Ukraine đề xuất ngừng bắn dài hạn với Nga, hướng tới hòa bình bền vững -
Chính thức gia hạn thuế nhập khẩu xăng dầu 0% đến hết tháng 6 -
Hơn 2.000 trường hợp vi phạm nồng độ cồn trong ngày đầu nghỉ lễ -
Chuyện lạ có thật: Cướp xong điện thoại thấy hối hận nên nhờ tài xế xe ôm trả lại cho cô gái -
Lộ diện quốc gia an toàn nhất Đông Nam Á, bất ngờ thứ hạng của Việt Nam -
Vỡ mộng ngày đầu nghỉ lễ: Con dâu tủi hờn vì mâm cơm của mẹ chồng và sự vô tâm của chồng -
Gia tộc tỷ phú Hong Kong: Khi hào môn rực rỡ lụn bại bởi bi kịch “nồi da nấu thịt” -
Hôm nay 30/4, doanh nghiệp tung nghìn m³ xăng E10 ra thị trường -
Nghịch lý Liên Bỉnh Phát: "Thị đế" vạn người mê nhưng cứ đóng phim là lỗ
Công nghệ
26/10/2025 15:45Gần 1.000 nhân vật ảnh hưởng, bao gồm cả 'Bố già AI', kêu gọi cấm siêu trí tuệ

Cuối tuần qua, một chiến dịch mang tính biểu tượng đã xuất hiện: hơn 850 nhân vật có tầm ảnh hưởng từ công nghệ, chính trị và giới giải trí đồng ký tên vào một tuyên bố do Future of Life Institute khởi xướng, kêu gọi “cấm phát triển hệ thống trí tuệ nhân tạo siêu việt con người” (superintelligence) cho đến khi có “sự đồng thuận khoa học rộng rãi rằng chúng có thể được phát triển một cách an toàn và kiểm soát”.
Điều đáng chú ý là danh sách người ký rất đa dạng: từ những chuyên gia AI đầu ngành như Geoffrey Hinton, Yoshua Bengio đến các nhà sáng lập công nghệ như Wozniak, doanh nhân như Branson, ca sĩ, diễn viên, chính trị gia. Sự tham gia của những cái tên ngoài ngành công nghệ truyền thống cho thấy lo ngại về AI không còn là chuyện “chuyên gia nói với chuyên gia” mà đã trở thành một vấn đề xã hội – ai cũng được mời tham vấn.
Theo tuyên bố, các hệ thống AI siêu trí tuệ là những mô hình khả năng vượt trội con người trên hầu hết nhiệm vụ nhận thức, và điều đáng lo là quá trình phát triển chúng đang diễn ra với tốc độ rất nhanh, đôi khi vượt khả năng kiểm soát, đồng thời thiếu sự tham vấn từ công chúng và thiếu khung pháp lý vững chắc. Thăm dò kèm theo cho thấy chỉ khoảng 5% người Mỹ ủng hộ phát triển AI siêu trí tuệ không bị điều tiết, trong khi phần lớn muốn có điều kiện trước khi tiếp tục.
Tại sao động thái này lại quan trọng? Trước hết vì nó phản ánh một bước ngoặt trong nhận thức: khi mà “cuộc đua AI” giữa các tập đoàn lớn như OpenAI, Google, Meta Platforms được xem là vấn đề cạnh tranh công nghệ, thì giờ đây nó được đặt trong tư thế “rủi ro toàn cầu” – về nhân quyền, an ninh, kiểm soát và bản chất con người. Việc những người bên ngoài ngành công nghệ – nghệ sĩ, chính trị gia, tôn giáo – tham gia ký tên chứng tỏ mối lo ấy đã lan rộng.
Thứ hai, cái mới ở đây không chỉ là lời kêu gọi “tạm dừng” như các sáng kiến trước (ví dụ năm 2023 có thư kêu gọi ngừng phát triển AI mạnh hơn GPT-4) mà là yêu cầu cụ thể hơn: không chỉ tạm ngưng, mà cấm cho đến khi có chứng cứ rõ ràng rằng việc xây dựng siêu trí tuệ là an toàn và có thể kiểm soát được. Đó là thay đổi lớn trong cách nhìn nhận – từ “hãy chậm lại” sang “hãy chặn lại (hoặc đưa vào khung điều kiện rất chặt)”.
Tuy nhiên, cũng có nhiều hoài nghi và thách thức. Việc xác định “siêu trí tuệ” là gì, thời điểm nào nó xuất hiện, và ai sẽ kiểm soát đều chưa rõ. Một số chuyên gia cho rằng vẫn còn nhiều năm mới tới ngưỡng đó, và việc cấm có thể tạo ra hậu quả là làm giảm tốc độ đổi mới hoặc đẩy hoạt động nghiên cứu vào “bê bối” không kiểm soát. Ngoài ra, các công ty đang đầu tư khổng lồ vào AI – nếu bị điều tiết quá sớm – có thể chuyển ra các khu vực pháp lý lỏng lẻo hơn.

Từ góc độ chính sách và kinh tế, lời kêu gọi này đặt ra áp lực mới cho các nhà lập pháp và quản lý: liệu công bằng khi chỉ để các công ty tự điều chỉnh và “chạy đua” với nhau trong lĩnh vực mà hậu quả có thể vượt tầm kiểm soát? Với xu hướng quốc tế hoá việc điều tiết AI (ví dụ như luật AI của EU), đây là một tín hiệu mạnh rằng công chúng và các nhà lãnh đạo đang yêu cầu tham gia khống chế công nghệ, chứ không đơn thuần chỉ là khán giả.
Cuộc khảo sát 2.000 người trưởng thành tại Mỹ cũng phát hiện ra rằng phần lớn tin rằng “AI siêu phàm” không nên được tạo ra cho đến khi được chứng minh là an toàn hoặc có thể kiểm soát được và muốn có quy định chặt chẽ về AI tiên tiến.
Trong một tuyên bố được đăng tải trên trang web, nhà khoa học máy tính Bengio cho biết các hệ thống AI có thể vượt qua hầu hết mọi người trong hầu hết các nhiệm vụ nhận thức chỉ trong vòng vài năm. Ông nói thêm rằng mặc dù những tiến bộ như vậy có thể giúp giải quyết các thách thức toàn cầu, nhưng chúng cũng mang lại những rủi ro đáng kể.
Ông cho biết: “Để tiến tới siêu trí tuệ một cách an toàn, chúng ta phải xác định một cách khoa học cách thiết kế các hệ thống AI về cơ bản không có khả năng gây hại cho con người, dù là thông qua sự sai lệch hay mục đích sử dụng có ác ý”.
“Chúng ta cũng cần đảm bảo rằng công chúng có tiếng nói mạnh mẽ hơn trong các quyết định sẽ định hình tương lai chung của chúng ta”.
Theo: CNBC
- Hà Nội chính thức cho phép xe bán tải lưu thông 24/24 giờ (30/04/26 22:58)
- Ukraine đề xuất ngừng bắn dài hạn với Nga, hướng tới hòa bình bền vững (30/04/26 22:19)
- Chính thức gia hạn thuế nhập khẩu xăng dầu 0% đến hết tháng 6 (30/04/26 21:59)
- Hơn 2.000 trường hợp vi phạm nồng độ cồn trong ngày đầu nghỉ lễ (30/04/26 21:50)
- Chuyện lạ có thật: Cướp xong điện thoại thấy hối hận nên nhờ tài xế xe ôm trả lại cho cô gái (30/04/26 21:23)
- Lộ diện quốc gia an toàn nhất Đông Nam Á, bất ngờ thứ hạng của Việt Nam (30/04/26 20:45)
- Lãnh tụ tối cao Iran xác lập quyền kiểm soát Hormuz, khước từ mọi thỏa thuận với Mỹ (30/04/26 20:17)
- Nắng nóng diện rộng ở Nam Bộ chính thức kết thúc từ ngày 2/5 (30/04/26 19:31)
- Man United chính thức "trói chân" Kobbie Mainoo đến năm 2031 với mức lương xứng đáng (30/04/26 19:10)
- Xúc phạm đời tư vợ người khác trên Facebook, người đàn ông bị đánh chấn thương sọ não (30/04/26 18:24)