-
Nóng: Phát hiện vi khuẩn nguy hiểm trong vụ 148 học sinh nghi ngộ độc ở TP HCM -
Xuất hiện bài đăng xin lỗi sau ồn ào 33 ly trà sữa bị "tiêu hủy", mạng xã hội tiếp tục tranh luận -
Nhà bia mộ Mẹ Việt Nam anh hùng bị đập phá tan tành, công an vào cuộc điều tra -
Đề xuất hoán đổi lịch làm việc để người lao động nghỉ 4 ngày dịp Ngày Văn hóa Việt Nam -
Thủ tướng Lê Minh Hưng: Không chấp nhận tăng trưởng nóng, đánh đổi bất ổn vĩ mô -
Khách xếp hàng giao dịch vàng tại Bảo Tín Minh Châu, doanh nghiệp lên tiếng về nguồn cung và quyền lợi người mua -
Diễn biến mới vụ án liên quan vợ chồng bà Nguyễn Phương Hằng: Bà Đinh Lan có thái độ lạ -
Hà Nội: "Mê hồn trận" rào chắn thi công, người dân khốn khổ vì ùn tắc bủa vây -
Ông Lê Ngọc Châu giữ chức Bí thư Thành ủy Hải Phòng -
Bi kịch lặp lại sau 3 thập kỷ của gia đình tỷ phú Anh: Nỗi đau gia tộc và sự hồi sinh kỳ diệu trên đất Việt
Công nghệ
26/10/2025 15:45Gần 1.000 nhân vật ảnh hưởng, bao gồm cả 'Bố già AI', kêu gọi cấm siêu trí tuệ

Cuối tuần qua, một chiến dịch mang tính biểu tượng đã xuất hiện: hơn 850 nhân vật có tầm ảnh hưởng từ công nghệ, chính trị và giới giải trí đồng ký tên vào một tuyên bố do Future of Life Institute khởi xướng, kêu gọi “cấm phát triển hệ thống trí tuệ nhân tạo siêu việt con người” (superintelligence) cho đến khi có “sự đồng thuận khoa học rộng rãi rằng chúng có thể được phát triển một cách an toàn và kiểm soát”.
Điều đáng chú ý là danh sách người ký rất đa dạng: từ những chuyên gia AI đầu ngành như Geoffrey Hinton, Yoshua Bengio đến các nhà sáng lập công nghệ như Wozniak, doanh nhân như Branson, ca sĩ, diễn viên, chính trị gia. Sự tham gia của những cái tên ngoài ngành công nghệ truyền thống cho thấy lo ngại về AI không còn là chuyện “chuyên gia nói với chuyên gia” mà đã trở thành một vấn đề xã hội – ai cũng được mời tham vấn.
Theo tuyên bố, các hệ thống AI siêu trí tuệ là những mô hình khả năng vượt trội con người trên hầu hết nhiệm vụ nhận thức, và điều đáng lo là quá trình phát triển chúng đang diễn ra với tốc độ rất nhanh, đôi khi vượt khả năng kiểm soát, đồng thời thiếu sự tham vấn từ công chúng và thiếu khung pháp lý vững chắc. Thăm dò kèm theo cho thấy chỉ khoảng 5% người Mỹ ủng hộ phát triển AI siêu trí tuệ không bị điều tiết, trong khi phần lớn muốn có điều kiện trước khi tiếp tục.
Tại sao động thái này lại quan trọng? Trước hết vì nó phản ánh một bước ngoặt trong nhận thức: khi mà “cuộc đua AI” giữa các tập đoàn lớn như OpenAI, Google, Meta Platforms được xem là vấn đề cạnh tranh công nghệ, thì giờ đây nó được đặt trong tư thế “rủi ro toàn cầu” – về nhân quyền, an ninh, kiểm soát và bản chất con người. Việc những người bên ngoài ngành công nghệ – nghệ sĩ, chính trị gia, tôn giáo – tham gia ký tên chứng tỏ mối lo ấy đã lan rộng.
Thứ hai, cái mới ở đây không chỉ là lời kêu gọi “tạm dừng” như các sáng kiến trước (ví dụ năm 2023 có thư kêu gọi ngừng phát triển AI mạnh hơn GPT-4) mà là yêu cầu cụ thể hơn: không chỉ tạm ngưng, mà cấm cho đến khi có chứng cứ rõ ràng rằng việc xây dựng siêu trí tuệ là an toàn và có thể kiểm soát được. Đó là thay đổi lớn trong cách nhìn nhận – từ “hãy chậm lại” sang “hãy chặn lại (hoặc đưa vào khung điều kiện rất chặt)”.
Tuy nhiên, cũng có nhiều hoài nghi và thách thức. Việc xác định “siêu trí tuệ” là gì, thời điểm nào nó xuất hiện, và ai sẽ kiểm soát đều chưa rõ. Một số chuyên gia cho rằng vẫn còn nhiều năm mới tới ngưỡng đó, và việc cấm có thể tạo ra hậu quả là làm giảm tốc độ đổi mới hoặc đẩy hoạt động nghiên cứu vào “bê bối” không kiểm soát. Ngoài ra, các công ty đang đầu tư khổng lồ vào AI – nếu bị điều tiết quá sớm – có thể chuyển ra các khu vực pháp lý lỏng lẻo hơn.

Từ góc độ chính sách và kinh tế, lời kêu gọi này đặt ra áp lực mới cho các nhà lập pháp và quản lý: liệu công bằng khi chỉ để các công ty tự điều chỉnh và “chạy đua” với nhau trong lĩnh vực mà hậu quả có thể vượt tầm kiểm soát? Với xu hướng quốc tế hoá việc điều tiết AI (ví dụ như luật AI của EU), đây là một tín hiệu mạnh rằng công chúng và các nhà lãnh đạo đang yêu cầu tham gia khống chế công nghệ, chứ không đơn thuần chỉ là khán giả.
Cuộc khảo sát 2.000 người trưởng thành tại Mỹ cũng phát hiện ra rằng phần lớn tin rằng “AI siêu phàm” không nên được tạo ra cho đến khi được chứng minh là an toàn hoặc có thể kiểm soát được và muốn có quy định chặt chẽ về AI tiên tiến.
Trong một tuyên bố được đăng tải trên trang web, nhà khoa học máy tính Bengio cho biết các hệ thống AI có thể vượt qua hầu hết mọi người trong hầu hết các nhiệm vụ nhận thức chỉ trong vòng vài năm. Ông nói thêm rằng mặc dù những tiến bộ như vậy có thể giúp giải quyết các thách thức toàn cầu, nhưng chúng cũng mang lại những rủi ro đáng kể.
Ông cho biết: “Để tiến tới siêu trí tuệ một cách an toàn, chúng ta phải xác định một cách khoa học cách thiết kế các hệ thống AI về cơ bản không có khả năng gây hại cho con người, dù là thông qua sự sai lệch hay mục đích sử dụng có ác ý”.
“Chúng ta cũng cần đảm bảo rằng công chúng có tiếng nói mạnh mẽ hơn trong các quyết định sẽ định hình tương lai chung của chúng ta”.
Theo: CNBC
- Nóng: Phát hiện vi khuẩn nguy hiểm trong vụ 148 học sinh nghi ngộ độc ở TP HCM (14:37)
- Em gái Trấn Thành bị tấn công dữ dội vì nghi vấn hẹn hò mới (14:34)
- Hà Nội mở cổng đăng ký thi lớp 10 từ hôm nay, nhiều thay đổi đáng chú ý (14:30)
- Xuất hiện bài đăng xin lỗi sau ồn ào 33 ly trà sữa bị "tiêu hủy", mạng xã hội tiếp tục tranh luận (14:29)
- Nhà bia mộ Mẹ Việt Nam anh hùng bị đập phá tan tành, công an vào cuộc điều tra (14:29)
- Mỹ công bố loạt số liệu đáng kinh ngạc sau 5 tuần xung đột với Iran (14:22)
- Đề xuất hoán đổi lịch làm việc để người lao động nghỉ 4 ngày dịp Ngày Văn hóa Việt Nam (14:19)
- Lương 25 triệu/tháng vẫn thấy thiếu: Nhìn bảng chi tiêu mới hiểu vì sao (14:18)
- Phim Việt "Bẫy tiền" đối diện nguy cơ trắng tay ngày trở lại (14:02)
- Từ ngoài không gian, ba phi hành gia Nga gửi lời chào và thông điệp hợp tác tới Việt Nam (52 phút trước)