-
Trước khi nghỉ Tết đón LỘC ào vào cửa, 4 con giáp được BỀ TRÊN phù trợ, sạch hết nợ nần -
Sanae Takaichi: "Sói đơn độc" trên hành trình tái thiết quyền lực và vị thế Nhật Bản -
Hành trình "rải" tiền của Giám đốc doanh nghiệp để "thông chốt" các gói thầu nghìn tỷ -
Dự báo thời tiết Tết Bính Ngọ: Miền Bắc đón rét đậm, miền Nam đề phòng mưa trái mùa -
Lý do lực lượng chức năng phải chờ đến 5/2 mới bắt nghi phạm cuối vụ cướp ngân hàng -
Vụ 3 người trong cùng gia đình tử vong ở Hà Tĩnh: Hé lộ hoàn cảnh nạn nhân rất khó khăn -
Nghi phạm trong vụ cướp ngân hàng ở Gia Lai từng dùng súng AK giết người sẽ bị xử lý thế nào? -
Cái kết cuối cùng vụ cô giáo tự sửa bài thi tiếng Anh của 19 học sinh, nhà trường lên tiếng vụ dạy thêm -
Hà Nội siết chặt phạt nguội vỉa hè bằng camera, hàng trăm quán ăn bất ngờ bị xử lý chỉ trong hai ngày -
Rút tiết kiệm "đu đỉnh" bạc, nhà đầu tư mất hàng trăm triệu đồng chỉ sau một tuần
Thế giới
27/04/2023 21:03Quốc hội Mỹ kêu gọi loại trừ khả năng AI khởi động vũ khí hạt nhân
"Các công nghệ trí tuệ nhân tạo đang phát triển với tốc độ chóng mặt. Trong khi tất cả chúng ta đang cố gắng bắt kịp tốc độ phát triển của AI, thì tương lai và vai trò của nó trong xã hội vẫn chưa rõ ràng. Nhiệm vụ của chúng ta với tư cách là thành viên Quốc hội là phải thể hiện được cách ứng xử có trách nhiệm khi cần bảo vệ các thế hệ tương lai khỏi những hậu quả tàn khốc có thể xảy ra", - nghị sĩ Đảng Dân chủ Ted Lieu từ bang California viết.
Theo Sputnik, văn phòng Hạ nghị sĩ Ted Lieu cho biết đó là lý do ông đã cùng với một nhóm các nhà lập pháp lưỡng đảng giới thiệu dự luật kêu gọi ngăn chặn trí tuệ nhân tạo (AI) phóng vũ khí hạt nhân.
“Hôm nay, các Hạ nghị sĩ Ted W. Lieu, Donald S. Beyer Jr. và Ken Buck giới thiệu Đạo luật Ngăn chặn Vụ phóng hạt nhân bằng trí tuệ nhân tạo tự trị - nhằm đưa ra quy trình chỉ huy và kiểm soát hạt nhân để ngăn chặn việc thay đổi bất kỳ chính sách nào trong tương lai cho phép AI đưa ra quyết định phóng hạt nhân", theo thông báo.
Về phần mình, ông Ken Buck, - một đồng tác giả khác của dự luật, - lưu ý rằng việc chính phủ Hoa Kỳ sử dụng các khả năng trí tuệ nhân tạo nói chung là có thể chấp nhận được trên quan điểm củng cố an ninh quốc gia. Trong khi đó theo ý kiến của ông, khả năng vận dụng AI để thực hiện đòn tấn công hạt nhân mà không cần có sự tham gia của con người là "liều lĩnh, nguy hiểm và cần phải ngăn cấm".
"Tôi tự hào là đồng tác giả của dự luật này, để con người, chứ không phải máy móc, có tiếng nói chủ chốt khi đưa ra những quyết định quan trọng và tế nhị nhất trong lĩnh vực quân sự", - nhà lập pháp Mỹ cho biết trong một tuyên bố riêng.
Đánh giá tình hình hạt nhân năm 2022 của Lầu Năm Góc cho rằng "con người" phải luôn được đưa vào quá trình ra quyết định khi các chỉ huy cân nhắc việc sử dụng vũ khí hạt nhân. Ông Lieu cho biết dự luật dự kiến sẽ đảm bảo rằng trí tuệ nhân tạo không bao giờ được phép thay thế phán quyết của con người khi đưa ra quyết định về việc phóng vũ khí hạt nhân.
Bộ An ninh Nội địa Mỹ hồi đầu tháng 4 cho biết đang thành lập một lực lượng đặc nhiệm sẽ sử dụng trí tuệ nhân tạo để bảo vệ cơ sở hạ tầng và lợi ích quan trọng của Mỹ.
Biên Thùy (SHTT)
- Triệt phá đường dây sản xuất phân bón giả: Thành lập 4 công ty rồi livestream bán trên TikTok (07/02/26 23:02)
- Tìm thấy thi thể người đàn ông mất tích do lật thuyền trên hồ Đạ Sị (07/02/26 22:32)
- Nhiệt độ miền Bắc sắp giảm sâu 10 độ C do không khí lạnh mạnh tràn về (07/02/26 22:04)
- Hủy diệt Tottenham trong thế hơn người, MU thắng trận thứ 4 liên tiếp (07/02/26 21:53)
- Bác sĩ mổ cho tiền vệ Thái Sơn cảnh báo một điều khiến cầu thủ dễ đứt dây chằng (07/02/26 21:21)
- Techcombank và loạt ngân hàng phát thông báo khẩn về bẫy lừa đảo bủa vây dịp Tết (07/02/26 21:05)
- CLIP: Đang mải mê tạo dáng trước Flycam, 3 người bất ngờ bị "hố tử thần" nuốt chửng (07/02/26 20:50)
- Hiện trường vụ tai nạn liên hoàn giữa 5 ô tô trên cầu Nhật Tân (07/02/26 20:40)
- Hai thanh thiếu niên chặn đường, dùng vũ lực cướp túi xách của cụ bà 69 tuổi giữa tuyến đường vắng (07/02/26 20:33)
- HAGL bất ngờ thắng ứng viên vô địch Ninh Bình (07/02/26 20:15)