Chỉ vài giờ sau khi Tổng thống Mỹ ban hành lệnh yêu cầu dừng sử dụng công cụ AI của Anthropic, quân đội nước này được cho là vẫn triển khai mô hình Claude để phân tích tình báo và hỗ trợ xác định mục tiêu trong một cuộc tấn công nhằm vào Iran.

Theo nguồn tin của The Wall Street Journal, quân đội Mỹ đã tiếp tục sử dụng trí tuệ nhân tạo Claude của Anthropic trong một chiến dịch không kích quy mô lớn tại Iran, bất chấp chỉ đạo cấm từ Tổng thống Donald Trump được đưa ra trước đó không lâu.

Các nguồn tin thân cận cho biết nhiều bộ chỉ huy quân sự, trong đó có Bộ Chỉ huy Trung tâm Mỹ (CENTCOM) tại Trung Đông, đã khai thác mô hình AI Claude nhằm phục vụ quá trình tác chiến. Hệ thống này được cho là đã xử lý khối lượng dữ liệu tình báo khổng lồ để nhận diện các mục tiêu tiềm năng, sau đó chạy các kịch bản giả lập nhằm tối ưu hóa hiệu quả của đòn tấn công.

02-1772424420-bo-chien-tranh-my-bi-to-van-dung-ai-claude-trong-chien-dich-khong-kich-iran-du-co-lenh-cam.webp
AI Claude của Anthropic được cho là đã xử lý khối lượng dữ liệu khổng lồ để nhận diện các mục tiêu tiềm năng trong cuộc tấn công Iran. Ảnh: Alamy.

Diễn biến này cho thấy các hệ thống AI tiên tiến đã được tích hợp sâu vào quy trình vận hành của Bộ Chiến tranh Mỹ. Ngay cả khi chính quyền tìm cách cắt đứt quan hệ với nhà cung cấp, công nghệ này dường như vẫn đóng vai trò quan trọng trong guồng quay tác chiến thực tế.

Trước đó, vào ngày 27/1, ông Donald Trump yêu cầu tất cả cơ quan chính phủ liên bang ngừng sử dụng công cụ AI của Anthropic. Bộ trưởng Quốc phòng Pete Hegseth thậm chí tuyên bố công ty này có thể bị xem là “mối đe dọa đối với chuỗi cung ứng”.

Nguồn cơn căng thẳng được cho là bắt đầu khi CEO Dario Amodei từ chối đề nghị cho phép quân đội Mỹ sử dụng AI mà không giới hạn trong bất kỳ kịch bản hợp pháp nào. Phía Anthropic lập luận rằng một số ứng dụng quân sự đã vượt quá chuẩn mực đạo đức mà công ty đặt ra, đồng thời nhấn mạnh những quyết định quân sự quan trọng cần phải do con người kiểm soát thay vì giao toàn quyền cho máy móc.

Đáng chú ý, trước khi rơi vào “danh sách đen”, Anthropic từng là đối tác chiến lược của Lầu Năm Góc trong một hợp đồng trị giá 200 triệu USD, cùng với OpenAI, Google và công ty AI của Elon Musk.

Việc AI vẫn được sử dụng giữa lúc lệnh cấm vừa ban hành đã đặt ra nhiều câu hỏi về mức độ phụ thuộc của quân đội Mỹ vào công nghệ trí tuệ nhân tạo, cũng như những tranh luận xoay quanh ranh giới giữa hiệu quả tác chiến và các chuẩn mực đạo đức trong ứng dụng AI quân sự.