-
Phát hiện vật thể lạ lớn bất thường ven bờ sông Đà
-
Thử nghiệm đưa đón cán bộ, viên chức Hải Phòng bằng tàu hoả
-
Xúc động chuyện chồng trồng 1 km phượng vĩ, 1.000 cây hoa hồng để tưởng nhớ vợ
-
4 ngư dân bám thùng xốp trôi dạt nhiều giờ trên biển ở An Giang
-
Thương tâm nam học sinh lớp 11 gặp tai nạn không qua khỏi trên Quốc lộ 13
-
Lời khai của tài xế vụ xe tải đâm vào chợ chuối khiến 3 người chết ở Quảng Trị
-
Áp thấp nhiệt đới sắp vào Biển Đông, thời điểm có thể mạnh lên thành bão số 8
-
Bé gái 6 tuổi bị gã lạ mặt dụ dỗ, chở đi, công an xuyên màn đêm truy tìm
-
Vợ Duy Mạnh khổ sở cầu xin
-
Thủ tướng phê bình 29 bộ, cơ quan và 12 địa phương "có tiền mà không biết tiêu"
Công nghệ
26/05/2023 15:58Cảnh giác: Sử dụng AI ghép khuôn mặt, lừa đảo gần 15 tỉ đồng
Thông tin trên do hãng Reuters dẫn nguồn cảnh sát TP Bao Đầu thuộc khu tự trị Nội Mông của Trung Quốc.
Hồ sơ cảnh sát cho biết nam nạn nhân nhận được cuộc gọi video của một người bạn thân hôm 20-5. Sau cuộc gọi, anh này đã chuyển đi 622.000 USD (14,6 tỉ đồng) vì tin rằng bạn mình đang cần gấp một khoản đặt cọc để có thể tham gia đấu thầu.

Nạn nhân chỉ biết mình bị lừa đảo sau khi người bạn khẳng định không nhờ anh chuyển bất cứ khoản tiền nào. Hoảng hốt, anh đi báo nhà chức trách. Kết quả điều tra của cảnh sát cho thấy kẻ xấu đã sử dụng AI ghép khuôn mặt người bạn rồi nhờ chuyển tiền và đã khiến nạn nhân sập bẫy.
"Chúng tôi đã thu hồi được phần lớn số tiền nạn nhân đã chuyển cho bọn lừa đảo và đang nỗ lực truy dấu phần còn lại" - cảnh sát khu tự trị Nội Mông cho biết.
Sau khi thông tin được cảnh sát công bố, cụm từ "lừa đảo bằng AI" đang gây sốt trên mạng xã hội Trung Quốc. Nhiều bình luận tỏ ra lo lắng việc hình ảnh, giọng nói có thể bị kẻ lừa đảo giả mạo, trong khi các biện pháp đối phó không theo kịp.
Không chỉ ở Trung Quốc, vấn nạn AI mạo danh để lừa đảo đã và đang diễn ra tại nhiều quốc gia trong thời gian qua.
Thống kê từ Ủy ban Thương mại Liên bang Mỹ (FTC) cho biết người dân đã mất tổng cộng 2,6 tỉ USD vì cuộc gọi lừa đảo năm 2022, trong số đó có những cuộc gọi sử dụng AI để đánh lừa người nghe.
Sự tiến bộ của AI thời gian qua thúc đẩy nhiều lĩnh vực phát triển nhưng cũng là công cụ để kẻ xấu khai thác.
Chỉ với vài câu nói và hình ảnh thu thập được trên không gian mạng, kẻ xấu có thể dùng AI chuyển thành bản sao giọng nói và khuôn mặt của một người.
Trí tuệ nhân tạo sau đó nói bất cứ những gì theo yêu cầu của kẻ xấu và trở thành phương tiện lừa đảo chiếm đoạt tài sản.
Theo Bằng Hưng (Nld.com.vn)








- Người phụ nữ đổ nước sôi lên người hàng xóm và cái kết (28 phút trước)
- NÓNG: Trang Thông tin Chính phủ "đang nắm trong tay nhiều ảnh, email phụ huynh gửi" về vấn đề lạm thu! (32 phút trước)
- Thủ môn Philippines gây sốt tại AFC Champions League (34 phút trước)
- Thỏa thuận bán TikTok ở Mỹ có cú "plot twist" cực lớn: Bán vỏ, giữ lõi (37 phút trước)
- Xe điện bỗng dưng mất điện, phụ huynh phải đập kính cứu con mắc kẹt bên trong (40 phút trước)
- Á hậu Châu Anh nhận bằng khen, được thăng quân hàm (1 giờ trước)
- Nhóm người lạ mặt khống chế người đàn ông Trung Quốc đưa khỏi casino ở Đà Nẵng (1 giờ trước)
- Quay clip gây áp lực cho lực lượng làm nhiệm vụ trong khi đang cất giấu 152 viên hồng phiến (1 giờ trước)
- Mỹ nhân Việt một mình nuôi 5 con, bỏ trống nhà 16 tỷ ở TP.HCM, U40 sang Mỹ cưới chồng (2 giờ trước)
- TikToker 7 triệu like chuyên cảnh báo về "việc nhẹ lương cao" ở Campuchia "biến mất" hơn 2 tuần, hàng nghìn người lo lắng (2 giờ trước)




