-
TP HCM: Người phụ nữ tử vong thương tâm sau va chạm với xe container, hé lộ hoàn cảnh đáng thương -
Học sinh Việt Nam từ 2026: Miễn phí sách giáo khoa và thống nhất bộ SGK toàn quốc, thay đổi lớn trong giáo dục -
Hà Nội: 182 trường hợp vi phạm được camera AI phát hiện phải nộp phạt nguội theo Nghị định 168 -
Phẫn nộ clip nữ sinh lớp 10 Gia Lai bị nhóm bạn đánh hội đồng chỉ vì 1 xích mích vụn vặt -
Hà Nội: Đang cháy lớn trên phố Lò Đúc, dãy cửa hàng bị thiêu rụi hoàn toàn -
Tai nạn cao tốc Đà Nẵng - Quảng Ngãi: Xót xa cảnh người thân lặng lẽ nhận thi thể nạn nhân về quê lo hậu sự -
Camera AI phát hiện những lỗi mà người điều khiển ô tô, xe máy lâu nay vẫn "hồn nhiên" mắc phải -
Công an Hà Nội, Sở xây dựng làm việc với Ban quản lý chung cư HH Linh Đàm về vụ cấm cư dân để xe điện -
Chính thức "khai tử" bằng tốt nghiệp trung học cơ sở, loại giấy tờ gì được thay thế? -
Quốc hội bỏ quy định bắt buộc taxi, xe vận tải phải lắp ghế an toàn cho trẻ em
Thế giới
13/06/2023 16:03Cảnh báo của FBI: Bỗng dưng bị 'lôi vào đóng video khiêu dâm'
Đài NBC News ngày 12-6 dẫn cảnh báo của FBI cho biết những kẻ lừa đảo - đặc biệt là tội phạm công nghệ cao - đang sử dụng trí tuệ nhân tạo (AI) để tạo ra các video khiêu dâm hoặc ảnh giả mạo của nạn nhân, sau đó yêu cầu họ trả tiền để chúng không bị phát tán trên mạng internet.
Phương pháp trên gọi là deepfake - kỹ thuật kết hợp các thuật toán học sâu và học máy để tạo ra những video, hình ảnh hoặc âm thanh giả mạo một cách chân thực. Công cụ này trở nên phổ biến trong những năm gần đây và ngày càng phát triển.
Trong cảnh báo được trích dẫn ngày 12-6, FBI cho biết họ nhận được khiếu nại ngày càng nhiều về việc tội phạm sử dụng các công cụ deepfake để tạo ra các video và ảnh khiêu dâm giả mạo nhằm tống tiền.
Tội phạm lấy hình ảnh và video của nạn nhân trên mạng xã hội. Sau khi tạo ra sản phẩm giả mạo, chúng phát tán trên mạng xã hội, diễn đàn công cộng hoặc các trang web khiêu dâm.
Theo FBI, nạn nhân bị bắt trả tiền, thẻ quà tặng hoặc thậm chí ảnh "nóng" nếu không sẽ bị phát tán video, ảnh giả mạo của họ. Đồng thời, những kẻ lừa đảo đe dọa gửi chúng cho gia đình và bạn bè của nạn nhân nếu họ không đáp ứng yêu cầu.
Một cuộc điều tra của NBC News vào tháng 3 năm nay đã phát hiện các sản phẩm deepfake khiêu dâm có thể dễ dàng được truy cập thông qua các nền tảng tìm kiếm và trò chuyện trực tuyến.
Chủ tịch Trung tâm tài nguyên trộm cắp danh tính (ITRC - tổ chức phi lợi nhuận giúp các nạn nhân bị lừa đảo) nói rằng tội phạm đôi khi cố gắng gây sốc cho nạn nhân bằng video hoặc hình ảnh đặc biệt nhạy cảm. Sau khi hoảng loạn, nạn nhân sẽ chỉ muốn video hoặc hình ảnh đó biến mất, đồng nghĩa với việc đáp ứng yêu cầu của những kẻ lừa đảo.
FBI khuyến cáo mọi người nên thận trọng khi chấp nhận yêu cầu kết bạn từ người lạ cũng như hiểu rằng việc đáp ứng yêu cầu của tội phạm deepfake không có nghĩa là chúng sẽ không phát tán video hoặc hình ảnh khiêu dâm của họ.
Trung tâm trẻ em mất tích và bị bóc lột quốc gia Mỹ đã cung cấp một dịch vụ miễn phí được gọi là Take It Down để giúp ngăn chặn việc phát tán video hoặc ảnh nhạy cảm của trẻ em dưới 18 tuổi.
Theo Phạm Nghĩa (Nld.com.vn)
- Bê bối SEA Games 33: VĐV Malaysia bị loại oan vì nghe lời HLV? (16:36)
- TP HCM: Người phụ nữ tử vong thương tâm sau va chạm với xe container, hé lộ hoàn cảnh đáng thương (16:20)
- Dấu hiệu bất thường tại công ty của chủ tiệm vàng Kim Chung: Vốn 50 tỷ nhưng chỉ có chỉ 8 lao động (16:19)
- Giám khảo Rap Việt 2024 bênh vực đàn em bị tố hát nhép ở SEA Games 33 (16:18)
- Bí quyết khoa học giúp nam giới sau tuổi 40 giảm mỡ bụng cứng đầu (16:14)
- Không phải iPhone hay Android, đây mới chính là huyền thoại di động, siêu camera khuấy động thị trường (16:07)
- Gia đình Chủ tịch Thiên Long nhận khoản cổ tức hàng trăm tỷ trước thời điểm dự kiến bán vốn (16:03)
- VKS đề nghị phạt cựu Giám đốc Sở GD&ĐT TP.HCM 3 năm tù treo (16:01)
- Tuyên chiến Honda Future, Yamaha ra mắt "vua xe số" 115cc mới đỉnh hơn Wave Alpha, giá 31 triệu đồng (16:00)
- Lần đầu tiên trong lịch sử thể thao Việt Nam có 3 chị em ruột cùng tham dự SEA Games (1 giờ trước)