-
Phát hiện vật thể lạ lớn bất thường ven bờ sông Đà
-
Thử nghiệm đưa đón cán bộ, viên chức Hải Phòng bằng tàu hoả
-
Xúc động chuyện chồng trồng 1 km phượng vĩ, 1.000 cây hoa hồng để tưởng nhớ vợ
-
4 ngư dân bám thùng xốp trôi dạt nhiều giờ trên biển ở An Giang
-
Thương tâm nam học sinh lớp 11 gặp tai nạn không qua khỏi trên Quốc lộ 13
-
Lời khai của tài xế vụ xe tải đâm vào chợ chuối khiến 3 người chết ở Quảng Trị
-
Áp thấp nhiệt đới sắp vào Biển Đông, thời điểm có thể mạnh lên thành bão số 8
-
Bé gái 6 tuổi bị gã lạ mặt dụ dỗ, chở đi, công an xuyên màn đêm truy tìm
-
Vợ Duy Mạnh khổ sở cầu xin
-
Thủ tướng phê bình 29 bộ, cơ quan và 12 địa phương "có tiền mà không biết tiêu"
Công nghệ
23/10/2023 07:22Deepfake đang bị lợi dụng để ghép mặt nạn nhân vào video khiêu dâm
Trong bối cảnh các tiến bộ công nghệ liên tục xuất hiện và định hình lại xã hội chúng ta đang sống, deepfake đang trở thành mối quan ngại lớn khi số lượng những vụ lừa đảo bằng deepfake ngày càng gia tăng.
Sau quá trình nghiên cứu trên diễn đàn darknet (darknet forum), nơi các tội phạm công nghệ thường xuyên hoạt động, trong một phát biểu mới đây, hãng bảo mật Kaspersky đưa ra nhận định, nhiều tội phạm sử dụng deepfake để lừa đảo, đến mức nhu cầu sử dụng vượt xa nguồn cung các phần mềm deepfake hiện có trên thị trường.
Khi cầu vượt cung, các chuyên gia của Kaspersky dự đoán, các vụ lừa đảo bằng deepfake sẽ tăng cao với nhiều hình thức đa dạng và tinh vi hơn. Từ cung cấp một video mạo danh chất lượng cao dưới dạng dịch vụ cho đến việc sử dụng hình ảnh người nổi tiếng để phát trực tuyến giả mạo (fake livestream) trên mạng xã hội cùng lời hứa hẹn sẽ thanh toán gấp đôi số tiền nạn nhân đã gửi họ.

“Deepfake đã trở thành cơn ác mộng đối với phụ nữ và xã hội. Tội phạm mạng hiện đang khai thác AI để ghép khuôn mặt nạn nhân vào ảnh và video khiêu dâm cũng như trong chiến dịch tuyên truyền. Chúng tôi kêu gọi công chúng nâng cao cảnh giác trước mối đe dọa này”, bà Võ Dương Tú Diễm, Giám đốc khu vực Việt Nam của Kaspersky nhận định.
Bà Diễm cho rằng, những hành động trên nhằm mục đích thao túng dư luận bằng cách phát tán thông tin sai lệch gây tổn hại đến danh tiếng của tổ chức hoặc cá nhân.
Theo Regula, có tới 37% doanh nghiệp trên toàn thế giới từng có va chạm với các vụ lừa đảo deepfake bằng giọng nói và 29% đã trở thành nạn nhân của video deepfake.
Trên thực tế, deepfake cũng đã trở thành mối đe dọa với Việt Nam khi tội phạm mạng thường sử dụng các cuộc gọi video deepfake để mạo danh một cá nhân và vay mượn người thân, bạn bè của họ. Một cuộc gọi video deepfake chỉ diễn ra trong vòng một phút nên nạn nhân rất khó phân biệt giữa cuộc gọi thật và giả.

Mặc AI đang bị tội phạm mạng sử dụng cho những mục đích xấu, vẫn có thể sử dụng chính AI để nhận diện deepfake nhằm giảm thiểu xác suất thành công của các vụ lừa đảo.
Những phần mềm phát hiện nội dung do AI tạo ra sẽ sử dụng thuật toán tiên tiến để phân tích và xác định mức độ bị chỉnh sửa của tệp hình ảnh, video, âm thanh. Đó có thể là việc nhận diện sự chuyển động không khớp giữa khuôn miệng và lời thoại hay lưu lượng máu bất thường dưới da bằng cách phân tích độ phân giải của video vì khi tim bơm máu, tĩnh mạch của con người sẽ đổi màu.
Theo các chuyên gia của Kaspersky, bên cạnh việc sử dụng các công cụ AI để nhận diện deepfake, người dùng cũng cần có những biện pháp phù hợp để bảo vệ bản thân. Đó có thể là hạn chế chia sẻ thông tin cá nhân công khai trên các trang mạng xã hội hay cảnh giác trước những video, hình ảnh, cuộc gọi có dấu hiệu đáng ngờ. Ngoài ra, người dùng mạng cũng cần duy trì thói quen kiểm chứng, xác thực lại thông tin trước khi đặt niềm tin vào đó.
Theo Trọng Đạt (VietNamNet)








- Á hậu Châu Anh nhận bằng khen, được thăng quân hàm (23 phút trước)
- Nhóm người lạ mặt khống chế người đàn ông Trung Quốc đưa khỏi casino ở Đà Nẵng (26 phút trước)
- Quay clip gây áp lực cho lực lượng làm nhiệm vụ trong khi đang cất giấu 152 viên hồng phiến (52 phút trước)
- Mỹ nhân Việt một mình nuôi 5 con, bỏ trống nhà 16 tỷ ở TP.HCM, U40 sang Mỹ cưới chồng (57 phút trước)
- TikToker 7 triệu like chuyên cảnh báo về "việc nhẹ lương cao" ở Campuchia "biến mất" hơn 2 tuần, hàng nghìn người lo lắng (1 giờ trước)
- Vụ "xây nhầm" trên đất được cấp sổ đỏ: Chủ đất tiết lộ tình tiết gây sốc (1 giờ trước)
- Người phụ nữ ho ra "rễ cây" (1 giờ trước)
- Hà Nội phát hiện 1.664 bánh trung thu không rõ nguồn gốc suýt lọt ra thị trường: Người mua chớ dại rước về! (1 giờ trước)
- Mang rái cá lên Facebook bán, người phụ nữ ở Ninh Bình bị khởi tố (1 giờ trước)
- Steadihan Lê Bảo Hân được VTV trao bằng khen sau A80: Nói đúng 5 chữ quá oách (1 giờ trước)




