Công nghệ

Deepfake đang bị lợi dụng để ghép mặt nạn nhân vào video khiêu dâm

Trí tuệ nhân tạo (AI) và deepfake đang dần bị tội phạm mạng khai thác vào các mục đích xấu, trở thành công cụ lừa đảo, thậm chí làm nhục người khác.

Trong bối cảnh các tiến bộ công nghệ liên tục xuất hiện và định hình lại xã hội chúng ta đang sống, deepfake đang trở thành mối quan ngại lớn khi số lượng những vụ lừa đảo bằng deepfake ngày càng gia tăng. 

Sau quá trình nghiên cứu trên diễn đàn darknet (darknet forum), nơi các tội phạm công nghệ thường xuyên hoạt động, trong một phát biểu mới đây, hãng bảo mật Kaspersky đưa ra nhận định, nhiều tội phạm sử dụng deepfake để lừa đảo, đến mức nhu cầu sử dụng vượt xa nguồn cung các phần mềm deepfake hiện có trên thị trường.

Khi cầu vượt cung, các chuyên gia của Kaspersky dự đoán, các vụ lừa đảo bằng deepfake sẽ tăng cao với nhiều hình thức đa dạng và tinh vi hơn. Từ cung cấp một video mạo danh chất lượng cao dưới dạng dịch vụ cho đến việc sử dụng hình ảnh người nổi tiếng để phát trực tuyến giả mạo (fake livestream) trên mạng xã hội cùng lời hứa hẹn sẽ thanh toán gấp đôi số tiền nạn nhân đã gửi họ.

Deepfake đang bị lợi dụng để ghép mặt nạn nhân vào video khiêu dâm
Người dùng mạng, nhất là phụ nữ ngày càng phải đối mặt với nhiều nguy cơ với sự xuất hiện của deepfake.

“Deepfake đã trở thành cơn ác mộng đối với phụ nữ và xã hội. Tội phạm mạng hiện đang khai thác AI để ghép khuôn mặt nạn nhân vào ảnh và video khiêu dâm cũng như trong chiến dịch tuyên truyền. Chúng tôi kêu gọi công chúng nâng cao cảnh giác trước mối đe dọa này”, bà Võ Dương Tú Diễm, Giám đốc khu vực Việt Nam của Kaspersky nhận định. 

Bà Diễm cho rằng, những hành động trên nhằm mục đích thao túng dư luận bằng cách phát tán thông tin sai lệch gây tổn hại đến danh tiếng của tổ chức hoặc cá nhân. 

Theo Regula, có tới 37% doanh nghiệp trên toàn thế giới từng có va chạm với các vụ lừa đảo deepfake bằng giọng nói và 29% đã trở thành nạn nhân của video deepfake. 

Trên thực tế, deepfake cũng đã trở thành mối đe dọa với Việt Nam khi tội phạm mạng thường sử dụng các cuộc gọi video deepfake để mạo danh một cá nhân và vay mượn người thân, bạn bè của họ. Một cuộc gọi video deepfake chỉ diễn ra trong vòng một phút nên nạn nhân rất khó phân biệt giữa cuộc gọi thật và giả.

Deepfake đang bị lợi dụng để ghép mặt nạn nhân vào video khiêu dâm - 1
Với sự tiến bộ của công nghệ AI, việc thu thập dữ liệu khuôn mặt, sau đó ghép vào thân hình người khác để tạo ra hình ảnh và video đã không còn là chuyện lạ.

Mặc AI đang bị tội phạm mạng sử dụng cho những mục đích xấu, vẫn có thể sử dụng chính AI để nhận diện deepfake nhằm giảm thiểu xác suất thành công của các vụ lừa đảo.

Những phần mềm phát hiện nội dung do AI tạo ra sẽ sử dụng thuật toán tiên tiến để phân tích và xác định mức độ bị chỉnh sửa của tệp hình ảnh, video, âm thanh. Đó có thể là việc nhận diện sự chuyển động không khớp giữa khuôn miệng và lời thoại hay lưu lượng máu bất thường dưới da bằng cách phân tích độ phân giải của video vì khi tim bơm máu, tĩnh mạch của con người sẽ đổi màu.

Theo các chuyên gia của Kaspersky, bên cạnh việc sử dụng các công cụ AI để nhận diện deepfake, người dùng cũng cần có những biện pháp phù hợp để bảo vệ bản thân. Đó có thể là hạn chế chia sẻ thông tin cá nhân công khai trên các trang mạng xã hội hay cảnh giác trước những video, hình ảnh, cuộc gọi có dấu hiệu đáng ngờ. Ngoài ra, người dùng mạng cũng cần duy trì thói quen kiểm chứng, xác thực lại thông tin trước khi đặt niềm tin vào đó.

Theo Trọng Đạt (VietNamNet)




https://vietnamnet.vn/deepfake-dang-bi-loi-dung-de-ghep-mat-nan-nhan-vao-video-khieu-dam-2205276.html