Công nghệ

Ngăn chặn lừa đảo Deepfake phải xử lý tài khoản ngân hàng không chính chủ

Công nghệ Deepfake, sử dụng AI để tạo ra hình ảnh giả mạo, đang được những kẻ lừa đảo trực tuyến dùng vào mục đích lừa nạn nhân chuyển tiền.

Thời gian gần đây xuất hiện hình thức lừa đảo trực tuyến mới là cuộc gọi video Deepfake. Các đối tượng sử dụng công nghệ trí tuệ nhân tạo (AI) để làm những video hoặc hình ảnh giả, sao chép ảnh chân dung tạo ra các đoạn video giả người thân, bạn bè để thực hiện các cuộc gọi lừa đảo trực tuyến.

Deepfake có thể được sử dụng không chỉ để lừa đảo trực tuyến mà còn sử dụng cho các mục đích khác như tấn công chính trị, tạo ra những tin tức giả mạo hoặc phá hoại danh tiếng của người khác. 

Phần lớn hình thức lừa đảo trực tuyến này nhắm tới việc lừa đảo tài chính. Đối với các cuộc gọi Deepfake như hiện nay thì bằng mắt thường vẫn có thể nhận thấy một số các dấu hiệu như thời gian gọi thường rất ngắn chỉ vài giây. Khuôn mặt của người trong cuộc gọi video giả mạo thường thiếu cảm xúc và khá "trơ" khi nói, tư thế lúng túng, không tự nhiên, hoặc hướng đầu và cơ thể không nhất quán với nhau…

Ngăn chặn lừa đảo Deepfake phải xử lý tài khoản ngân hàng không chính chủ
Người dân truyền tay nhau thông tin về các cuộc lừa đảo Deepfake xuất hiện thời gian gần đây. Ảnh: Trọng Đạt

Ngoài ra, cũng có thể nhận thấy màu da của nhân vật trong video cuộc gọi bất thường, ánh sáng kỳ dị và bóng đổ không đúng vị trí. Điều này có thể khiến cho video trông không tự nhiên. Âm thanh cũng là một vấn đề có thể nhận thấy sự khác lạ trong video, khi nó không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào video hoặc video không có âm thanh.

Thông thường, kẻ gian sẽ ngắt cuộc gọi giữa chừng với lý do mất sóng, sóng yếu… Những yếu tố kỳ lạ như trên là dấu hiệu nhận biết của các vụ lừa đảo Deepfake.

Chia sẻ tại cuộc họp báo thường kỳ tháng 5 của Bộ TT&TT sáng 5/5, ông Trần Quang Hưng, Phó Cục trưởng Cục An toàn thông tin cho hay, ngay từ thời điểm nhận được thông tin phản ánh từ người dân, Cục An toàn thông tin đã cảnh báo rộng rãi trên các phương tiện thông tin đại chúng về hình thức lừa đảo mới này. 

Ngăn chặn lừa đảo Deepfake phải xử lý tài khoản ngân hàng không chính chủ - 1
Theo ông Trần Quang Hưng, Phó Cục trưởng Cục An toàn thông tin, những đối tượng lừa đảo sẵn sàng bỏ tiền ra mua các tài khoản ngân hàng không chính chủ với giá rẻ. Ảnh: Lê Anh Dũng

Không chỉ Việt Nam mà nhiều nước trên thế giới, cùng các công ty công nghệ lớn đang chung tay để tìm giải pháp kỹ thuật nhằm xử lý các vụ lừa đảo Deepfake. Ngăn chặn lừa đảo trên không gian mạng là một cuộc chiến trường kỳ. Tuy nhiên, ở góc độ căn cơ, gốc rễ của những vụ lừa đảo trực tuyến phần lớn liên quan đến lừa đảo tài chính. 

Theo ông Hưng, để lấy được tiền của nạn nhân, kẻ lừa đảo cần đến các tài khoản chuyển tiền vào. Những đối tượng này sẵn sàng bỏ tiền ra mua các tài khoản ngân hàng không chính chủ với giá rẻ.

“Chúng ta cần ngăn chặn các tài khoản không chính chủ này, đồng bộ thông tin tài khoản ngân hàng với cơ sở dữ liệu quốc gia về dân cư để giải quyết bài toán căn cơ. Nếu vậy, số lượng các vụ lừa đảo trực tuyến sẽ giảm mạnh”, Phó Cục trưởng Cục An toàn thông tin nói. 

Ông Trần Quang Hưng cũng cho hay, công nghệ thay đổi hàng ngày, đây chỉ là công cụ được những kẻ lừa đảo sử dụng. Việc chống lừa đảo trực tuyến không đơn giản là vấn đề kỹ thuật mà cần có sự phối hợp đồng bộ chung giữa cả mặt công nghệ, pháp lý và cơ chế.  

Theo Trọng Đạt (VietNamNet)




https://vietnamnet.vn/ngan-chan-lua-dao-deepfake-phai-xu-ly-tai-khoan-ngan-hang-khong-chinh-chu-2139626.html