DeepFake

Nhà Trắng lên tiếng về bức ảnh khiêu dâm của Taylor Swift
Thông qua thư ký báo chí, Nhà Trắng kêu gọi Quốc hội Mỹ có hành động ngăn chặn nạn deepfake sau khi Taylor Swift bị tung ảnh khiêu dâm được tạo bởi AI.

Cần làm gì để tránh trở thành nạn nhân tiếp theo của lừa đảo deepfake?
Người dùng nên thực hiện các bước đơn giản dưới đây để tránh trở thành nạn nhân tiếp theo của phương thức lừa đảo deepfake trên không gian mạng.

Công an 'deepfake' gặp Công an thật và màn lừa đảo cụ bà ở Hà Nội bị lật tẩy
17/12/2023 19:00
Một cụ bà ở Hà Nội vừa bị đối tượng giả danh Công an gọi điện đe dọa nhằm lừa đảo 2 cuốn sổ tiết kiệm khoảng 300 triệu đồng. Tuy nhiên, khi đang trò chuyện bằng công nghệ “deepfake” thì bất ngờ gặp ngay… Công an thật.

Trả 5.000 USD để Facebook lan truyền video deepfake lừa đảo đầu tư
02/12/2023 18:18
Một kẻ lừa đảo đã trả cho Facebook hơn 5.000 USD để video deepfake tiếp cận 100.000 người tại Australia. Video giả mạo chương trình phỏng vấn và kêu gọi mọi người đầu tư thu lợi nhuận khủng.

Cảnh báo 6 dấu hiệu nhận biết cuộc gọi lừa đảo deepfake, ai cũng cần cảnh giác!
17/11/2023 11:50
Gọi video deepfake với hình ảnh và khuôn mặt giả mạo là một trong những thủ đoạn tinh vi của tội phạm công nghệ cao. Hình thức này khiến nhiều người trở thành nạn nhân, bị lừa đảo, chiếm đoạt tài sản, thông tin...

Deepfake đang bị lợi dụng để ghép mặt nạn nhân vào video khiêu dâm
23/10/2023 07:22
Trí tuệ nhân tạo (AI) và deepfake đang dần bị tội phạm mạng khai thác vào các mục đích xấu, trở thành công cụ lừa đảo, thậm chí làm nhục người khác.

Vì sao trí tuệ nhân tạo là 'con dao 2 lưỡi'?
26/08/2023 10:00
Thế giới đang hưởng lợi lớn từ sự phát triển của trí tuệ nhân tạo (AI). Thế nhưng, nếu không được sử dụng đúng cách, AI sẽ mang tới những mối nguy ảnh hưởng trực tiếp tất cả mọi người.

Mất tiền đau vì tin vào cuộc gọi Deepfake
19/07/2023 07:00
Không chỉ lừa đảo chuyển tiền, tội phạm mạng còn sử dụng Deepfake để lồng ghép hình ảnh nạn nhân vào video khiêu dâm, thậm chí lan truyền tin giả gây bất ổn xã hội.

Bộ Công an khuyến cáo người dân cảnh giác trước cuộc gọi lừa đảo 'Deepfake'
12/07/2023 07:00
Bộ Công an cho biết, thời gian gần đây, một số đối tượng lợi dụng công nghệ "Deepfake" để thực hiện các cuộc gọi video với hình ảnh, khuôn mặt giả mạo để lừa đảo "nạn nhân" nhằm thực hiện các hành vi vi phạm pháp luật.

Người thân gọi điện, đúng mặt, đúng giọng, nhưng nếu nói chuyện thấy những dấu hiệu này cần đặc biệt cảnh giác!
20/06/2023 18:14
Mới đây, một người phụ nữ ở Thanh Hóa đã bị lừa 350 triệu đồng sau khi tham gia một cuộc gọi video với nhóm gia đình.
Bài đọc nhiều

Diễn viên Huỳnh Anh Tuấn đột quỵ

Jack phá vỡ sự im lặng sau 4 năm: "Tôi đã nát hết rồi"

Ô tô đâm hàng loạt xe ở Hà Nội, ít nhất 1 người tử vong

Hưng Yên: Phát hiện vợ vào khách sạn với người lạ, chồng về nhà đưa ba con xét nghiệm ADN thì phát hiện 1 người con không cùng huyết thống

Vụ hành hung 2 cô gái tại Photobooth: Công ty Hàn Quốc xin lỗi, sa thải nữ nhân viên có hành vi sai phạm