-
Thanh niên 16 tuổi mất tích bí ẩn, hé lộ cuộc gọi cuối cùng đầy bất thường, gia đình nghi bị lừa sang Campuchia -
Lời khai của gã đàn ông bắn súng chỉ thiên tại đám cưới ở Hà Tĩnh, hé lộ nhân thân đen tối -
4 loại nước có vị ngọt tự nhiên nhưng hạ đường huyết tốt bất ngờ, đẩy lùi ung thư -
Fan "cắm trại" xuyên đêm, háo hức chờ concert SOOBIN -
Kiệt quệ cảm xúc trước tuổi 30: Cơn báo động thầm lặng đang "hút cạn" năng lượng người trẻ đô thị -
Người đuổi không cho mẹ và em bé mới sinh tránh lũ ở trạm y tế lên tiếng về hành động gây phẫn nộ -
Áp thấp nhiệt đới "dị thường" tiến thẳng về phía bão số 15 Koto -
Bão Koto áp sát, 68 chuyến bay buộc phải đổi hướng khẩn cấp -
Công an vào cuộc xác minh nhân thân Nguyễn Xuân Đạt, người mất liên lạc 10 năm ở Hưng Yên -
Tạm giữ tài xế 20 tuổi dùng biển số giả, tông thẳng vào xe đặc chủng của CSGT
Công nghệ
23/08/2024 15:23Hacker dùng 'câu lệnh bẩn' để tấn công trợ lý ảo AI
Số lượng cuộc tấn công liên quan đến trí tuệ nhân tạo (AI) đang leo thang nhanh chóng. Thông tin này vừa được Kaspersky chia sẻ tại Hội nghị thượng đỉnh trọng điểm về an ninh mạng diễn ra hồi đầu tháng 8 tại Sri Lanca.
Theo các chuyên gia, có thể chia các cuộc tấn công bằng AI thành hai loại chính. Đầu tiên là sử dụng AI để tự động hóa quy trình hoặc tìm ra các phương thức tấn công mạng mới. Ví dụ điển hình là cách mà nhiều kẻ lừa đảo sử dụng công nghệ Deepfake. Thể loại tấn công bằng AI thứ hai là lợi dụng lỗ hổng để thao túng các mô hình ngôn ngữ lớn thực hiện hành động ngoài ý muốn.
Trên thực tế, sự phát triển nhanh chóng của trí tuệ nhân tạo thời gian gần đây đang đặt ra những thách thức với ngành bảo mật. Theo kết quả một nghiên cứu vừa công bố của Kaspersky, AI có thể bẻ khóa mật khẩu nhanh hơn 3 lần so với cách thông thường. Nguy hiểm hơn khi 78% mật khẩu có thể bị AI bẻ khóa trong vòng chưa đầy 60 phút.
Tháng 7 vừa qua, thế giới chứng kiến vụ rò rỉ mật khẩu lớn nhất từng bị phát tán trực tuyến. Đó là vụ rò rỉ mật khẩu RockYou2024, chứa 10 tỷ mật khẩu dưới dạng văn bản và 8,2 tỷ mật khẩu chứa ký tự đặc biệt.
Phân tích dữ liệu thu được từ sự cố này, ông Alexey Antonov - Trưởng nhóm Khoa học Dữ liệu tại Kaspersky, cho biết 32% mật khẩu người dùng hiện không đủ mạnh. Dù đã được mã hóa ở dạng “hàm băm”, nhưng những mật khẩu này vẫn có thể khôi phục về dạng văn bản thuần túy. Bằng thuật toán đơn giản, công đoạn khôi phục chỉ mất khoảng 60 phút.
“Để kiểm tra mức độ bảo mật của mật khẩu, chúng tôi đào tạo mô hình ngôn ngữ (language model) dùng các mật khẩu đã lộ làm dữ liệu đầu vào. Kết quả là, có đến 78% mật khẩu có khả năng bị bẻ khóa theo cách kể trên. Chỉ có 7% mật khẩu đủ mạnh để phòng chống các cuộc tấn công lâu dài”, chuyên gia Alexey Antonov nhận định.
Không chỉ sử dụng để dò tìm mật khẩu, trí tuệ nhân tạo đang được các hacker vận dụng vào nhiều kịch bản tấn công. Trên thực tế, ChatGPT có thể bị kẻ xấu lợi dụng để viết các phần mềm độc hại.
Thông qua AI, kẻ xấu khai thác các nội dung lừa đảo, bao gồm văn bản, hình ảnh, âm thanh và video để triển khai tấn công phi kỹ thuật. Những mô hình ngôn ngữ lớn như ChatGPT-4o đang bị tận dụng để tạo ra kịch bản và tin nhắn lừa đảo vô cùng tinh vi.
Vượt qua rào cản ngôn ngữ, AI có thể viết ra một email chân thật, chỉ cần dựa vào thông tin trên mạng xã hội. Thậm chí, AI có thể bắt chước văn phong của nạn nhân. Điều này càng khiến hành vi lừa đảo khó bị phát hiện hơn.
Một trong những nguy cơ từ AI là việc kẻ xấu lợi dụng công nghệ Deepfake để mạo danh người khác, từ đó thực hiện các hành vi lừa đảo nhằm trục lợi tài chính thông qua việc gọi điện cho bạn bè, người thân.
Theo chuyên gia Alexey Antonov, ngoài việc lợi dụng công nghệ AI vào những hoạt động phi pháp, kẻ xấu còn có thể tấn công vào cả những thuật toán AI. Điều này được thực hiện thông qua những cuộc tấn công “tiêm lệnh” (Prompt Injection attacks), nhập những câu lệnh độc hại, đi ngược những quy tắc hạn chế vào các mô hình ngôn ngữ lớn. Những “câu lệnh bẩn” sẽ tác động, làm sai lệch nội dung kết quả trả về của trợ lý ảo.
Bên cạnh đó, trí tuệ nhân tạo còn có thể được sử dụng trong các cuộc tấn công đối kháng (Adversarial attacks). Đó là khi kẻ xấu thêm những trường thông tin ẩn vào hình ảnh, hoặc âm thanh, để gây ảnh hưởng đến khả năng phân loại hình ảnh của hệ thống học máy.
Trong bối cảnh AI dần được tích hợp vào mọi khía cạnh trong đời sống con người, từ Apple Intelligence, Google Gemini cho đến Microsoft Copilot, các chuyên gia cho rằng, việc giải quyết những lỗ hổng AI nên được xem là ưu tiên hàng đầu.
Theo Trọng Đạt (VietNamNet)
- Chủ tịch Laporta "tuyên chiến" Real Madrid: "Họ bị ám ảnh và cuồng bài xích Barca!" (16:30)
- Không gian bí mật trong biệt thự 50 tỷ của Ngọc Trinh: Hé lộ chi tiết riêng tư chưa từng công bố (16:19)
- Thanh niên 16 tuổi mất tích bí ẩn, hé lộ cuộc gọi cuối cùng đầy bất thường, gia đình nghi bị lừa sang Campuchia (16:17)
- Lời khai của gã đàn ông bắn súng chỉ thiên tại đám cưới ở Hà Tĩnh, hé lộ nhân thân đen tối (16:14)
- 4 loại nước có vị ngọt tự nhiên nhưng hạ đường huyết tốt bất ngờ, đẩy lùi ung thư (16:10)
- Bị phạt hơn 400 triệu vì nuôi 79 con chó suốt 3 năm (16:07)
- Tôi bị họ hàng cân đo bằng tiền đóng góp ngày giỗ, nhưng đau đớn hơn là sự im lặng của chồng (16:04)
- Kiệt quệ cảm xúc trước tuổi 30: Cơn báo động thầm lặng đang "hút cạn" năng lượng người trẻ đô thị (54 phút trước)
- Vợ NSND Công Lý lần đầu tiết lộ: "Gia đình nhận hàng trăm cuộc gọi xin được chữa bệnh" (57 phút trước)
- Người đuổi không cho mẹ và em bé mới sinh tránh lũ ở trạm y tế lên tiếng về hành động gây phẫn nộ (1 giờ trước)