-
Tuyển sinh lớp 10 tại TP HCM: Một số trường có tỷ lệ chọi lên đến 1/2,84 -
Hiện trường sập nhà 2 tầng Quảng Ninh khiến 3 người thương vong: Nguyên nhân xuất phát từ hành động trước đó của chủ nhà -
Tình hình người phụ nữ dừng đèn đỏ bị xe bus cuốn vào gầm, hàng chục người phải khiêng xe giải cứu -
Thực hư vụ nhà hàng ở Hà Tĩnh "đổi tôm" sú thành tôm thẻ bị khách phản ánh liền định lao vào xô xát -
Bé gái 22 tháng tuổi bị chó cắn nát mặt -
Tổng Bí thư, Chủ tịch nước: "Vào lớp 10 căng thẳng hơn thi đại học, sao lại tạo tâm lý bất an như vậy?" -
Thân thế vị tướng làm Bí thư Thành ủy Hà Nội nhận chức khi mới 23 tuổi, 18 tuổi được kết nạp Đảng -
Cơ quan khí tượng cảnh báo thời tiết dị thường trong tháng 5, tuyệt đối không được chủ quan! -
Khởi công mở rộng đường trung tâm TP HCM gấp 5 lần, vốn đầu tư gần 1.000 tỷ đồng -
Á hậu Vũ Thúy Quỳnh lên tiếng về nghi vấn rạn nứt với thiếu gia Đức Phạm
Công nghệ
23/08/2024 15:23Hacker dùng 'câu lệnh bẩn' để tấn công trợ lý ảo AI
Số lượng cuộc tấn công liên quan đến trí tuệ nhân tạo (AI) đang leo thang nhanh chóng. Thông tin này vừa được Kaspersky chia sẻ tại Hội nghị thượng đỉnh trọng điểm về an ninh mạng diễn ra hồi đầu tháng 8 tại Sri Lanca.
Theo các chuyên gia, có thể chia các cuộc tấn công bằng AI thành hai loại chính. Đầu tiên là sử dụng AI để tự động hóa quy trình hoặc tìm ra các phương thức tấn công mạng mới. Ví dụ điển hình là cách mà nhiều kẻ lừa đảo sử dụng công nghệ Deepfake. Thể loại tấn công bằng AI thứ hai là lợi dụng lỗ hổng để thao túng các mô hình ngôn ngữ lớn thực hiện hành động ngoài ý muốn.
Trên thực tế, sự phát triển nhanh chóng của trí tuệ nhân tạo thời gian gần đây đang đặt ra những thách thức với ngành bảo mật. Theo kết quả một nghiên cứu vừa công bố của Kaspersky, AI có thể bẻ khóa mật khẩu nhanh hơn 3 lần so với cách thông thường. Nguy hiểm hơn khi 78% mật khẩu có thể bị AI bẻ khóa trong vòng chưa đầy 60 phút.
Tháng 7 vừa qua, thế giới chứng kiến vụ rò rỉ mật khẩu lớn nhất từng bị phát tán trực tuyến. Đó là vụ rò rỉ mật khẩu RockYou2024, chứa 10 tỷ mật khẩu dưới dạng văn bản và 8,2 tỷ mật khẩu chứa ký tự đặc biệt.
Phân tích dữ liệu thu được từ sự cố này, ông Alexey Antonov - Trưởng nhóm Khoa học Dữ liệu tại Kaspersky, cho biết 32% mật khẩu người dùng hiện không đủ mạnh. Dù đã được mã hóa ở dạng “hàm băm”, nhưng những mật khẩu này vẫn có thể khôi phục về dạng văn bản thuần túy. Bằng thuật toán đơn giản, công đoạn khôi phục chỉ mất khoảng 60 phút.
“Để kiểm tra mức độ bảo mật của mật khẩu, chúng tôi đào tạo mô hình ngôn ngữ (language model) dùng các mật khẩu đã lộ làm dữ liệu đầu vào. Kết quả là, có đến 78% mật khẩu có khả năng bị bẻ khóa theo cách kể trên. Chỉ có 7% mật khẩu đủ mạnh để phòng chống các cuộc tấn công lâu dài”, chuyên gia Alexey Antonov nhận định.
Không chỉ sử dụng để dò tìm mật khẩu, trí tuệ nhân tạo đang được các hacker vận dụng vào nhiều kịch bản tấn công. Trên thực tế, ChatGPT có thể bị kẻ xấu lợi dụng để viết các phần mềm độc hại.
Thông qua AI, kẻ xấu khai thác các nội dung lừa đảo, bao gồm văn bản, hình ảnh, âm thanh và video để triển khai tấn công phi kỹ thuật. Những mô hình ngôn ngữ lớn như ChatGPT-4o đang bị tận dụng để tạo ra kịch bản và tin nhắn lừa đảo vô cùng tinh vi.
Vượt qua rào cản ngôn ngữ, AI có thể viết ra một email chân thật, chỉ cần dựa vào thông tin trên mạng xã hội. Thậm chí, AI có thể bắt chước văn phong của nạn nhân. Điều này càng khiến hành vi lừa đảo khó bị phát hiện hơn.
Một trong những nguy cơ từ AI là việc kẻ xấu lợi dụng công nghệ Deepfake để mạo danh người khác, từ đó thực hiện các hành vi lừa đảo nhằm trục lợi tài chính thông qua việc gọi điện cho bạn bè, người thân.
Theo chuyên gia Alexey Antonov, ngoài việc lợi dụng công nghệ AI vào những hoạt động phi pháp, kẻ xấu còn có thể tấn công vào cả những thuật toán AI. Điều này được thực hiện thông qua những cuộc tấn công “tiêm lệnh” (Prompt Injection attacks), nhập những câu lệnh độc hại, đi ngược những quy tắc hạn chế vào các mô hình ngôn ngữ lớn. Những “câu lệnh bẩn” sẽ tác động, làm sai lệch nội dung kết quả trả về của trợ lý ảo.
Bên cạnh đó, trí tuệ nhân tạo còn có thể được sử dụng trong các cuộc tấn công đối kháng (Adversarial attacks). Đó là khi kẻ xấu thêm những trường thông tin ẩn vào hình ảnh, hoặc âm thanh, để gây ảnh hưởng đến khả năng phân loại hình ảnh của hệ thống học máy.
Trong bối cảnh AI dần được tích hợp vào mọi khía cạnh trong đời sống con người, từ Apple Intelligence, Google Gemini cho đến Microsoft Copilot, các chuyên gia cho rằng, việc giải quyết những lỗ hổng AI nên được xem là ưu tiên hàng đầu.
Theo Trọng Đạt (VietNamNet)
- Vì sao không thể biên soạn bộ SGK mới dùng chung toàn quốc? (22:07)
- MU sắp “trói chân” Carrick sau mùa giải thăng hoa (27 phút trước)
- Công an xác minh vụ phụ huynh tát tài xế giao thực phẩm tại trường mầm non (38 phút trước)
- Vướng mắc tại Bệnh viện Bạch Mai, Việt Đức cơ sở 2 cơ bản được gỡ xong, sẵn sàng về đích sau chặng dài trì trệ (52 phút trước)
- Bi kịch vụ cháy ô tô tại cây xăng: Nỗi day dứt của người trong cuộc (1 giờ trước)
- Tài xế xe buýt không giảm tốc độ trước khi gây tai nạn, cuốn người phụ nữ vào gầm xe (1 giờ trước)
- Tranh cãi quanh thông tin tàu chiến Mỹ bị tấn công tại eo biển Hormuz (1 giờ trước)
- Thủ tướng chỉ đạo nghiên cứu phân loại bất động sản để điều hành tín dụng linh hoạt (1 giờ trước)
- Hai áp thấp xuất hiện gần Philippines, một hệ thống có thể thành bão trước thời điểm tiến vào khu vực Biển Đông (2 giờ trước)
- Phát hiện thanh niên tử vong trên ghế lái ô tô đậu ven đường quốc lộ (2 giờ trước)