-
Người đàn ông tử vong vì gia đình vắt chanh vào miệng khi hôn mê -
Bộ Nội vụ bác thông tin tiếp tục sáp nhập còn 16 tỉnh, thành -
Đề xuất giao quyền tuyển dụng, thuyên chuyển giáo viên cho giám đốc sở GD-ĐT -
Bùn nhão tràn khắp phố trung tâm Hà Nội, hàng loạt người đi xe máy ngã dúi dụi -
Đề xuất từ năm 2026, mỗi người dân sẽ được khám sức khỏe miễn phí 1 lần/năm -
Hàng trăm người thức trắng đêm, tranh cãi hỗn loạn để giữ suất mua nhà ở xã hội tại Hà Nội -
Hiện trường sạt lở trúng xe khách trên đèo Khánh Lê, 6 người tử vong -
"3 đen" xuất hiện trên cơ thể báo hiệu bệnh K, hãy đi khám ngay trước khi quá muộn! -
An Giang: Tình hình người đàn ông bị hàng xóm dùng dao tự chế chém vào cổ và gáy do hát karaoke -
Kẻ phóng hỏa khiến 11 người chết đối mặt án tử hình, 2 luật sư được chỉ định bào chữa
Công nghệ
06/08/2021 22:48Apple quét iPhone, iCloud tìm ảnh lạm dụng trẻ em
Cuối năm nay, Apple sẽ ra mắt công nghệ cho phép công ty phát hiện và báo cáo nội dung lạm dụng tình dục trẻ em (CSAM) cho nhà hành pháp. Trả lời TechCrunch, “Táo Khuyết” cho biết đây là một trong vài tính năng mới nhằm bảo vệ trẻ em tốt hơn trước các nguy cơ trực tuyến, bao gồm bộ lọc chặn hình ảnh khiêu dâm gửi và nhận qua tài khoản iMessage của trẻ. Một tính năng khác sẽ can thiệp khi người dùng cố tìm kiếm các từ khóa liên quan tới CSAM trên Siri và Search.
Tin tức về nỗ lực mới của Apple bị lộ ra sau khi Matthew Green, một giảng viên Mật mã học tại Đại học John Hopkins, đăng lên Twitter. Không chỉ vấp phải phản ứng từ một số nhà hoạt động quyền riêng tư và chuyên gia bảo mật, Apple còn bị người dùng phản đối. Theo Apple, công nghệ phát hiện CSAM mới - NeuralHash - sẽ hoạt động trên thiết bị người dùng và có thể phát hiện khi người dùng tải ảnh lạm dụng trẻ em lên iCloud mà không cần giải mã hình ảnh.
Apple đang cố xoa dịu cơn tức giận từ mọi người bằng cách nhấn mạnh tới nhiều lớp mã hóa để đảm bảo quyền riêng tư. NeuralHash sẽ có mặt trên iOS 15 và macOS Monterey trong 1 hoặc 2 tháng tới. Nó hoạt động bằng cách chuyển đổi hình ảnh trên iPhone hoặc Mac thành một chuỗi ký tự và số độc nhất vô nhị (hash). Bất cứ khi nào thay đổi hình ảnh, hash cũng thay đổi. NeuralHash muốn bảo đảm hình ảnh gốc và hình ảnh tương tự - chẳng hạn đã cắt cúp và qua chỉnh sửa - đều có chung hash.
Trước khi ảnh được tải lên iCloud Photos, các hash trên thiết bị sẽ được đối chiếu với một cơ sở dữ liệu các hash về ảnh lạm dụng trẻ em do các tổ chức bảo vệ trẻ em cung cấp. NeuralHash sử dụng kỹ thuật mật mã có tên private set intersection để phát hiện các hash khớp mà không tiết lộ hình ảnh là gì hay cảnh báo người dùng.
Apple có thể giải mã hình ảnh, xác minh thủ công nội dung, vô hiệu hóa tài khoản người dùng và báo cáo hình ảnh cho nhà chức trách. Theo công ty, tỉ lệ sai sót là 1/1.000 tỷ nhưng sẽ có quy trình kháng nghị.
Dù vậy, nhiều người cảm thấy không thoải mái khi trao dữ liệu cho một thuật toán. Vài chuyên gia bảo mật kêu gọi cần thảo luận trước công chúng trước khi Apple triển khai công nghệ này.
Theo Du Lam (ICTNews)
- Tóc Tiên xác nhận độc thân, dấy lên nghi vấn “đường ai nấy đi” với Touliver sau 5 năm bên nhau (11:21)
- Kẻ đổ xăng đốt quán cà phê khiến 11 người tử vong ở Hà Nội giữ thái độ im lặng kỳ lạ trước tòa (11:13)
- Đức Phạm tung bằng chứng chu cấp cho con gái 50 triệu/tháng, tố Diệp Lâm Anh cố tình hạ bệ (32 phút trước)
- Cập nhật giá lăn bánh Mazda CX-5 giữa tháng 11/2025 ở mức rẻ ‘át vía’ Hyundai Tucson và Honda CR-V (35 phút trước)
- Người đàn ông tử vong vì gia đình vắt chanh vào miệng khi hôn mê (36 phút trước)
- Chân dung thí sinh xuất sắc giành 400 điểm, phá vỡ kỷ lục "vô tiền khoáng hậu" của Olympia sau 5 năm (36 phút trước)
- Chuyên án Mr Pips lên phim: "Tường lửa Tràng An" gây sốt khán giả (47 phút trước)
- Bộ Nội vụ bác thông tin tiếp tục sáp nhập còn 16 tỉnh, thành (48 phút trước)
- Galaxy S26 Plus: Fan kỳ vọng điều gì ở phiên bản “con giữa” của Samsung? (1 giờ trước)
- Đề xuất giao quyền tuyển dụng, thuyên chuyển giáo viên cho giám đốc sở GD-ĐT (1 giờ trước)