-
Phát hiện vật thể lạ lớn bất thường ven bờ sông Đà
-
Thử nghiệm đưa đón cán bộ, viên chức Hải Phòng bằng tàu hoả
-
Xúc động chuyện chồng trồng 1 km phượng vĩ, 1.000 cây hoa hồng để tưởng nhớ vợ
-
4 ngư dân bám thùng xốp trôi dạt nhiều giờ trên biển ở An Giang
-
Thương tâm nam học sinh lớp 11 gặp tai nạn không qua khỏi trên Quốc lộ 13
-
Lời khai của tài xế vụ xe tải đâm vào chợ chuối khiến 3 người chết ở Quảng Trị
-
Áp thấp nhiệt đới sắp vào Biển Đông, thời điểm có thể mạnh lên thành bão số 8
-
Bé gái 6 tuổi bị gã lạ mặt dụ dỗ, chở đi, công an xuyên màn đêm truy tìm
-
Vợ Duy Mạnh khổ sở cầu xin
-
Thủ tướng phê bình 29 bộ, cơ quan và 12 địa phương "có tiền mà không biết tiêu"
Công nghệ
06/08/2021 15:48Apple quét iPhone, iCloud tìm ảnh lạm dụng trẻ em
Cuối năm nay, Apple sẽ ra mắt công nghệ cho phép công ty phát hiện và báo cáo nội dung lạm dụng tình dục trẻ em (CSAM) cho nhà hành pháp. Trả lời TechCrunch, “Táo Khuyết” cho biết đây là một trong vài tính năng mới nhằm bảo vệ trẻ em tốt hơn trước các nguy cơ trực tuyến, bao gồm bộ lọc chặn hình ảnh khiêu dâm gửi và nhận qua tài khoản iMessage của trẻ. Một tính năng khác sẽ can thiệp khi người dùng cố tìm kiếm các từ khóa liên quan tới CSAM trên Siri và Search.

Tin tức về nỗ lực mới của Apple bị lộ ra sau khi Matthew Green, một giảng viên Mật mã học tại Đại học John Hopkins, đăng lên Twitter. Không chỉ vấp phải phản ứng từ một số nhà hoạt động quyền riêng tư và chuyên gia bảo mật, Apple còn bị người dùng phản đối. Theo Apple, công nghệ phát hiện CSAM mới - NeuralHash - sẽ hoạt động trên thiết bị người dùng và có thể phát hiện khi người dùng tải ảnh lạm dụng trẻ em lên iCloud mà không cần giải mã hình ảnh.
Apple đang cố xoa dịu cơn tức giận từ mọi người bằng cách nhấn mạnh tới nhiều lớp mã hóa để đảm bảo quyền riêng tư. NeuralHash sẽ có mặt trên iOS 15 và macOS Monterey trong 1 hoặc 2 tháng tới. Nó hoạt động bằng cách chuyển đổi hình ảnh trên iPhone hoặc Mac thành một chuỗi ký tự và số độc nhất vô nhị (hash). Bất cứ khi nào thay đổi hình ảnh, hash cũng thay đổi. NeuralHash muốn bảo đảm hình ảnh gốc và hình ảnh tương tự - chẳng hạn đã cắt cúp và qua chỉnh sửa - đều có chung hash.
Trước khi ảnh được tải lên iCloud Photos, các hash trên thiết bị sẽ được đối chiếu với một cơ sở dữ liệu các hash về ảnh lạm dụng trẻ em do các tổ chức bảo vệ trẻ em cung cấp. NeuralHash sử dụng kỹ thuật mật mã có tên private set intersection để phát hiện các hash khớp mà không tiết lộ hình ảnh là gì hay cảnh báo người dùng.
Apple có thể giải mã hình ảnh, xác minh thủ công nội dung, vô hiệu hóa tài khoản người dùng và báo cáo hình ảnh cho nhà chức trách. Theo công ty, tỉ lệ sai sót là 1/1.000 tỷ nhưng sẽ có quy trình kháng nghị.
Dù vậy, nhiều người cảm thấy không thoải mái khi trao dữ liệu cho một thuật toán. Vài chuyên gia bảo mật kêu gọi cần thảo luận trước công chúng trước khi Apple triển khai công nghệ này.
Theo Du Lam (ICTNews)








- TikToker 7 triệu like chuyên cảnh báo về "việc nhẹ lương cao" ở Campuchia "biến mất" hơn 2 tuần, hàng nghìn người lo lắng (21 phút trước)
- Vụ "xây nhầm" trên đất được cấp sổ đỏ: Chủ đất tiết lộ tình tiết gây sốc (29 phút trước)
- Người phụ nữ ho ra "rễ cây" (36 phút trước)
- Hà Nội phát hiện 1.664 bánh trung thu không rõ nguồn gốc suýt lọt ra thị trường: Người mua chớ dại rước về! (39 phút trước)
- Mang rái cá lên Facebook bán, người phụ nữ ở Ninh Bình bị khởi tố (40 phút trước)
- Steadihan Lê Bảo Hân được VTV trao bằng khen sau A80: Nói đúng 5 chữ quá oách (43 phút trước)
- VĐV chạy nhanh nhất thế giới xuống sức ở tuổi 40: “Leo cầu thang thôi cũng thở dốc” (48 phút trước)
- Trung Quốc đạt kỳ tích thế giới phải công nhận: "Bóng ma ám phổi" khiến hơn 1 tỷ người lo sợ đã biến mất? (1 giờ trước)
- Phát hiện vật thể lạ lớn bất thường ven bờ sông Đà (1 giờ trước)
- Nam ca sĩ Hàn thừa nhận hiếp dâm tập thể (1 giờ trước)




