-
Bí mật trong chiếc taxi chở ba người đàn ông đi "tìm của lạ" lúc rạng sáng -
Áp thấp nhiệt đới tiến sát Biển Đông, khả năng mạnh lên thành bão số 16 -
5 mỹ nam cổ trang đẹp nhất Việt Nam gây bão mạng: ISAAC chỉ xếp hạng 2, hạng 1 "chiếm hết sự hoàn hảo"! -
Mỹ Linh "vô tình" khiến Diva Hồng Nhung nổi giận, đùng đùng bỏ về vì ca khúc này! -
Chờ con ngủ rồi xem điện thoại tới khuya, người mẹ 27 tuổi bỏ mạng giữa đêm: Bỏ ngay thói quen tự hại mình -
2 loại hải sản xếp đầu danh sách nhiễm vi nhựa nhưng người Việt vẫn vô tư ăn hằng ngày -
Thiên tai "cuốn bay" 100.000 tỷ đồng -
Ba ôtô bị thiêu rụi sau vụ tai nạn liên hoàn trên cao tốc Vân Phong – Nha Trang -
4 con giáp may mắn tuần này 8 - 14/12, tình – tiền đều nở rộ -
Nữ du khách bị quấy rối khi trekking Tà Xùa "tung đòn" pháp lý, liệu có được bồi thường?
Công nghệ
06/08/2021 22:48Apple quét iPhone, iCloud tìm ảnh lạm dụng trẻ em
Cuối năm nay, Apple sẽ ra mắt công nghệ cho phép công ty phát hiện và báo cáo nội dung lạm dụng tình dục trẻ em (CSAM) cho nhà hành pháp. Trả lời TechCrunch, “Táo Khuyết” cho biết đây là một trong vài tính năng mới nhằm bảo vệ trẻ em tốt hơn trước các nguy cơ trực tuyến, bao gồm bộ lọc chặn hình ảnh khiêu dâm gửi và nhận qua tài khoản iMessage của trẻ. Một tính năng khác sẽ can thiệp khi người dùng cố tìm kiếm các từ khóa liên quan tới CSAM trên Siri và Search.
Tin tức về nỗ lực mới của Apple bị lộ ra sau khi Matthew Green, một giảng viên Mật mã học tại Đại học John Hopkins, đăng lên Twitter. Không chỉ vấp phải phản ứng từ một số nhà hoạt động quyền riêng tư và chuyên gia bảo mật, Apple còn bị người dùng phản đối. Theo Apple, công nghệ phát hiện CSAM mới - NeuralHash - sẽ hoạt động trên thiết bị người dùng và có thể phát hiện khi người dùng tải ảnh lạm dụng trẻ em lên iCloud mà không cần giải mã hình ảnh.
Apple đang cố xoa dịu cơn tức giận từ mọi người bằng cách nhấn mạnh tới nhiều lớp mã hóa để đảm bảo quyền riêng tư. NeuralHash sẽ có mặt trên iOS 15 và macOS Monterey trong 1 hoặc 2 tháng tới. Nó hoạt động bằng cách chuyển đổi hình ảnh trên iPhone hoặc Mac thành một chuỗi ký tự và số độc nhất vô nhị (hash). Bất cứ khi nào thay đổi hình ảnh, hash cũng thay đổi. NeuralHash muốn bảo đảm hình ảnh gốc và hình ảnh tương tự - chẳng hạn đã cắt cúp và qua chỉnh sửa - đều có chung hash.
Trước khi ảnh được tải lên iCloud Photos, các hash trên thiết bị sẽ được đối chiếu với một cơ sở dữ liệu các hash về ảnh lạm dụng trẻ em do các tổ chức bảo vệ trẻ em cung cấp. NeuralHash sử dụng kỹ thuật mật mã có tên private set intersection để phát hiện các hash khớp mà không tiết lộ hình ảnh là gì hay cảnh báo người dùng.
Apple có thể giải mã hình ảnh, xác minh thủ công nội dung, vô hiệu hóa tài khoản người dùng và báo cáo hình ảnh cho nhà chức trách. Theo công ty, tỉ lệ sai sót là 1/1.000 tỷ nhưng sẽ có quy trình kháng nghị.
Dù vậy, nhiều người cảm thấy không thoải mái khi trao dữ liệu cho một thuật toán. Vài chuyên gia bảo mật kêu gọi cần thảo luận trước công chúng trước khi Apple triển khai công nghệ này.
Theo Du Lam (ICTNews)
- Miền Bắc sắp đón không khí lạnh mạnh, có mưa và rét đậm (1 giờ trước)
- Vụ mẹ và bé sơ sinh ở Đắk Lắk bị từ chối tiếp nhận: Lãnh đạo Sở Y tế đích thân đến nhà xin lỗi (1 giờ trước)
- Ẩu đả dữ dội xảy ra giữa đám cưới, nhà gái tuyên bố hủy hôn ngay lập tức (1 giờ trước)
- Dự án Nuôi Em bị tố thiếu minh bạch: Hàng loạt tình tiết gây sốc xuất hiện (2 giờ trước)
- Tiết lộ số tiền "khủng" Hòa Minzy, Đen Vâu từng ủng hộ cho dự án Nuôi Em đang bị nghi ngờ minh bạch tài chính (2 giờ trước)
- Hà Nội được xếp ô nhiễm nhất thế giới tối 7/12 (2 giờ trước)
- Người đàn ông ra đầu thú sau 7 năm trốn án gây tai nạn chết người: Hành động khiến ai cũng sốc! (3 giờ trước)
- Đây là chiếc điện thoại Xiaomi 5G giá dưới 8 triệu đáng mua nhất Việt Nam, camera 200MP xịn như Galaxy S25 Ultra (3 giờ trước)
- Nghi vấn thiếu minh bạch: Người sáng lập dự án "Nuôi Em" hứa phản hồi 13 nội dung thắc mắc trong 24 giờ (3 giờ trước)
- Khuyến cáo an toàn phòng cháy chữa cháy và thoát nạn đối với các khu chung cư, nhà cao tầng (3 giờ trước)