-
Giá xăng tăng vượt mốc 20.000 đồng/lít
-
Camera ghi cảnh đối tượng cầm dao xông vào nhà chém trọng thương người đàn ông ở Hải Phòng
-
Nữ sinh học giỏi viết vội vàng để kịp nộp bài thi nhưng nhận về 0 điểm, buộc phải học lại kỳ sau, giảng viên thông báo: "Có dấu hiệu gian lận"
-
Diễn biến mới vụ người "tố" C.P. Việt Nam bán thịt heo bệnh bị mời lên làm việc
-
Mẹ dắt con gái ra cầu tàu rồi nhảy xuống biển, để lại di thư khiến ai cũng nghẹn ngào
-
Vàng tăng giá: Giới siêu giàu đua nhau tích trữ, sẵn sàng bỏ thêm tiền để cầm vàng tận tay, rồi chôn dưới đất hoặc gửi vào hầm bí mật
-
Kỷ lục giao dịch cổ phiếu vài tỷ USD/phiên: Uỷ ban Chứng khoán đưa ra cảnh báo
-
Một hành động của Phương Mỹ Chi làm lộ kết quả Chung kết Em Xinh Say Hi
-
Ngắm dàn vũ khí, khí tài do Việt Nam sản xuất và hiện đại hóa
-
Vượt đèn đỏ với tốc độ 180 km/h, xe SUV gây hoạ ngay trước mũi xe cảnh sát
Công nghệ
06/08/2021 15:48Apple quét iPhone, iCloud tìm ảnh lạm dụng trẻ em
Cuối năm nay, Apple sẽ ra mắt công nghệ cho phép công ty phát hiện và báo cáo nội dung lạm dụng tình dục trẻ em (CSAM) cho nhà hành pháp. Trả lời TechCrunch, “Táo Khuyết” cho biết đây là một trong vài tính năng mới nhằm bảo vệ trẻ em tốt hơn trước các nguy cơ trực tuyến, bao gồm bộ lọc chặn hình ảnh khiêu dâm gửi và nhận qua tài khoản iMessage của trẻ. Một tính năng khác sẽ can thiệp khi người dùng cố tìm kiếm các từ khóa liên quan tới CSAM trên Siri và Search.

Tin tức về nỗ lực mới của Apple bị lộ ra sau khi Matthew Green, một giảng viên Mật mã học tại Đại học John Hopkins, đăng lên Twitter. Không chỉ vấp phải phản ứng từ một số nhà hoạt động quyền riêng tư và chuyên gia bảo mật, Apple còn bị người dùng phản đối. Theo Apple, công nghệ phát hiện CSAM mới - NeuralHash - sẽ hoạt động trên thiết bị người dùng và có thể phát hiện khi người dùng tải ảnh lạm dụng trẻ em lên iCloud mà không cần giải mã hình ảnh.
Apple đang cố xoa dịu cơn tức giận từ mọi người bằng cách nhấn mạnh tới nhiều lớp mã hóa để đảm bảo quyền riêng tư. NeuralHash sẽ có mặt trên iOS 15 và macOS Monterey trong 1 hoặc 2 tháng tới. Nó hoạt động bằng cách chuyển đổi hình ảnh trên iPhone hoặc Mac thành một chuỗi ký tự và số độc nhất vô nhị (hash). Bất cứ khi nào thay đổi hình ảnh, hash cũng thay đổi. NeuralHash muốn bảo đảm hình ảnh gốc và hình ảnh tương tự - chẳng hạn đã cắt cúp và qua chỉnh sửa - đều có chung hash.
Trước khi ảnh được tải lên iCloud Photos, các hash trên thiết bị sẽ được đối chiếu với một cơ sở dữ liệu các hash về ảnh lạm dụng trẻ em do các tổ chức bảo vệ trẻ em cung cấp. NeuralHash sử dụng kỹ thuật mật mã có tên private set intersection để phát hiện các hash khớp mà không tiết lộ hình ảnh là gì hay cảnh báo người dùng.
Apple có thể giải mã hình ảnh, xác minh thủ công nội dung, vô hiệu hóa tài khoản người dùng và báo cáo hình ảnh cho nhà chức trách. Theo công ty, tỉ lệ sai sót là 1/1.000 tỷ nhưng sẽ có quy trình kháng nghị.
Dù vậy, nhiều người cảm thấy không thoải mái khi trao dữ liệu cho một thuật toán. Vài chuyên gia bảo mật kêu gọi cần thảo luận trước công chúng trước khi Apple triển khai công nghệ này.
Theo Du Lam (ICTNews)








- Nga nêu thời gian, giấu kín địa điểm ông Putin gặp ông Trump (31 phút trước)
- Phường đông dân ở TPHCM xử "rát" lấn chiếm vỉa hè, bất ngờ tháo dỡ 50 công trình (35 phút trước)
- Mới “sống thử” vài tháng mà bạn trai “chưa ra đến chợ đã hết tiền” (37 phút trước)
- Hiệp Gà: Nếu không bị bắt, biết đâu giờ tôi đã 'xanh cỏ’ rồi (39 phút trước)
- Giả vờ hỏi đường rồi tấn công phủ đầu để cướp xe (45 phút trước)
- Sang đường bất cẩn, thanh niên đi xe đạp gây tai nạn kinh hoàng cho xe ba bánh (48 phút trước)
- "Tối hậu thư" cho dự án điện hạt nhân đầu tiên của Việt Nam (55 phút trước)
- Không uống một giọt rượu nào vẫn mắc bệnh gan: "Thủ phạm" là 1 thói quen cực xấu! (58 phút trước)
- Bốc thăm giải châu Á: Tuyển Việt Nam gặp thuận lợi lớn, Malaysia dễ bị loại sớm (1 giờ trước)
- Cận cảnh hiện trường vụ đứt cáp cầu treo ở khu thắng cảnh Tân Cương: 5 người chết, 24 người bị thương (1 giờ trước)




