-
Hàng loạt doanh nghiệp từng hợp tác lên tiếng về dự án Nuôi em: Cùng khẳng định một điều bất ngờ -
Chính thức miễn giấy phép xây dựng nhà ở nông thôn dưới 7 tầng -
Vụ bé gái bị bố xích chân trong phòng: Người đàn ông thú nhận sự thật gây sốc -
Thứ trưởng Bộ Công an gửi thư khen đặc biệt: Công an Lạng Sơn lập công lớn, phá nhanh vụ án Đoàn Văn Sáng -
Trông giữ xe điện tại HH Linh Đàm: Tạm thời duy trì dịch vụ, chờ phương án chính thức từ cơ quan chức năng -
Đồng Nai: Tạm giữ hình sự tài xế xe tải cán liên tiếp nạn nhân gây tai nạn chết người -
TP HCM: Người phụ nữ tử vong thương tâm sau va chạm với xe container, hé lộ hoàn cảnh đáng thương -
Học sinh Việt Nam từ 2026: Miễn phí sách giáo khoa và thống nhất bộ SGK toàn quốc, thay đổi lớn trong giáo dục -
Hà Nội: 182 trường hợp vi phạm được camera AI phát hiện phải nộp phạt nguội theo Nghị định 168 -
Phẫn nộ clip nữ sinh lớp 10 Gia Lai bị nhóm bạn đánh hội đồng chỉ vì 1 xích mích vụn vặt
Công nghệ
09/04/2023 13:59Đừng nói điều thầm kín với chatbot
Một số công ty như JPMorgan Chase cấm nhân viên sử dụng ChatGPT, chatbot AI được quan tâm nhất hiện nay, do lo ngại phần mềm bên thứ ba. Lo lắng ngày một tăng khi OpenAI – nhà phát triển ChatGPT – tiết lộ phải tạm dừng công cụ vào ngày 20/3 để sửa lỗi cho phép vài người dùng xem được thông tin của người khác. Các thông tin bao gồm họ, tên, địa chỉ email, địa chỉ thanh toán, bốn chữ số cuối của thẻ tín dụng, ngày hết hạn thẻ tín dụng.
Tuần trước, nhà chức trách Italy ban hành lệnh cấm tạm thời ChatGPT trên cả nước với lý do bảo mật sau khi OpenAI tiết lộ lỗ hổng.
Mark McCreary, đồng chủ tịch bảo mật và quyền riêng tư tại hãng luật Fox Rothschild, cho rằng không nên xem nhẹ những lo ngại đối với một thứ như ChatGPT. Ông ví nó với “hộp đen”.
Nhờ ChatGPT, người dùng có thể viết luận, sáng tác truyện, vẽ tranh, viết lời bài hát chỉ bằng cách đặt câu lệnh (prompt). Google và Microsoft cũng ra mắt các công cụ AI khác dựa vào mô hình ngôn ngữ lớn được đào tạo từ lượng lớn dữ liệu trực tuyến.
Khi người dùng nhập thông tin vào những công cụ này, họ không biết được sau đó nó sẽ được dùng như thế nào, theo McCreary. Điều này đặc biệt đáng lo với doanh nghiệp. Khi ngày càng nhiều nhân viên dùng công cụ để viết email công việc hay họp hành, khả năng họ bị lộ bí mật thương mại cũng tăng theo.
Steve Mills, Giám đốc đạo đức AI tại tập đoàn tư vấn Boston, đồng tình. Theo ông, lo ngại lớn nhất hiện nay là hầu hết công ty vô tình tiết lộ thông tin nhạy cảm cho công cụ AI. Nếu dữ liệu mọi người nhập vào được dùng để tiếp tục đào tạo AI, họ sẽ mất quyền kiểm soát dữ liệu đó vào tay người khác.
Theo chính sách bảo mật của OpenAI, công ty thu thập tất cả thông tin cá nhân từ người dùng dịch vụ. Họ có thể sử dụng nó để cải thiện hoặc phân tích dịch vụ, tiến hành nghiên cứu, liên lạc với người dùng và phát triển chương trình, dịch vụ mới…
Chính sách nhắc đến việc có thể cung cấp thông tin cá nhân cho bên thứ ba mà không cần thông báo cho người dùng, trừ khi luật pháp yêu cầu. Ngoài ra, OpenAI còn có tài liệu Điều khoản dịch vụ riêng, trong đó đặt hầu hết trách nhiệm lên vai người dùng để thực hiện các biện pháp phù hợp khi tương tác với công cụ.
OpenAI cũng đăng bài blog mới nói về cách tiếp cận với an toàn AI của mình. “Chúng tôi không dùng dữ liệu để bán dịch vụ, quảng cáo hay lập hồ sơ mọi người – chúng tôi dùng ứng dụng để các mô hình hữu ích hơn. Chẳng hạn, ChatGPT cải thiện nhờ được đào tạo dựa trên hội thoại với mọi người”.
Chính sách bảo mật của Google – công ty đang phát triển công cụ Bard – có nét tương đồng nhưng quan tâm hơn đến quyền riêng tư. Google sẽ lựa chọn một số hội thoại và dùng công cụ tự động để loại bỏ thông tin có thể dùng để xác định cá nhân. Những đoạn hội thoại mẫu được chuyên gia đào tạo xem xét và lưu trữ tối đa 3 năm, độc lập với tài khoản Google. “Ông lớn” cảnh báo không đưa thông tin cá nhân của người dùng hoặc người khác vào trò chuyện với Bard.
Google khẳng định không dùng hội thoại với Bard cho mục đích quảng cáo. Người dùng được lựa chọn dùng Bard mà không lưu lại hội thoại vào tài khoản Google. Họ cũng được xem lại prompt hoặc xóa đoạn trò chuyện qua một liên kết.
Theo Mills, chúng ta vẫn đang trong quá trình tìm hiểu chính xác hoạt động của chatbot AI mới. Đôi khi, người dùng và nhà phát triển chỉ nhận ra những rủi ro bảo mật với công nghệ mới khi đã quá muộn. Ông dẫn ví dụ, tính năng tự động điền biểu mẫu gây ra một số hậu quả không lường trước như làm lộ mã số an sinh xã hội.
“Quan điểm của tôi là không nên đưa bất kỳ thứ gì mà bạn không muốn chia sẻ với người khác vào những công cụ này”, Mills chia sẻ.
Nguồn: CNN
Theo Du Lam (VietNamNet)
- Hàng loạt doanh nghiệp từng hợp tác lên tiếng về dự án Nuôi em: Cùng khẳng định một điều bất ngờ (10/12/25 23:26)
- Chân dung nghi phạm vừa bị bắt vì vụ nam sinh tử vong trong quán bida, là bạn hay chơi với nạn nhân (10/12/25 23:14)
- Lễ an táng tài tử Thương Tín: Con gái 12 tuổi thất thần tiễn biệt, gia đình giữ sự riêng tư tuyệt đối (10/12/25 22:43)
- Thái Lan chính thức đưa tranh chấp biên giới với Campuchia lên Liên Hợp Quốc (10/12/25 22:24)
- Chính thức miễn giấy phép xây dựng nhà ở nông thôn dưới 7 tầng (10/12/25 22:00)
- Thủ tướng phê chuẩn ông Vũ Đại Thắng làm Chủ tịch UBND thành phố Hà Nội (10/12/25 21:55)
- Vụ bé gái bị bố xích chân trong phòng: Người đàn ông thú nhận sự thật gây sốc (10/12/25 21:43)
- Hạ gục Singapore 2-0, ĐT nữ Thái Lan giành vé bán kết sớm tại SEA Games 33 (10/12/25 21:33)
- Thứ trưởng Bộ Công an gửi thư khen đặc biệt: Công an Lạng Sơn lập công lớn, phá nhanh vụ án Đoàn Văn Sáng (10/12/25 21:19)
- Trông giữ xe điện tại HH Linh Đàm: Tạm thời duy trì dịch vụ, chờ phương án chính thức từ cơ quan chức năng (10/12/25 21:06)