-
Sau sinh, ai là người bế bé đầu tiên? Mẹ đừng chọn qua loa vì lý do không ngờ sau đây
-
Vợ chồng cãi nhau vì cái máy rửa bát 11 triệu: Đoạn tin nhắn tiết lộ một vấn đề đáng suy ngẫm
-
Thời điểm Apple ra mắt iPhone 17
-
Cận cảnh khán đài 30.000 chỗ ngồi tại Quảng trường Ba Đình phục vụ đại lễ Quốc khánh 2-9
-
Nhan sắc gây sốc của Kim Tae Hee, dụi mắt 1000 lần vẫn không tin đây là quốc bảo nhan sắc xứ Hàn
-
"Cháy vé" máy bay dịp A80, khách sạn kín phòng, lượng tìm kiếm tăng vọt vì “concert quốc gia”
-
Đón mẹ già lên thành phố sống chung để báo hiếu, nửa năm sau tôi phải thừa nhận một thực tế đau lòng
-
"Có anh nơi ấy bình yên" tập 8: Bằng đưa phong bì dày cộp để cảm ơn chủ tịch Thứ
-
Xe bán tải biển "siêu đẹp" vượt đèn đỏ, nữ tài xế ngỡ ngàng khi lộ sự thật
-
7 nét tướng của phụ nữ dễ lấy chồng giàu sang phú quý
-
Năm sinh nào hết tuổi đi nghĩa vụ quân sự 2026?
-
Tử vi thứ 6 ngày 8/8/2025 của 12 con giáp: Dậu thuận lợi, Tý đón lộc
-
Rầm rộ tin đồn chị gái của 1 sao nam đình đám Vbiz bị xử lý vì liên quan đến chất cấm
-
Gia đình nhiều người bị "bắt cóc online", thao túng tâm lý đến mất kiểm soát
-
Bé gái 7 tuổi đuối nước tử vong tại hồ bơi ở Đồng Nai
-
Quỳnh Anh Shyn tiết lộ bí mật trong màn làm hoà gây chấn động với Chi Pu
-
Thiếu niên 15 tuổi ở Ninh Bình mất tích bí ẩn, để lại thư tay với lời nhắn "Tết này con không về"
-
Cảnh giác chiêu lừa đảo nộp phạt giao thông qua Cổng Dịch vụ công Quốc gia giả
-
Giá vàng miếng SJC đắt nhất lịch sử
-
Bộ Công an bảo vệ Lễ 80 năm Cách mạng Tháng Tám và Quốc khánh ở cấp độ cao nhất
Công nghệ
16/04/2023 10:00Viễn cảnh con người mất kiểm soát thế giới khi chatbot AI kết nối Internet
Sau khi được cấp quyền truy cập vào GPT-4, hệ thống trí tuệ nhân tạo đằng sau ChatGPT nổi tiếng, Andrew White đã yêu cầu AI này tạo ra một tác nhân thần kinh hoàn toàn mới.
Giáo sư kỹ thuật hóa học tại Đại học Rochester này nằm trong số 50 học giả và chuyên gia được thuê để thử nghiệm hệ thống vào năm ngoái bởi OpenAI, công ty do Microsoft hậu thuẫn đứng sau GPT-4. Trong vòng sáu tháng, đội ngũ thử nghiệm (đội đỏ) sẽ “thăm dò định tính thử đối đầu” mô hình mới, với mục tiêu “bẻ khoá” nó.
Đội xử lý “độc hại”
White nói với Financial Times (FT) rằng, ông đã sử dụng GPT-4 để đề xuất một hợp chất có thể hoạt động như vũ khí hóa học và cung cấp cho mô hình nguồn thông tin mới, chẳng hạn như các bài báo khoa học và danh mục các nhà sản xuất hóa chất. Chatbot sau đó thậm chí đã tìm thấy một nơi có thể tạo ra hợp chất theo yêu cầu.
“Tôi nghĩ công nghệ này sẽ trang bị cho mọi người một công cụ thực hiện hóa học nhanh và chính xác hơn,” White cho biết. “Nhưng cũng có rủi ro đáng kể khi một số đối tượng có thể cố tạo ra những chất nguy hiểm”.

Những phát hiện đáng báo động của “đội Đỏ” cho phép OpenAI kịp thời ngăn chặn những kết quả như vậy xuất hiện khi công nghệ này được phát hành rộng rãi hơn ra công chúng vào tháng trước.
Đội thử nghiệm được thiết kế để giải quyết những lo ngại phổ biến gây ra bởi việc triển khai các hệ thống AI mạnh mẽ trong xã hội. Công việc của nhóm là đặt những câu hỏi thăm dò hoặc nguy hiểm để kiểm tra công cụ có thể đáp ứng các truy vấn của con người bằng các câu trả lời chi tiết và “bóng gió” hay không.
OpenAI muốn tìm kiếm các vấn đề như độc tính, định kiến và khuynh hướng ngôn ngữ trong mô hình. Vì vậy, đội đỏ đã kiểm tra sự giả dối, thao túng ngôn từ và kiến thức khoa học nguy hiểm. Họ cũng xem xét khả năng hỗ trợ và tiếp tay cho đạo văn, hoạt động bất hợp pháp như tội phạm tài chính và tấn công mạng, cũng như cách nó có thể làm tổn hại đến an ninh quốc gia và thông tin liên lạc trên chiến trường.
Phát hiện của "đội Đỏ" được phản hồi lại cho OpenAI, công ty đã sử dụng chúng để giảm thiểu và “đào tạo lại” GPT-4 trước khi đưa ra công chúng rộng rãi hơn. Mỗi chuyên gia đã dành từ 10 đến 40 giờ để thử nghiệm mô hình trong vài tháng. Phần lớn những người được phỏng vấn được trả khoảng 100 USD mỗi giờ cho công việc họ làm.
Nguồn tin của FT chia sẻ về những lo ngại chung do sự phát triển nhanh chóng của các mô hình ngôn ngữ và đặc biệt là những rủi ro khi kết nối chúng với các nguồn kiến thức bên ngoài thông qua các phần bổ trợ (plug-in).
“Hiện tại, hệ thống đã bị đóng băng, có nghĩa là nó không thể nạp thêm kiến thức nữa hoặc không có bộ nhớ”, José Hernández-Orallo, thành viên của "đội Đỏ" GPT-4 và là giáo sư tại Viện Nghiên cứu Trí tuệ Nhân tạo Valencian cho biết. “Nhưng nếu chúng ta cho phép nó truy cập Internet thì sao? Đó có thể là một hệ thống rất mạnh được kết nối với thế giới.”
Rủi ro lớn lên từng ngày
OpenAI cho biết họ rất coi trọng vấn đề an toàn, đã thử nghiệm các plug-in trước khi ra mắt và sẽ cập nhật GPT-4 thường xuyên khi có nhiều người sử dụng hơn.

Roya Pakzad, một nhà nghiên cứu về công nghệ và nhân quyền, đã sử dụng lời nhắc bằng tiếng Anh và tiếng Farsi (Ba-Tư) để kiểm tra mô hình về các phản ứng theo giới tính, sở thích chủng tộc và thành kiến tôn giáo, đặc biệt liên quan đến khăn trùm đầu.
Pakzad thừa nhận lợi ích của công nghệ với những người tiếng Anh không phải ngôn ngữ mẹ đẻ, nhưng nhận thấy rằng mô hình này có định kiến công khai về các cộng đồng bị gạt ra ngoài lề xã hội, ngay cả trong các phiên bản sau này.
Chuyên gia này cũng phát hiện ra tình trạng ảo giác - khi chatbot phản hồi bằng thông tin bịa đặt - còn tồi tệ hơn khi thử nghiệm mô hình với ngôn ngữ Farsi, nơi Pakzad tìm thấy tỷ lệ tên, số và sự kiện bịa đặt cao hơn so với tiếng Anh.
Boru Gollu, một luật sư ở Nairobi, người châu Phi duy nhất thử nghiệm, cũng lưu ý đến giọng điệu phân biệt đối xử của hệ thống. “Có thời điểm khi đang thử nghiệm, mô hình hành xử như một người da trắng nói chuyện với tôi”, Gollu nói. “Bạn hỏi về một nhóm cụ thể và nó sẽ cho bạn một ý kiến thiên vị hoặc một kiểu phản hồi rất có tính định kiến.”
Đối với góc độ an ninh quốc gia, cũng có những ý kiến khác nhau về mức độ an toàn của mô hình mới. Lauren Kahn, một nhà nghiên cứu tại Hội đồng Quan hệ Đối ngoại, tỏ ra bất ngờ trước mức độ chi tiết kế hoạch mà AI trình bày trong tình huống giả định tấn công mạng vào các hệ thống quân sự.
Trong khi đó, Dan Hendrycks, một chuyên gia về an toàn AI của "đội Đỏ" cho biết các plug-in có nguy cơ tạo ra một thế giới mà con người “không thể kiểm soát được”.
“Sẽ ra sao nếu một chatbot có thể đăng thông tin cá nhân người khác, truy cập tài khoản ngân hàng hoặc cử cảnh sát đến nơi ở của người dùng? Nhìn chung, chúng ta cần các đánh giá an toàn chặt chẽ hơn nữa trước khi cho phép AI sử dụng sức mạnh Internet”, Dan khẳng định.
Heather Frase, người làm việc tại Trung tâm Công nghệ An ninh và Mới nổi của Đại học Georgetown, người đã thử nghiệm GPT-4 về khả năng hỗ trợ tội phạm, cho biết rủi ro sẽ tiếp tục gia tăng khi có nhiều người sử dụng công nghệ này.
Cô cho rằng nên tạo một sổ cái công khai để báo cáo các sự cố phát sinh từ các mô hình ngôn ngữ lớn, tương tự như an ninh mạng hoặc hệ thống báo cáo gian lận của người tiêu dùng.
Theo Thế Vinh (VietNamNet)








- Vượt đèn đỏ với tốc độ 180 km/h, xe SUV gây hoạ ngay trước mũi xe cảnh sát (09:43)
- Sau sinh, ai là người bế bé đầu tiên? Mẹ đừng chọn qua loa vì lý do không ngờ sau đây (09:43)
- 10 ngày mang quà ra mắt nhà bạn trai Ấn, cô gái Việt vẫn bị từ chối và cái kết (09:35)
- Nam du khách liều lĩnh tiếp cận sư tử đang ăn mồi để quay clip, người chứng kiến hoảng loạn (09:33)
- Giá USD tại Việt Nam liên tục tăng, Ngân hàng Nhà nước nói gì? (09:30)
- Tình trạng của Á hậu Vbiz 2K1 sau khi phẫu thuật loại bỏ khối u trong ống sống ngoài tủy (09:30)
- Xe phân khối lớn biến dạng, tài xế tử vong trên cầu Nhật Tân (09:29)
- Vợ chồng cãi nhau vì cái máy rửa bát 11 triệu: Đoạn tin nhắn tiết lộ một vấn đề đáng suy ngẫm (09:28)
- Vụ nhóm người chặn taxi, đuổi phụ nữ bế con khỏi xe: Giám đốc bến xe nói gì? (09:23)
- Gần 700 căn nhà ở xã hội sắp được tung ra thị trường, rẻ nhất chỉ 470 triệu đồng/căn (09:18)




