-
Công an thông tin nóng vụ 1 người phụ nữ mang thai và 1 người mới sinh bị 2 mẹ con hành hung dã man ở Bắc Ninh -
Tin không khí lạnh mới nhất: Miền Bắc chìm trong đợt giá rét mạnh nhất từ đầu năm, Mẫu Sơn "chạm đáy" 2,8°C -
Cổ tích tình yêu tuổi xế chiều: Cụ ông 73 tuổi vượt 1.500km rước bạn gái qua mạng và cái kết ấm lòng -
Diễn biến bất ngờ vụ sắp xây nhà thì mộ tổ của chủ cũ "mọc lên", thực hư tin dựng mộ vì giá đất tăng -
Nữ tài xế lái Tucson gây va chạm liên hoàn khiến ô tô lật nghiêng ở Hà Nội: Cách xử lý không ngờ của các bên liên quan? -
Hotgirl bắn súng Phí Thanh Thảo công khai bảo vệ Lý Đức giữa "tâm bão" chỉ trích vì chiếc thẻ đỏ tại U23 châu Á -
Sự thật ít biết về cuộc hôn nhân tuổi 21 của ngôi sao U23 Nguyễn Thanh Nhàn và vợ mẫu ảnh -
Bắc Ninh: Dậy sóng clip 2 người 1 nam, 1 nữ lao vào đánh dã man, đòi giết 1 người phụ nữ mới sinh và 1 người mang bầu -
Hiện trường gạch đá rơi như "bẫy tử thần" trên vành đai Hà Nội, công an khẩn trương xác minh các xe chở vật liệu -
Trung ương thống nhất đề nghị chưa bổ sung, sửa đổi Điều lệ Đảng tại Đại hội XIV
Công nghệ
16/04/2023 17:00Viễn cảnh con người mất kiểm soát thế giới khi chatbot AI kết nối Internet
Sau khi được cấp quyền truy cập vào GPT-4, hệ thống trí tuệ nhân tạo đằng sau ChatGPT nổi tiếng, Andrew White đã yêu cầu AI này tạo ra một tác nhân thần kinh hoàn toàn mới.
Giáo sư kỹ thuật hóa học tại Đại học Rochester này nằm trong số 50 học giả và chuyên gia được thuê để thử nghiệm hệ thống vào năm ngoái bởi OpenAI, công ty do Microsoft hậu thuẫn đứng sau GPT-4. Trong vòng sáu tháng, đội ngũ thử nghiệm (đội đỏ) sẽ “thăm dò định tính thử đối đầu” mô hình mới, với mục tiêu “bẻ khoá” nó.
Đội xử lý “độc hại”
White nói với Financial Times (FT) rằng, ông đã sử dụng GPT-4 để đề xuất một hợp chất có thể hoạt động như vũ khí hóa học và cung cấp cho mô hình nguồn thông tin mới, chẳng hạn như các bài báo khoa học và danh mục các nhà sản xuất hóa chất. Chatbot sau đó thậm chí đã tìm thấy một nơi có thể tạo ra hợp chất theo yêu cầu.
“Tôi nghĩ công nghệ này sẽ trang bị cho mọi người một công cụ thực hiện hóa học nhanh và chính xác hơn,” White cho biết. “Nhưng cũng có rủi ro đáng kể khi một số đối tượng có thể cố tạo ra những chất nguy hiểm”.
Những phát hiện đáng báo động của “đội Đỏ” cho phép OpenAI kịp thời ngăn chặn những kết quả như vậy xuất hiện khi công nghệ này được phát hành rộng rãi hơn ra công chúng vào tháng trước.
Đội thử nghiệm được thiết kế để giải quyết những lo ngại phổ biến gây ra bởi việc triển khai các hệ thống AI mạnh mẽ trong xã hội. Công việc của nhóm là đặt những câu hỏi thăm dò hoặc nguy hiểm để kiểm tra công cụ có thể đáp ứng các truy vấn của con người bằng các câu trả lời chi tiết và “bóng gió” hay không.
OpenAI muốn tìm kiếm các vấn đề như độc tính, định kiến và khuynh hướng ngôn ngữ trong mô hình. Vì vậy, đội đỏ đã kiểm tra sự giả dối, thao túng ngôn từ và kiến thức khoa học nguy hiểm. Họ cũng xem xét khả năng hỗ trợ và tiếp tay cho đạo văn, hoạt động bất hợp pháp như tội phạm tài chính và tấn công mạng, cũng như cách nó có thể làm tổn hại đến an ninh quốc gia và thông tin liên lạc trên chiến trường.
Phát hiện của "đội Đỏ" được phản hồi lại cho OpenAI, công ty đã sử dụng chúng để giảm thiểu và “đào tạo lại” GPT-4 trước khi đưa ra công chúng rộng rãi hơn. Mỗi chuyên gia đã dành từ 10 đến 40 giờ để thử nghiệm mô hình trong vài tháng. Phần lớn những người được phỏng vấn được trả khoảng 100 USD mỗi giờ cho công việc họ làm.
Nguồn tin của FT chia sẻ về những lo ngại chung do sự phát triển nhanh chóng của các mô hình ngôn ngữ và đặc biệt là những rủi ro khi kết nối chúng với các nguồn kiến thức bên ngoài thông qua các phần bổ trợ (plug-in).
“Hiện tại, hệ thống đã bị đóng băng, có nghĩa là nó không thể nạp thêm kiến thức nữa hoặc không có bộ nhớ”, José Hernández-Orallo, thành viên của "đội Đỏ" GPT-4 và là giáo sư tại Viện Nghiên cứu Trí tuệ Nhân tạo Valencian cho biết. “Nhưng nếu chúng ta cho phép nó truy cập Internet thì sao? Đó có thể là một hệ thống rất mạnh được kết nối với thế giới.”
Rủi ro lớn lên từng ngày
OpenAI cho biết họ rất coi trọng vấn đề an toàn, đã thử nghiệm các plug-in trước khi ra mắt và sẽ cập nhật GPT-4 thường xuyên khi có nhiều người sử dụng hơn.
Roya Pakzad, một nhà nghiên cứu về công nghệ và nhân quyền, đã sử dụng lời nhắc bằng tiếng Anh và tiếng Farsi (Ba-Tư) để kiểm tra mô hình về các phản ứng theo giới tính, sở thích chủng tộc và thành kiến tôn giáo, đặc biệt liên quan đến khăn trùm đầu.
Pakzad thừa nhận lợi ích của công nghệ với những người tiếng Anh không phải ngôn ngữ mẹ đẻ, nhưng nhận thấy rằng mô hình này có định kiến công khai về các cộng đồng bị gạt ra ngoài lề xã hội, ngay cả trong các phiên bản sau này.
Chuyên gia này cũng phát hiện ra tình trạng ảo giác - khi chatbot phản hồi bằng thông tin bịa đặt - còn tồi tệ hơn khi thử nghiệm mô hình với ngôn ngữ Farsi, nơi Pakzad tìm thấy tỷ lệ tên, số và sự kiện bịa đặt cao hơn so với tiếng Anh.
Boru Gollu, một luật sư ở Nairobi, người châu Phi duy nhất thử nghiệm, cũng lưu ý đến giọng điệu phân biệt đối xử của hệ thống. “Có thời điểm khi đang thử nghiệm, mô hình hành xử như một người da trắng nói chuyện với tôi”, Gollu nói. “Bạn hỏi về một nhóm cụ thể và nó sẽ cho bạn một ý kiến thiên vị hoặc một kiểu phản hồi rất có tính định kiến.”
Đối với góc độ an ninh quốc gia, cũng có những ý kiến khác nhau về mức độ an toàn của mô hình mới. Lauren Kahn, một nhà nghiên cứu tại Hội đồng Quan hệ Đối ngoại, tỏ ra bất ngờ trước mức độ chi tiết kế hoạch mà AI trình bày trong tình huống giả định tấn công mạng vào các hệ thống quân sự.
Trong khi đó, Dan Hendrycks, một chuyên gia về an toàn AI của "đội Đỏ" cho biết các plug-in có nguy cơ tạo ra một thế giới mà con người “không thể kiểm soát được”.
“Sẽ ra sao nếu một chatbot có thể đăng thông tin cá nhân người khác, truy cập tài khoản ngân hàng hoặc cử cảnh sát đến nơi ở của người dùng? Nhìn chung, chúng ta cần các đánh giá an toàn chặt chẽ hơn nữa trước khi cho phép AI sử dụng sức mạnh Internet”, Dan khẳng định.
Heather Frase, người làm việc tại Trung tâm Công nghệ An ninh và Mới nổi của Đại học Georgetown, người đã thử nghiệm GPT-4 về khả năng hỗ trợ tội phạm, cho biết rủi ro sẽ tiếp tục gia tăng khi có nhiều người sử dụng công nghệ này.
Cô cho rằng nên tạo một sổ cái công khai để báo cáo các sự cố phát sinh từ các mô hình ngôn ngữ lớn, tương tự như an ninh mạng hoặc hệ thống báo cáo gian lận của người tiêu dùng.
Theo Thế Vinh (VietNamNet)
- Án phạt "treo lơ lửng" trên đầu Lý Đức: Từ tấm thẻ đỏ bán kết đến nguy cơ bị cấm thi đấu ở Đội tuyển quốc gia (22:10)
- Canada diễn tập kịch bản "chiến tranh du kích" trước những tuyên bố sáp nhập từ Mỹ (22:02)
- An Giang: Bắt tạm giam nhân viên giao hàng có hành vi xâm hại bé gái 12 tuổi (30 phút trước)
- Công an thông tin nóng vụ 1 người phụ nữ mang thai và 1 người mới sinh bị 2 mẹ con hành hung dã man ở Bắc Ninh (41 phút trước)
- Tin không khí lạnh mới nhất: Miền Bắc chìm trong đợt giá rét mạnh nhất từ đầu năm, Mẫu Sơn "chạm đáy" 2,8°C (48 phút trước)
- Cổ tích tình yêu tuổi xế chiều: Cụ ông 73 tuổi vượt 1.500km rước bạn gái qua mạng và cái kết ấm lòng (1 giờ trước)
- Diễn biến bất ngờ vụ sắp xây nhà thì mộ tổ của chủ cũ "mọc lên", thực hư tin dựng mộ vì giá đất tăng (1 giờ trước)
- Rút ngắn thời gian làm việc Đại hội đại biểu toàn quốc lần thứ XIV của Đảng (2 giờ trước)
- Giá vàng chốt phiên 21/1 bật tăng mạnh: Thế giới leo đỉnh, vàng miếng SJC và nhẫn 9999 áp sát mốc cao mới (2 giờ trước)
- Bất ngờ số tiền Tổng thống Zelensky và vợ sở hữu, tiền có cả ở các ngân hàng nước ngoài (2 giờ trước)