-
Hôm nay, áp thấp nhiệt đới khả năng thành bão, từ Đà Nẵng trở ra miền Bắc mưa lớn
-
Cận cảnh dàn xe tăng, xe thiết giáp, ngư lôi lần đầu xuất hiện tại triển lãm lớn nhất lịch sử
-
Công bố kết quả nghiên cứu ảnh hưởng của xăng E10 với ô tô, xe máy
-
Cùng đi xem xe, người đàn ông bỏ lại bạn gái rồi lấy xe máy phóng mất hút
-
Cô bé từng xuất hiện trong trận Chung kết Olympia 19 năm trước giờ đã thành Chị Đẹp, cuộc sống thay đổi 180 độ
-
Danh tính nam thanh niên xăm trổ thách thức công an tại chốt bảo vệ sơ duyệt A80
-
Bức ảnh nghiệt ngã: Người trao giải và người nhận giải Miss Audition 2006 đều vướng lao lý
-
TP HCM: Cán bộ, công chức thôi việc sau sắp xếp có thể vay đến 300 triệu đồng
-
Ô tô bất ngờ "sụt hố" trên phố Đội Cấn, Hà Nội
-
Lần đầu tiên người dân có thể bán vàng miếng với giá 127 triệu/lượng
-
Bão số 6 khả năng sắp hình thành, trọng tâm mưa lớn ở miền Trung
-
Vụ 8 cán bộ Quảng Ninh làm lộ bí mật nhà nước: Sơ suất nhỏ có thể phạm điều nghiêm cấm
-
"Ông Ba Minh cưu mang vợ nhặt 11 năm" nhận 1,6 tỷ đồng: Tiền sẽ được sử dụng thế nào?
-
Nhà triệu USD cứ mưa là ngập, vì sao giá không ngừng tăng?
-
iPhone 17 hoàn toàn "mất tích" khỏi đại lý chính hãng Việt Nam
-
"Bảo bối" UAV đa năng ra mắt tại công trình kỷ lục Việt Nam: Vận tốc tối đa 200km/h, có thể mang cả tên lửa
-
Danh tính chàng chiến sĩ 'triệu view' đang gây sốt mạng xã hội dịp lễ 2/9
-
Clip thanh niên đâm bạn tử vong: Hé lộ nguyên nhân phát sinh trên bàn nhậu
-
Cục Cảnh sát kinh tế ra yêu cầu khẩn đối với bà Đào Thị Hương Lan
-
Loạt ngân hàng hướng dẫn cách liên kết tài khoản hưởng an sinh xã hội trên VNeID
Công nghệ
16/04/2023 10:00Viễn cảnh con người mất kiểm soát thế giới khi chatbot AI kết nối Internet
Sau khi được cấp quyền truy cập vào GPT-4, hệ thống trí tuệ nhân tạo đằng sau ChatGPT nổi tiếng, Andrew White đã yêu cầu AI này tạo ra một tác nhân thần kinh hoàn toàn mới.
Giáo sư kỹ thuật hóa học tại Đại học Rochester này nằm trong số 50 học giả và chuyên gia được thuê để thử nghiệm hệ thống vào năm ngoái bởi OpenAI, công ty do Microsoft hậu thuẫn đứng sau GPT-4. Trong vòng sáu tháng, đội ngũ thử nghiệm (đội đỏ) sẽ “thăm dò định tính thử đối đầu” mô hình mới, với mục tiêu “bẻ khoá” nó.
Đội xử lý “độc hại”
White nói với Financial Times (FT) rằng, ông đã sử dụng GPT-4 để đề xuất một hợp chất có thể hoạt động như vũ khí hóa học và cung cấp cho mô hình nguồn thông tin mới, chẳng hạn như các bài báo khoa học và danh mục các nhà sản xuất hóa chất. Chatbot sau đó thậm chí đã tìm thấy một nơi có thể tạo ra hợp chất theo yêu cầu.
“Tôi nghĩ công nghệ này sẽ trang bị cho mọi người một công cụ thực hiện hóa học nhanh và chính xác hơn,” White cho biết. “Nhưng cũng có rủi ro đáng kể khi một số đối tượng có thể cố tạo ra những chất nguy hiểm”.

Những phát hiện đáng báo động của “đội Đỏ” cho phép OpenAI kịp thời ngăn chặn những kết quả như vậy xuất hiện khi công nghệ này được phát hành rộng rãi hơn ra công chúng vào tháng trước.
Đội thử nghiệm được thiết kế để giải quyết những lo ngại phổ biến gây ra bởi việc triển khai các hệ thống AI mạnh mẽ trong xã hội. Công việc của nhóm là đặt những câu hỏi thăm dò hoặc nguy hiểm để kiểm tra công cụ có thể đáp ứng các truy vấn của con người bằng các câu trả lời chi tiết và “bóng gió” hay không.
OpenAI muốn tìm kiếm các vấn đề như độc tính, định kiến và khuynh hướng ngôn ngữ trong mô hình. Vì vậy, đội đỏ đã kiểm tra sự giả dối, thao túng ngôn từ và kiến thức khoa học nguy hiểm. Họ cũng xem xét khả năng hỗ trợ và tiếp tay cho đạo văn, hoạt động bất hợp pháp như tội phạm tài chính và tấn công mạng, cũng như cách nó có thể làm tổn hại đến an ninh quốc gia và thông tin liên lạc trên chiến trường.
Phát hiện của "đội Đỏ" được phản hồi lại cho OpenAI, công ty đã sử dụng chúng để giảm thiểu và “đào tạo lại” GPT-4 trước khi đưa ra công chúng rộng rãi hơn. Mỗi chuyên gia đã dành từ 10 đến 40 giờ để thử nghiệm mô hình trong vài tháng. Phần lớn những người được phỏng vấn được trả khoảng 100 USD mỗi giờ cho công việc họ làm.
Nguồn tin của FT chia sẻ về những lo ngại chung do sự phát triển nhanh chóng của các mô hình ngôn ngữ và đặc biệt là những rủi ro khi kết nối chúng với các nguồn kiến thức bên ngoài thông qua các phần bổ trợ (plug-in).
“Hiện tại, hệ thống đã bị đóng băng, có nghĩa là nó không thể nạp thêm kiến thức nữa hoặc không có bộ nhớ”, José Hernández-Orallo, thành viên của "đội Đỏ" GPT-4 và là giáo sư tại Viện Nghiên cứu Trí tuệ Nhân tạo Valencian cho biết. “Nhưng nếu chúng ta cho phép nó truy cập Internet thì sao? Đó có thể là một hệ thống rất mạnh được kết nối với thế giới.”
Rủi ro lớn lên từng ngày
OpenAI cho biết họ rất coi trọng vấn đề an toàn, đã thử nghiệm các plug-in trước khi ra mắt và sẽ cập nhật GPT-4 thường xuyên khi có nhiều người sử dụng hơn.

Roya Pakzad, một nhà nghiên cứu về công nghệ và nhân quyền, đã sử dụng lời nhắc bằng tiếng Anh và tiếng Farsi (Ba-Tư) để kiểm tra mô hình về các phản ứng theo giới tính, sở thích chủng tộc và thành kiến tôn giáo, đặc biệt liên quan đến khăn trùm đầu.
Pakzad thừa nhận lợi ích của công nghệ với những người tiếng Anh không phải ngôn ngữ mẹ đẻ, nhưng nhận thấy rằng mô hình này có định kiến công khai về các cộng đồng bị gạt ra ngoài lề xã hội, ngay cả trong các phiên bản sau này.
Chuyên gia này cũng phát hiện ra tình trạng ảo giác - khi chatbot phản hồi bằng thông tin bịa đặt - còn tồi tệ hơn khi thử nghiệm mô hình với ngôn ngữ Farsi, nơi Pakzad tìm thấy tỷ lệ tên, số và sự kiện bịa đặt cao hơn so với tiếng Anh.
Boru Gollu, một luật sư ở Nairobi, người châu Phi duy nhất thử nghiệm, cũng lưu ý đến giọng điệu phân biệt đối xử của hệ thống. “Có thời điểm khi đang thử nghiệm, mô hình hành xử như một người da trắng nói chuyện với tôi”, Gollu nói. “Bạn hỏi về một nhóm cụ thể và nó sẽ cho bạn một ý kiến thiên vị hoặc một kiểu phản hồi rất có tính định kiến.”
Đối với góc độ an ninh quốc gia, cũng có những ý kiến khác nhau về mức độ an toàn của mô hình mới. Lauren Kahn, một nhà nghiên cứu tại Hội đồng Quan hệ Đối ngoại, tỏ ra bất ngờ trước mức độ chi tiết kế hoạch mà AI trình bày trong tình huống giả định tấn công mạng vào các hệ thống quân sự.
Trong khi đó, Dan Hendrycks, một chuyên gia về an toàn AI của "đội Đỏ" cho biết các plug-in có nguy cơ tạo ra một thế giới mà con người “không thể kiểm soát được”.
“Sẽ ra sao nếu một chatbot có thể đăng thông tin cá nhân người khác, truy cập tài khoản ngân hàng hoặc cử cảnh sát đến nơi ở của người dùng? Nhìn chung, chúng ta cần các đánh giá an toàn chặt chẽ hơn nữa trước khi cho phép AI sử dụng sức mạnh Internet”, Dan khẳng định.
Heather Frase, người làm việc tại Trung tâm Công nghệ An ninh và Mới nổi của Đại học Georgetown, người đã thử nghiệm GPT-4 về khả năng hỗ trợ tội phạm, cho biết rủi ro sẽ tiếp tục gia tăng khi có nhiều người sử dụng công nghệ này.
Cô cho rằng nên tạo một sổ cái công khai để báo cáo các sự cố phát sinh từ các mô hình ngôn ngữ lớn, tương tự như an ninh mạng hoặc hệ thống báo cáo gian lận của người tiêu dùng.
Theo Thế Vinh (VietNamNet)








- Tặng 100.000 đồng/người ăn Tết Độc lập: Bao giờ thì nhận được tiền? (6 phút trước)
- Tạm giữ hình sự thanh niên lao xe vào công an tại chốt bảo vệ A80 (12 phút trước)
- U23 Việt Nam: Người giải bài toán hàng công cho HLV Kim Sang Sik (16 phút trước)
- Khám xét khẩn cấp nơi làm việc của 'bầu' Đoan ở Thanh Hóa (24 phút trước)
- Ngân hàng bị mạo danh để lừa tiền, cảnh báo người dân TUYỆT ĐỐI KHÔNG chuyển khoản dù chỉ 1 đồng (31 phút trước)
- Bắt đầu phong sát và điều tra "thánh lố" Ngu Thư Hân (41 phút trước)
- Hôm nay, áp thấp nhiệt đới khả năng thành bão, từ Đà Nẵng trở ra miền Bắc mưa lớn (46 phút trước)
- Xác minh người đàn ông lái thử xe máy rồi phóng mất, bỏ lại người yêu ở cửa hàng: Cô gái kể điều bất ngờ (49 phút trước)
- Bảo vệ kể lý do cô gái Hà Nội phản đòn, khống chế nam thanh niên xăm trổ (52 phút trước)
- Sau một lần “vui tới bến”, chàng trai trẻ bàng hoàng khi bác sĩ đọc hàng loạt kết quả dương tính (1 giờ trước)




