-
Video: Bí ẩn clip cô gái ngất xỉu tại chợ sau cuộc chạm trán chóng vánh với hai người lạ -
Lời khai gây sốc về "luật 5%" và những túi tiền tỷ chuyển đến tay cựu Bộ trưởng Y tế Nguyễn Thị Kim Tiến -
Vụ ô tô chở xe máy bốc cháy: Tiếng khóc của người tài xế nghèo trước gánh nặng nợ nần khi nuôi 3 con nhỏ và mẹ già đau ốm -
Tường trình của cô giáo bị tố bắt học sinh liếm đất: Bất ngờ nguồn cơn, do học sinh tự đề xuất làm? -
Đô vật 44 tuổi tử vong ở hội làng Sóc Sơn, Hà Nội: Hàng xóm chia sẻ điều bất ngờ về nạn nhân -
5 Thượng tướng Quân đội thôi giữ chức vụ, nghỉ công tác từ ngày 1/3 -
Nóng: Cựu Bộ trưởng Y tế Nguyễn Thị Kim Tiến bị C03 đề nghị truy tố -
Cái kết đắng cho tài xế xe Porsche chạy 141 km/h trên cao tốc Cam Lâm - Vĩnh Hảo -
Diễn biến mới vụ nữ sinh "ngủ nhầm phòng", mặc đồ gia chủ tại Hà Nội: Hai bên lên tiếng sau clip lan truyền -
Danh tính người phụ nữ bị tàu hoả tông tử vong khi đi bộ trên đường ray, gia đình tiết lộ tình trạng sức khoẻ
Công nghệ
12/02/2023 20:00ChatGPT và AI sẽ hủy diệt Internet như thế nào?
Kẻ dối trá bẩm sinh
ChatGPT là kẻ dối trá bẩm sinh, dù con chatbot này không thực sự có chủ đích làm như vậy. Sản phẩm của nhà Microsoft chỉ đơn giản là không hiểu người dùng đang nói gì, những câu trả lời của nó hoàn toàn là “ăn cắp” từ những nguồn khác nhau, hoặc thậm chí là bịa ra nội dung đó.
Kỹ thuật nền tảng làm nên thành công của ChatGPT là các Mô hình ngôn ngữ lớn (Large Language Model-LLM) và đây là thứ kỹ thuật cho phép chatbot này bịa ra đủ thứ linh tinh. Bởi vậy rõ ràng ChatGPT không thể thay thế con người bởi độ chính xác thông tin là khá thấp.
Lỗi kiểu này có mặt ở mọi chatbot, từ ChatGPT, Bing của Microsoft cho đến Bard của Google. Chúng có thể sáng tạo ra những số liệu sinh học, các công trình nghiên cứu bịa đặt hoặc chỉ đơn giản là trả lời sai những kiến thức cơ bản.
Thậm chí, những chatbot như ChatGPT còn khuyên người dùng đang mắc các chứng bệnh tâm thần về việc tự sát, khuếch đại về sự phân biệt chủng tộc, giới tính...
Nhiều người sẽ nói rằng với AI, chúng có thể tự học hỏi và sửa lỗi, trong khi nhiều người nói rằng Internet đầy rẫy những thứ nhảm nhí như vậy và loài người vẫn sống tốt.
Thế nhưng tờ The Verge nhận định chẳng có điều gì đảm bảo chúng ta có thể giải quyết triệt để lỗi nói láo này của chatbot vì việc bịa đặt thông tin đã là nền tảng kỹ thuật của nó. Các doanh nghiệp cũng không thể suốt ngày đi tìm và sửa lỗi, trong khi sự an toàn của người dùng lại phụ thuộc vào các AI này khi chúng được áp dụng rộng rãi.
Định nghĩa đúng sai
Trong thị trường tìm kiếm thông tin, việc xác định một câu trả lời chính xác duy nhất (One True Answer) thường rất nguy hiểm. Đây là điều khiến Google gặp chỉ trích cách đây 10 năm khi họ ra mắt phần trả lời câu hỏi ngắn trên đầu trang với một số thông tin tìm kiếm của người dùng.
Báo cáo nghiên của của chuyên gia Chirag Shah và Emily M Bender cho thấy AI khiến việc trả lời đúng sai trở nên quá rõ ràng và đơn điệu, loại bỏ khả năng tự tìm kiếm, tổng hợp thông tin và đánh giá nội dung của người dùng.
Điều này cực kỳ nguy hiểm khi AI có thể ảnh hưởng đến kiến thức của người dùng, đặt ra những tiêu chuẩn về thông tin thay vì cung cấp nhiều câu trả lời khác nhau cho người dùng tự quyết định.
Trên thực tế, Google đã cố gắng phát triển theo hướng tư duy “Không có câu trả lời nào thực sự chính xác” (No One Right Answer-NORA) nhưng với áp lực phát triển AI từ đối thủ Microsoft, nhiều khả năng tập đoàn sẽ buộc phải bỏ qua tiêu chuẩn này để tham gia cuộc đua vì lợi nhuận.
Hủy diệt Internet
Những câu trả lời của AI thường được tổng hợp từ Internet, từ các website khác. Thế nhưng lượng tương tác mà các chatbot như ChatGPT có được thì lại chẳng trả về những website này.
Hậu quả là những nguồn thông tin trên Internet, các website mạng sẽ bị hạ lượt tương tác và chết dần vì không có doanh thu.
Phía Microsoft tranh luận rằng họ đã tích hợp nguồn thông tin cho công cụ Bing để người dùng vào xem lại trang nguồn. Thế nhưng AI được kỳ vọng là sẽ đem lại những câu trả lời chính xác trọng điểm, tổng hợp ngắn gọn những nội dung dài dòng. Với ưu thế này, liệu có bao nhiêu người dùng còn muốn quay lại trang nguồn để kiểm chứng?
Lây truyền độc hại
Một yếu tố nữa khiến AI trở nên cực kỳ nguy hiểm là khả năng tự học hỏi không có kiểm soát của mình. Do AI điều chỉnh câu trả lời qua mỗi câu hỏi của người dùng khác nhau nên những phần tử xấu có thể lan truyền các thông tin có hại, khiến các chatbot lầm tưởng rằng chúng là câu trả lời chính xác.
Quá trình này được gọi là “Jaibreaking AI” và chúng có thể được thực hiện mà không cần có chút kiến thức lập trình gì. Tất cả những gì mà kẻ xấu cần là khả năng thuyết phục bằng từ ngữ.
Cách lan truyền này không chỉ có thể đưa những thông tin có hại lên chatbot mà còn có thể yêu cầu chúng đóng giả làm “kẻ xấu” để tham gia một trò chơi nhập vai giả tưởng, qua đó gây ảnh hưởng đến khả năng phán đoán cũng như tự học hỏi của AI.
Đại chiến văn hóa AI
Chatbot là những nền tảng không thực sự hiểu con người đang nói gì, bởi vậy nó cho ra những câu trả lời không thực sự chính xác. Tuy nhiên chính điều này có thể gây nên sự xung đột về văn hóa, tôn giáo hay thậm chí chính trị nếu AI được áp dụng rộng rãi.
Việc người dùng điên tiết vì những câu trả lời mang tính xúc phạm đến văn hóa, giới tính, tôn giáo là điều sẽ thường xuyên diễn ra khi giao tiếp với các chatbot.
Hiện mọi người vẫn còn dung thứ cho ChatGPT bởi nó vẫn còn mới, được kỳ vọng là sẽ cải tiến và tự học dần. Thế nhưng sẽ ra sao nếu ChatGPT cố định câu trả lời có lợi cho nhóm người dùng đa số và làm tổn thương những người thiểu số?
Nhận thức được điều này, sản phẩm Bing của Microsoft đã cố gắng tích hợp nguồn nội dung của câu trả lời, thế nhưng ai sẽ kiểm chứng những nguồn này là chính xác?
Trên thực tế, chính sự “không nhân tính” của AI và các thuật toán là một trong những nguyên nhân khiến Facebook, mạng xã hội lớn nhất thế giới bị chỉ trích. Việc đăng tải, lan truyền những thông tin gây tranh cãi một cách vô thức của thuật toán có thể khiến cả công ty rơi vào bê bối, đồng thời khiến xã hội mất ổn định.
Đây là điều đã từng diễn ra trong cuộc bỏ phiếu Brexit của Anh, cuộc bầu cử Tổng thống Mỹ năm 2016 và 2020.
Đốt tiền
Dù chưa có một thống kê chính xác nhưng tất cả các chuyên gia trong ngành đều thừa nhận AI, chatbot sẽ tốn nhiều tài nguyên, nguồn lực hơn những thuật toán cho công cụ tìm kiếm thông thường.
Đầu tiên, công ty sẽ phải đổ hàng trăm triệu USD cho mỗi phép lặp (Iteration) trong chu trình tính toán của các AI. Đây là lý do mà Microsoft đổ hàng tỷ USD cho OpenAI, cha đẻ của ChatGPT nhưng startup này vẫn đang lỗ nặng dù đã chuyển từ tổ chức phi lợi nhuận sang công ty kinh doanh.
Tờ Fortune cho biết năm 2022, OpenAI đạt doanh thu 30 triệu USD nhưng tiêu tốn đến 416,45 triệu USD chi phí máy chủ và xử lý dữ liệu, hơn 89 triệu USD lương nhân viên và 39 triệu USD cho các chi phí hoạt động khác. Tổng số lỗ là 544,5 triệu USD.
Dù ChatGPT đã ra phiên bản trả phí nhưng chúng không thể bù đắp được chi phí tài nguyên cho mỗi câu trả lời, nhất là khi người dùng hỏi quá dài và phức tạp.
Thêm nữa, việc đốt tiền này khiến Microsoft và Google trở thành những ông lớn trong ngành khi rào cản quá lớn. Chi phí cao nhưng doanh thu đầy rủi ro khiến các người chơi mới với kinh phí hạn hẹp chỉ có thể đứng ngoài.
Bản quyền
Công nghệ AI đang phát triển mạnh nhưng các nhà làm luật cũng dần chú ý tới chúng. Bởi vậy khi chính phủ ban hành các quy định về luật chơi thì AI có lẽ sẽ không hấp dẫn như mọi người tưởng.
Ví dụ nếu Liên minh Châu Âu (EU) quy định các doanh nghiệp phát triển AI phải trả tiền bản quyền cho nội dung mà nó sử dụng thì liệu Microsoft và Google có còn lợi nhuận? Nếu họ chuyển những chi phí này cho người dùng hay doanh nghiệp quảng cáo thì liệu chúng có còn hấp dẫn hơn so với công cụ tìm kiếm truyền thống?
Thế rồi câu chuyện về quyền bảo mật thông tin cá nhân hay vô số những quy định khác mà AI chưa hề được xem xét đến. Tất cả đều là những thách thức to lớn và niềm hứng khởi của các công ty trong mảng này có lẽ còn quá sớm.
*Nguồn: BI, The Verge
Theo Băng Băng (Nhịp sống thị trường)
- Cháy tàu du lịch ở Quảng Ninh: Quyết định kịp thời của thuyền trưởng cứu sống toàn bộ 41 người (27/02/26 23:00)
- "Cha đẻ" dầu gội X-men bất ngờ ngồi ghế Tổng giám đốc PNJ: Chân dung nhà điều hành có profile khủng (27/02/26 22:46)
- Hà Nội: 2 vợ chồng thương vong trên đường đi thăm con gái mới sinh, camera ghi lại diễn biến sự việc (27/02/26 22:28)
- Hà Nội sẽ chuyển toàn bộ taxi chạy xăng, dầu sang xe điện trước 2030 (27/02/26 22:15)
- Kiểm tra 2 kho lạnh ở Thanh Hóa: Phát hiện gần 6 tấn đuôi, chân trâu bò bốc mùi khó chịu (27/02/26 22:01)
- Vụ thanh niên đánh mẹ gãy tay ở Nghệ An: Công an tiếp tục triệu tập những người liên quan (27/02/26 21:38)
- Tàu du lịch chở 41 người cháy ngùn ngụt trên vịnh Hạ Long (27/02/26 21:30)
- Phản ứng trái chiều của CĐM về vụ đô vật 44 tuổi tử vong trong lúc thi đấu ở Sóc Sơn, Hà Nội (27/02/26 21:02)
- Galaxy S26 Ultra ra mắt, Xiaomi 15 Ultra xả kho cực rẻ đón đầu "vua AI Phone" (27/02/26 20:43)
- Sau chuỗi xả hàng, khối ngoại bất ngờ rót trăm tỷ vào loạt cổ phiếu lớn (27/02/26 20:32)