-
"Hoàng tử ếch" Việt Nam và chuyện tình cổ tích tại SEA Games 33: Truyền thông Thái Lan hết lời ca ngợi -
Uống nước chanh thay thuốc, chết vì mù quáng -
Hà Nội: Phẫn nộ vụ bé trai 12 tuổi bị bố của bạn tát, đánh đến choáng váng chỉ vì... chiếc xe đạp -
Hành động lúc nguy cấp của tài xế giúp 9 hành khách thoát chết trong vụ sạt lở đèo Thung Khe 3 người thiệt mạng -
Hà Nội: 249 chủ xe máy có biển số sau nhanh chóng nộp phạt nguội theo Nghị định 168 -
Hành trình của "truyền nhân" Ánh Viên: Từ cậu bé mơ mộng đến "nam thần" giành HCV SEA Games 33 -
Quảng Trị: Va chạm trên quốc lộ 1A khiến một người chết, xe đầu kéo rời hiện trường -
Giải mã "Ngựa Ô" Philippines: Việt Nam đứng trước thách thức ở Bán Kết SEA Games 33 -
Xác định danh tính người lái xe ô tô dừng trên vạch mắt võng, chặn lỗi rẽ phải giữa giờ cao điểm -
Hai học sinh tử vong thương tâm tại hồ bơi dù nước chỉ sâu 0,5m và có giáo viên giám sát
Công nghệ
11/10/2025 09:034 "ông lớn" kiểm toán đồng loạt lên tiếng sau sự cố AI nghiêm trọng tại Deloitte
Sau sự cố Deloitte phải phát hành lại báo cáo trị giá 440.000 USD gửi chính phủ Úc do lỗi nghiêm trọng từ trí tuệ nhân tạo (AI), các đối thủ trong nhóm “Big 4” gồm EY, KPMG, PwC cùng Boston Consulting Group (BCG) nhanh chóng lên tiếng khẳng định họ có các quy trình kiểm soát chặt chẽ để tránh sai sót tương tự.
Deloitte hiện đối mặt áp lực lớn sau khi bản báo cáo gốc chứa ba tài liệu tham khảo không có thật và một trích dẫn bị bịa đặt từ phán quyết của Tòa án Liên bang. Phiên bản được sửa đổi đã loại bỏ hơn chục trích dẫn sai và chỉnh lại danh mục tài liệu, dù phần khuyến nghị vẫn giữ nguyên.
Vụ việc đã thu hút sự chú ý quốc tế, trở thành ví dụ điển hình về “ảo giác” (hallucination) - khi AI “bịa” thông tin như thật. Dư luận và giới chuyên gia đang yêu cầu chính phủ của Thủ tướng Anthony Albanese phải bắt buộc các nhà tư vấn tiết lộ khi nào họ sử dụng AI trong các hợp đồng với Nhà nước.
Big 4 đua nhau chứng minh mình “dùng AI có trách nhiệm”
EY khẳng định mọi kết quả do AI tạo ra đều phải được nhân viên đánh giá kỹ trước khi sử dụng. KPMG cho biết họ có “Khung AI tin cậy” cùng “Sổ đăng ký AI” công khai về các công cụ đang dùng trong dịch vụ, kể cả với khách hàng chính phủ.
BCG nhấn mạnh mọi sản phẩm tư vấn đều trải qua “kiểm duyệt lãnh đạo nghiêm ngặt”, trong khi PwC nhấn mạnh họ tuân thủ nguyên tắc “humans in the loop” - con người luôn chịu trách nhiệm cuối cùng cho sản phẩm có AI tham gia.
Trái lại, Deloitte và McKinsey - hai hãng thường tự hào về năng lực AI của mình - từ chối bình luận. Deloitte đã đồng ý hoàn lại một phần chi phí cho Bộ Việc làm và Quan hệ Lao động Úc.

Tại phiên điều trần trước Thượng viện, ông Gordon de Brouwer - người đứng đầu Cơ quan Công vụ Úc - nhấn mạnh: “AI không chịu trách nhiệm cho công việc của bạn. Chính bạn phải chịu trách nhiệm”.
Thượng nghị sĩ Greens Barbara Pocock yêu cầu chính phủ buộc các nhà thầu tư vấn công khai khi sử dụng AI và xác minh mọi nội dung do AI tạo ra. Bà chỉ trích: “Đây không chỉ là sự bất cẩn nhân tạo, mà là hành vi cẩu thả có chủ ý… Công việc của Deloitte còn không đạt nổi tiêu chuẩn của một bài kiểm tra năm nhất đại học... Nếu các nhà thầu được thuê làm việc cho chính phủ lại tiếp tục thuê AI làm thay thì rõ ràng cần phải kiểm tra. Đó không phải là yêu cầu quá đáng”.
Bà Pocock đã trình dự luật cấm các nhà thầu có hành vi phi đạo đức tham gia hợp đồng với chính phủ trong 5 năm và kêu gọi yêu cầu hoàn tiền toàn bộ từ Deloitte.
AI hỗ trợ chứ không thay thế con người
Các hãng tư vấn nhỏ hơn cũng nhanh chóng lên tiếng để trấn an khách hàng. David Gumley, Giám đốc công ty ADAPTOVATE, cho biết họ đang dùng AI để nâng cao hiệu quả, nhưng nó không bao giờ thay thế chuyên môn của con người.
Một chuyên gia tư vấn khác, Lisa Carlin - điều hành công ty một thành viên The Turbochargers - cho rằng các hãng tư vấn cần có chính sách công khai về việc sử dụng AI, giải thích rõ cách công nghệ này được áp dụng trong công việc của họ, nhưng không nhất thiết phải tiết lộ chi tiết về công nghệ được dùng.
“AI giờ đây đã trở thành một phần của các công cụ kinh doanh tiêu chuẩn, giống như Excel, nhưng công ty vẫn phải chịu hoàn toàn trách nhiệm trong việc quản lý rủi ro”, bà Carlin nói. “Tính minh bạch nên thể hiện ở cấp độ chính sách, chứ không phải trong từng báo cáo vì điều khách hàng cần là sự tin tưởng rằng công ty có biện pháp kiểm soát chặt chẽ, chứ không phải dòng cảnh báo ở mỗi trang”.
Carlin tư vấn cho các khách hàng doanh nghiệp về chiến lược và ứng dụng AI. Bà nhấn mạnh mọi chi tiết trong báo cáo cần được kiểm tra cẩn thận trước khi gửi cho khách hàng, dù nội dung đó được tạo ra bằng cách nào.
“Các công ty cần có quy trình kiểm định chất lượng riêng cho AI và đánh giá rủi ro rõ ràng”, bà nói thêm. “Không thể lấy lý do ‘AI tạo ra’ để biện hộ. Tư vấn viên phải chịu trách nhiệm về sản phẩm của mình, giống như với công việc của một nhân viên tập sự”.
- U22 Thái Lan vượt Malaysia, hẹn U22 Việt Nam ở chung kết SEA Games 33 (15/12/25 23:14)
- Tiết lộ cuộc sống của cựu Tổng thống Syria Bashar al-Assad tại Nga (15/12/25 23:04)
- Phân biệt loét miệng thông thường và tổn thương do mụn rộp sinh dục (15/12/25 22:22)
- NÓNG: Khởi tố lãnh đạo Trường Cao đẳng Du lịch Hà Nội vụ "ăn chặn" tiền A80 của sinh viên (15/12/25 21:49)
- Giá vàng trong nước lập đỉnh lịch sử mới (15/12/25 21:42)
- Ô tô bốc cháy bất thường giữa cao điểm chiều, CSGT Hà Nội kịp thời dập lửa (15/12/25 21:32)
- Vụ bằng quốc tế không được Bộ GD&ĐT công nhận: Trường khẳng định không lừa dối người học (15/12/25 21:22)
- Tài xế xe buýt bị bị đánh chấn thương sọ não sau va chạm nhẹ với xe con (15/12/25 21:10)
- Mr. Hunter bị dẫn độ về Việt Nam sau thời gian lẩn trốn ở nước ngoài (15/12/25 21:05)
- Khoảnh khắc lịch sử của hàng không Việt Nam khi chiếc Boeing 787 Dreamliner đáp xuống sân bay Long Thành (15/12/25 20:46)