-
Xe khách chở 25 người lao xuống vực sâu 100m, nhiều người thương vong -
Hủy hôn trước ngày cưới sau khi đọc tin nhắn lạ trong điện thoại bạn gái -
Nam sinh Phú Thọ giành vé vào chung kết năm Olympia sau cuộc thi quý nghẹt thở -
Suýt mất mạng ở tuổi 25: Bài học đắt giá từ lối sống "vắt kiệt" bản thân -
Vị Vua Hùng sống thọ nhất, tuổi thọ 420 năm, là cái tên quen thuộc 100% người Việt Nam đều biết -
Cụ ông 78 tuổi bán vé số dạo được phát hiện tử vong trong phòng trọ, trước đó có dấu hiệu bất thường -
Thủ khoa Tin học Hà Tĩnh đạt điểm tuyệt đối: "Em không nghĩ mình được 20/20" -
Tin vui cho người lao động: Sau 30/4–1/5 vẫn còn 2 kỳ nghỉ dài trong năm 2026 -
Hiểm họa từ viên sủi Vitamin C: Nữ nhân viên văn phòng cấp cứu vì "mỏ sỏi" trong thận -
Màn trả thù thâm thúy của người vợ bị chồng giám đốc xem thường
Công nghệ
05/04/2023 18:30Google hé lộ ‘át chủ bài’ huấn luyện các AI đình đám
Theo đó, gã khổng lồ tìm kiếm đã tự thiết kế chip tuỳ chỉnh của riêng mình có tên Tensor Processing Unit (TPU) và sử dụng loại chip này cho hơn 90% khối lượng công việc huấn luyện AI, quá trình cung cấp dữ liệu thông qua thuật toán để các mô hình có thể trả lời hiệu quả những truy vấn của người dùng bằng văn bản hoặc hình ảnh.
Dựa trên báo cáo khoa học của Google xuất bản, siêu máy tính của công ty này được kết nối từ hơn 4.000 con chip lại với nhau bằng các công tắc quang học do chính hãng phát triển.
Các mô hình ngôn ngữ lớn hỗ trợ công nghệ trên Bard (Google) hay ChatGPT (OpenAI) đòi hỏi sức mạnh điện toán khổng lồ không thể lưu trữ trên 1 con chip đơn lẻ. Do đó, các công ty chế tạo siêu máy tính tìm cách chia mô hình thành hàng nghìn con chip, kết nối chúng lại để chạy trong nhiều tuần hoặc hơn cho quá trình huấn luyện.
PaLM, mô hình ngôn ngữ công khai lớn nhất đến nay của Google, được đào tạo bằng cách chia thành 2 phần chạy trên siêu máy tính 4.000 chip trong vòng 50 ngày liên tục.
Google cho biết siêu máy tính của hãng khiến việc cấu hình lại kết nối giữa các chip trở nên dễ dàng, nhanh chóng hơn, từ đó tránh được các sự cố và tăng được hiệu suất chung.
“Công tắc chuyển mạch giúp dễ dàng định tuyến xung quanh các thành phần bị lỗi”, Norm Jouppi và David Patterson, 2 chuyên gia của công ty viết trong bài đăng trên blog. “Tính linh hoạt thậm chí cho phép chúng tôi thay đổi cấu trúc liên kết của các siêu máy tính nhằm tăng tốc hiệu suất mô hình máy học”.
Mặc dù đến bây giờ Google mới công khai cấu hình chi tiết siêu máy tính, nhưng cỗ máy này đã được sử dụng trong công ty từ năm 2020 tại một trung tâm dữ liệu ở hạt Mayes, Oklahoma. Hãng cũng chia sẻ, startup Midjourney đã sử dụng hệ thống này để đào tạo mô hình của mình.
Theo báo cáo, hệ thống chip của Google khi so sánh với những thiết bị có kích thước tương đương, nhanh hơn hơn 1,7 lần và tiết kiệm năng lượng hơn 1,9 lần so với chip A100 của Nvidia.
Tuy nhiên, Google từ chối so sánh hiệu năng với con chip H100 hàng đầu của Nvidia với lý do H100 ra mắt sau và được sản xuất bằng công nghệ mới hơn.
Theo Thế Vinh (VietNamNet)
- Tình hình sức khỏe và động cơ gây án của nghi phạm nổ súng tại tiệc có Tổng thống Trump (23 phút trước)
- Xác minh xe sang biển trắng bật còi hú, đèn xoay phóng loạn trên cao tốc Bắc - Nam (45 phút trước)
- Thái Nguyên: Tìm thấy bé trai 3 tuổi mất tích 14 giờ, ngủ xuyên đêm bên khe suối (1 giờ trước)
- Lionel Messi và lời từ chối "hợp đồng thế kỷ" 1,5 tỷ Euro: Khi tiền bạc không phải là tất cả (1 giờ trước)
- Bắt gọn đối tượng gây án đặc biệt nguy hiểm tại Quảng Ninh sau 16 giờ truy kích (1 giờ trước)
- Nữ phóng viên ngồi cạnh ông Trump gây ấn tượng vì quá bình tĩnh khi vụ nổ súng xảy ra (2 giờ trước)
- Quảng Ngãi: Cây đa di sản bất ngờ gãy nhánh, hàng chục người đi lễ Giỗ Tổ thoát nạn hy hữu (2 giờ trước)
- Nữ TikToker triệu view buộc phải ẩn kênh vì phát ngôn gây tranh cãi về nhóm nhạc Hàn Quốc (3 giờ trước)
- Nha Trang: Xác minh vụ nhân viên shop ném giày vào mặt du khách nước ngoài (3 giờ trước)
- Lai Châu: Cháy nhà trong đêm khiến 3 trẻ nhỏ tử vong thương tâm (4 giờ trước)