"Blackwell nhanh hơn Hopper, nhưng quan trọng là nó có khả năng tính toán trong mạng, yếu tố giúp tốc độ xử lý AI nhanh hơn nữa cũng như thực hiện những công việc khó khăn trước đây, như biến lời nói thành video 3D", 🌜CEO Nvidia Jensen Huang nói tại sự kiện GPU Technology Conference - GTC 2024 của công ty ở San Jose, California rạng sáng 19/3 (giờ Hà Nội).
Blackwell có 208 tỷ bóng bán dẫn, cao gấp đôi so với 80 tỷ trên chip H100, có năng lực xử lý AI đạt 20 petaflop (20 triệu tỷ phép tính mỗi giây), gấp năm lần mức 4 petaflop của H100. Theo Nvidia, trên thực tế, Blackwell xử lý tác vụ nhan☂h gấp 7-30 lần H100, đồng thời giảm 25 lần chi phí cũng như mức 🧜tiêu thụ năng lượng.
CEO Nvidia lấy ví dụ, trước đây việc huấn luyện một mô hình AI 1.800 tham số cần đến 8.000 GPU và 15 megawatt điện. Giờ đây, 2.000 GPU B200 c♎ó thể thực hiện khối lượng công việc tương tự với lượng điện năng chỉ 4 megawatt.
Một trong những cải tiến then chốt là hệ thống Transformer Engine thế hệ hai nhân đ❀ôi khả năng tính toán, băng thông và kích thước mô hình. Khi kết hợp bộ chuyển mạch NVLink, hệ thống có thể hỗ trợ tối đa 576 GPU giao tiếp với nhau, với băng thôngꦏ hai chiều 1,8 Tb/giây.
"Không có vấn đề về bộ nhớ, cũng không có vấn đề về bộ nhớ đệm. Đơn giản Blackwell là chip khổng lồ. Tham vọng của nó là vượt lên giới hạn của vật lý", Huang cho biết. "GPU Blackwell là động cơ thúc đẩy cuộc cách mạng công ng൩hiệp AI mới, sẽ hiện thực hó🍨a lời hứa về AI cho mọi ngành công nghiệp".
Huang chưa công bố giá cho B200. Trước đó, chip H100 có giá 30.000-40.000 USD. Hãng cũng hướng tới khách hàng mua số lượng lớn bằng cách đóng gói nhiều chip vào một thiết kế duy nhất, gọi là GB200 NVL72. Gói chứa 72 chip AI, 36 bộ xử lý trung tâm, 600.000 bộ phận và nặng 1.361 🐎kg. CEO Nvidia cũng tiết lộ Amazon, Googl🍌e, Microsoft và Oracle sẽ dùng GB200 NVL72 cho trung tâm dữ liệu của mình.
Cùng với phần cứng, Nvidia cũng giới thiệu công cụ phần mềm mới, được gọi là Microservice. Bộ công cụ này gཧiúp cải🎃 thiện hiệu quả hệ thống cho nhiều mục đích sử dụng khác nhau, giúp doanh nghiệp dễ dàng kết hợp mô hình AI vào công việc hơn, giống như một hệ điều hành máy tính tốt có thể giúp ứng dụng hoạt động tốt.
Ngoài ra, tại GTC 2024, Nvidia ra mắt nền tảng nghiên cꦅứu dựa trên đám mây, sử dụng AI để nghiên cứu và thử nghiệm 6G. Hệ thốn💝g sẽ bao gồm một ứng dụng mô phỏng các môi trường như tháp di động đơn lẻ hoặc toàn bộ thành phố, cho phép nhà nghiên cứu và tổ chức thử nghiệm mạng 6G theo thời gian thực mà không cần phải lắp đặt trong thực tế. Các đơn vị đầu tiên tham gia có Nokia, Ansys, Samsung, SoftBank và Đại học Boston.
Bảo Lâm (theo Reuters, Business Insider)