Azure Maia 100 là chip mới của Microsoft dùng cho các hệ thống đào tạo AI, được kỳ vọng có thể cạnh tranh với sản phẩm từ Nvidia.
Ra mắt tại hội nghị dành cho nhà phát triển Ignite ở Seattle ngày 15/11, Azure Maia 100 được Microsoft giới thiệu là "một trong những mẫu chip tiên tiến nhất trên tiến trình 5 nanomet" với 105 tỷ bóng bán dẫn.
Theo Rani Borkar, Phó Chủ tịch Microsoft, công ty đang thử nghiệm cách Maia 100 đáp ứng khả năng huấn luyện chatbot AI trên công cụ tìm kiếm Copilot - tên mới của Bing Chat, trợ lý mã hóa GitHub Copilot và cả GPT-3.5-Turbo, một mô hình ngôn ngữ lớn từ OpenAI.
Microsoft và OpenAI hiện cố gắng thu hút doanh nghiệp sử dụng các mô hình AI tạo sinh. Tháng trước, CEO Microsoft Satya Nadella cho biết lĩnh vực này đang tăng trưởng mạnh mẽ. Riêng GitHub Copilot đã tăng 40% trong quý III/2023 so với quý trước đó
"Chúng tôi có hơn một triệu người dùng Copilot trả phí ở hơn 37.000 tổ chức, doanh nghiệp. Con số này đang được mở rộng đáng kể, đặc biệt bên ngoài nước Mỹ", Nadella nói.
Tại sự kiện, Microsoft cũng công bố Cobalt 100, hướng đến hệ thống thực hiện tác vụ tính toán thông thường, có thể cạnh tranh với bộ xử lý Intel.
Chip mới dựa trên kiến trúc ARM, 64-bit, chứa 128 lõi điện toán, hoạt động hiệu suất cao cùng khả năng giảm 40% mức tiêu thụ điện năng so với các chip ARM khác mà các hệ thống đám mây Azure đang sử dụng.
Cobalt hiện đứng sau việc xử lý các hệ thống phần mềm đám mây gồm Microsoft Teams và Azure SQL.
Microsoft là nhà cung cấp dịch vụ đám mây cuối cùng trong nhóm Big Three, cùng với Google và Amazon, tự sản xuất chip xử lý. Google tiên phong vào năm 2016 với mẫu Tensor Processing Unit (TPU). Amazon cũng theo sau với loạt chip gồm Graviton, Trainium và Inferentia.
Dù tạo chip mới, Microsoft cho biết vẫn hợp tác với Nvidia và AMD trong việc trang bị chip cho Azure. Trong đó, công ty dự kiến bổ sung GPU H200 mới nhất của Nvidia và MI300 của AMD cho các hệ thống của mình năm tới.
Đầu tuần này, Nvidia ra mắt mẫu chip H200 - chip AI mạnh nhất thế giới. Theo công ty, thử nghiệm với mô hình ngôn ngữ lớn Llama 2 của Meta với 70 tỷ tham số, H200 mang đến hiệu suất gần gấp đôi so với H100, chip mạnh nhất trước đó.
Amazon Web Services, Google Cloud, Microsoft Azure và Oracle là những nền tảng điện toán đám mây đầu tiên trang bị H200 khi sản phẩm ra thị trường năm sau.
Ngoài chip mới, Microsoft cũng công bố hệ thống làm mát bằng chất lỏng tùy chỉnh cho chip có tên Sidekicks. Bên cạnh khả năng giảm nhiệt độ, giá đỡ này cũng tối ưu hóa không gian nơi đặt GPU.
Theo VnExpress