Connect with us

Khoa Học - Công Nghệ

AMD ra chip AI đối đầu Nvidia

AMD MI300X là bộ xử lý cho trung tâm dữ liệu dùng để huấn luyện AI, hứa hẹn có thể cạnh tranh với các mẫu chip AI mới nhất từ Nvidia.

Published

on

AMD MI300X là bộ xử lý cho trung tâm dữ liệu dùng để huấn luyện AI, hứa hẹn có thể cạnh tranh với các mẫu chip AI mới nhất từ Nvidia.

MI300X là một sản phẩm thuộc dòng Instinct MI300, được đặc biệt phát triển cho các mô hình AI sinh và công nghệ trong ChatGPT và các chatbot khác. Sản phẩm này đã được ra mắt vào ngày 13/6 và được đánh giá có hiệu năng tương đương với chip H100, một trong những chip mạnh nhất từ Nvidia.

Đặc biệt, MI300X sử dụng kiến trúc CDNA được thiết kế đặc biệt cho các mô hình ngôn ngữ lớn và mô hình AI tiên tiến. “Chip tập trung vào khả năng xử lý đồ họa. GPU giúp tạo ra sức mạnh AI mạnh mẽ”, bà Lisa Su, CEO của AMD, đã chia sẻ thông tin này.

CEO AMD Lisa Su giới thiệu MI300X tại sự kiện ngày 13/6 ở San Francisco

Theo bà Su, MI300X có khả năng sử dụng bộ nhớ lên đến 192 GB trong quá trình xử lý AI, đây là con số cao nhất hiện nay trên thị trường. Khả năng tăng cường bộ nhớ sẽ giúp gia tăng hiệu suất xử lý đồng thời nhiều dữ liệu. Trong khi đó, đối thủ Nvidia H100 chỉ hỗ trợ bộ nhớ 120 GB.

Các mô hình AI tạo sinh hiện nay đòi hỏi sự sử dụng nhiều bộ nhớ. Tại sự kiện, AMD đã trình diễn MI300X hoạt động với mô hình có tên gọi là Falcon với 40 tỷ tham số. Tuy nhiên, mô hình này có khối lượng tham số thấp hơn so với GPT-3 của OpenAI, với 175 tỷ tham số.

Advertisement

“Kích thước dữ liệu ngày càng lớn, các máy tính thực sự cần nhiều GPU để chạy những mô hình ngôn ngữ lớn nhất,” bà Su nói. Bà cũng đề cập đến tính năng bổ sung của chip AMD, cho phép nhà phát triển triển khai hệ thống lớn với khả năng sử dụng GPU nhỏ nhất.

AMD cũng đã phát triển công nghệ mang tên Infinity Architecture, cho phép kết hợp 8 bộ MI300X thành một hệ thống xử lý AI. Nvidia và Google cũng đã phát triển các hệ thống tương tự, kết hợp từ 8 GPU trở lên trong một hộp duy nhất.

Một bộ xử lý AI tối thiểu chứa 8 chip MI300X của AMD

Cho đến nay, một trong những lý do mà nhà phát triển AI ưa thích chip Nvidia là bởi gói phần mềm CUDA đã được phát triển hoàn chỉnh, cho phép họ tiếp cận các tính năng phần cứng cốt lõi của chip. Tuy nhiên, AMD cho biết họ cũng có một sản phẩm tương tự mang tên ROCm.

AMD dự định sẽ tung ra sản phẩm MI300X vào cuối năm nay, nhưng chưa công bố giá cả. Theo CNBC, sản phẩm này sẽ có giá thấp hơn 40.000 USD, đó là mức giá mà Nvidia áp dụng cho chip H100 mạnh nhất của họ. “Mức giá thấp hơn sẽ giúp AMD tăng sự cạnh tranh và làm giảm chi phí xây dựng các hệ thống AI tạo sinh trong tương lai”, trang CNBC nhận xét. “Nếu chip AI của AMD được chấp nhận bởi các nhà phát triển và nhà sản xuất máy chủ, đó có thể là một thị trường lớn chưa được khai thác”.

Theo bà Su, chip AI hiện đang ở giai đoạn đầu của quá trình phát triển. “AI đại diện cho cơ hội tăng trưởng dài hạn lớn nhất và có tính chiến lược đối với công ty”, bà nói. “Chúng tôi dự đoán thị trường chip AI cho trung tâm dữ liệu sẽ tăng từ 30 tỷ USD trong năm nay lên trên 150 tỷ USD vào năm 2027, với mức tăng trưởng hàng năm trên 50%”.

Advertisement
Continue Reading
Advertisement
Click to comment

Leave a Reply

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

Copyright © 2023 - Website is developed and provided by MMG GLOBAL CO.,LTD