رجزخوانی قرمزها؛ تراشه هوش مصنوعی AMD MI300X تا ۳۰ درصد بهتر از Nvidia H100 است
AMD و انویدیا قصد ندارند که در رقابت بین گرافیکهای Instinct MI300X و H100 (Hopper) بازنده باشند، اما AMD در آزمون محاسبات FP16 با استفاده از مدل زبانی بسیار بزرگ vLLM، قدرتمندتر ظاهر شد.
به نقل از تامزهاردور، تیم قرمز تراشهی هوش مصنوعی Instinct MI300X را در اوایل دسامبر (۱۶ آذر) معرفی و ادعا کرده است که تا ۱٫۶ برابر عملکرد سریعتری نسبت به H100 انویدیا دارد.
انویدیا با بیان اینکه AMD برای سنجش H100 در مدل زبانی بزرگ TensorRT، از بهینهسازیهای دقیقی استفاده نکرده است، از عملکرد رقیب خود انتقاد کرد.
TensorRT-LLM مدل یادگیری عمیقی است که توسط انویدیا برای پردازش زبان طبیعی و وظایف مبتنی بر هوش مصنوعی روی پلتفرم TensorRT توسعه یافته تا عملکرد بالایی در پردازشهای گرافیکی را فراهم کند.
AMD نیز پاسخ داد که انویدیا از پردازشهای گزینششدهای استفاده کرده و بهجای بهرهگیری از vLLM که متداولتر است، آنها را با TensorRT-LLM داخلی خود روی H100 بنچمارک کرده است.
تیم قرمز در ادامه بیان کرد که انویدیا از نوع دادهی FP16 در vLLM روی پردازنده AMD استفاده کرده، در حالی که نتایج خود را با DGX-H100 مقایسه کرده که از اجرای TensorRT-LLM با نوع دادهی FP8 بهدست آمده است.
AMD تأکید کرد که در آزمایش خود، vLLM را با دادههای FP16 بهدلیل کاربردهای گستردهاش به کار برده و vLLM از FP8 پشتیبانی نمیکند.
AMD سه بار آزمون عملکرد محاسبات FP16 را در مدل زبانی بزرگ مبتنی بر پلتفرم TensorRT انویدیا و در vLLM انجام داد که در آخرین بار، تأخیر عملکرد بین MI300X در vLLM را در مقابل H100 برای پردازش مدل زبانی بزرگ انویدیا نشان داد.
آزمایش اول ایامدی شامل مقایسهی بین دو تراشه با استفاده از vLLM بود، و در آزمون دوم، عملکرد MI300X در vLLM با عملکرد H100 در TensorRT-LLM مقایسه شد که کاهش تأخیر ۳۰ درصدی را نشان داد.
بنابراین، AMD از همان سناریوی انتخابشده توسط انویدیا برای دومین و سومین آزمایش خود استفاده کرد، که عملکرد بالاتر و تأخیر کمتری را نشان داد. MI300X افزایش عملکرد دو برابری در مقایسه با H100 ارائه کرد.