تسلا تراشه D1 Dojo را برای تعلیم هوش مصنوعی معرفی کرد
هوش مصنوعی (AI) یکی از جنبههای جدید تکنولوژی به شمار میرود و طی سالهای گذشته اقتباسهای مختلفی به خود دیده است. تسلا که بهعنوان یک شرکت فعال در حوزه خودروهای الکتریکی و خودران شناخته میشود، همیشه در جنبههای مختلف کسبوکار نگاه ویژهای به هوش مصنوعی داشته و اخیرا به منظور افزایش بار کاری نرمافزارهای مرتبط با AI، از تراشه D1 Dojo برای تعلیم هوش مصنوعی رونمایی کرده است.
در حال حاضر شرکتهای زیادی برای بار کاری هوش مصنوعی از تراشههای ASIC استفاده میکنند؛ از استارتاپهای کوچک گرفته تا شرکتهای عظیمی همچون آمازون، بایدو، اینتل و انویدیا. اما شاید تعداد اندکی از این شرکتها در نهایت موفق شوند روش مناسبی برای هر کاربرد پیادهسازی کنند. به همین خاطر است که تسلا به فکر توسعه تراشه ASIC برای تعلیم هوش مصنوعی افتاده است.
تراشه جدید که با نام D1 شناخته میشود، در واقع بخشی از ابرکامپیوتر Dojo است که برای تعلیم مدلهای هوش مصنوعی در دفتر مرکزی تسلا به کار گرفته شده و بعدا در کاربردهای مختلف مورد استفاده قرار خواهد گرفت. تراشه مذکور با فرایند ساخت ۷ نانومتری TSMC ساخته شده است و بیش از ۵۰ میلیارد ترانزیستور در دل خود جای داده که مساحت Die این تراشه را به ۶۴۵ میلیمتر مربع رساندهاند.
تراشه D1 ادعاهای زیادی در زمینه عملکرد دارد و بر اساس گفتههای تسلا، میتواند تا ۳۶۲ ترافلاپس وظیفه با دقت FP16/CFP8 یا حدود ۲۲٫۵ ترافلاپس وظیفه با دقت FP32 را به انجام برساند. با این اوصاف به نظر میرسد تراشه تسلا برای دادههای نوع FP16 بهینهسازی شده است؛ چرا که اگر سطح عملکرد ادعاشده درست باشد، تسلا حتی قدرتمندترین بازیگر در زمینه قدرت پردازشی کامپیوتر یعنی انویدیا را با این تراشه پشت سر خواهد گذاشت. در حال حاضر پردازنده گرافیکی A100 Ampere انویدیا میتواند ۳۱۲ ترافلاپس وظیفه با دقت FP16 را به انجام برساند.
در مقیاس سیلیکونی، تسلا یک مش متشکل از واحدهای عملکرد (FU) ساخته است که به هم متصل شدهاند تا این تراشه بزرگ را تشکیل بدهند. هر کدام از این واحدهای عملکرد، متشکل از یک پردازنده ۶۴ بیتی به همراه یک ISA سفارشی است و ۱٫۲۵ مگابایت حافظه محلی SRAM دارد. طراحی پردازنده نیز در واقع به صورت پیادهسازی سوپراسکالر (superscalar) انجام شده است. واحدهای عملکرد میتوانند یک ترافلاپس وظیفه BF16 یا CFP8 یا ۶۴ گیگافلاپس پردازش FP32 را به انجام برسانند و پهنای باند آنها در هرکدام از جهتهای مش ۵۱۲ گیگابایت بر ثانیه است. مش به این صورت طراحی شده تا واحدهای عملکرد را در یک سیکل کلاک بپیماید و به همین دلیل، تأخیر کاهش و عملکرد بهبود مییابد.
شما در مورد آینده هوش مصنوعی چه نظری دارید؟ با توجه به فعالیتهای متنوع شرکتهای مختلف و جاهطلبی شرکتهایی همچون تسلا، چه آیندهای برای ادوات هوش مصنوعی متصور هستید؟