نیویورک تایمز: اتحاد کارمندان OpenAI بازگشت سم آلتمن را تضمین کرد
با توجه به پایانیافتن جنجالهای پیرامون شرکت هوش مصنوعی OpenAI، جزئیات بیشتری درمورد حقایق پشتپردهی اتفاقات اخیر مرتبط با آن روشن میشود. سازندهی چتبات معروف ChatGPT ماه نوامبر با انتشار پستی وبلاگی از برکناری غیرمنتظرهی سم آلتمن، مدیرعامل این شرکت خبر داد. همین خبر کوتاه برای آغاز گزارشها و شایعات دنبالهدار کافی بود. آلتمن ابتدا موافقت کرد از جایگاهش کنارهگیری کند و پس از چند روز با حمایت گستردهی کارکنان OpenAI بار دیگر مدیرعامل شرکت شد.
گزارش نیویورک تایمز نشان میدهد بازگشت آلتمن به OpenAI، پس از آن صورت گرفت که تعداد زیادی از کارکنانش شرکت از او حمایت کردند. درحالیکه مشکلات شرکت مذکور در ماه نوامبر به اوج خود رسید، درگیریها بین آلتمن و هیئتمدیرهی سابق OpenAI بر سر پر کردن صندلیهای مدیریت آغاز شد.
تصمیم آلتمن برای ارتقای جایگاه یکی از محققان این شرکت بهنام ایلیا سوتسکور بهعنوان دانشمند ارشد ازجمله عواملی بود که به ایجاد بیاعتمادی بین سهامداران در داخل شرکت کمک کرد. درحالیکه OpenAI فعالیتش را سال ۲۰۱۵ برای رقابت جدی با دیپ مایند گوگل آغاز کرد، آلتمن چهار سال بعد یعنی سال ۲۰۱۹ بهعنوان مدیرعامل آن انتخاب شد.
هیئتمدیرهی OpenAI چهارسال پس از انتخاب سم آلتمن بهعنوان مدیرعامل، او را بدون اطلاع قبلی از جایگاهش حذف کردند. واکنش اولیهی آلتمن، پذیرش رأی هیئتمدیره بود اما او با انگیزهی دیگران تلاشهایی برای بازگشت انجام داد.
آلتمن با حمایت مایکروسافت تقریباً مطمئن بود هیئتمدیرهی OpenAI را مجبور خواهد کرد که بار دیگر او را بهعنوان مدیرعامل انتخاب کنند. صدها کارمند این شرکت پساز اخراج آلتمن نامهای به هیئتمدیره ارسال کردند و در آن نوشتند اگر آلتمن بازنگردد، همگی استعفاء خواهند داد.
جزئیات جدیدی درمورد برکناری و بازگشت آلتمن منتشر شده که نشان میدهد FTC به ماهیت سرمایهگذاری مایکروسافت در OpenAI علاقهمند است. غول فناوری مستقر در ردموند در شرکت هوش مصنوعی حق رأی ندارد و ماهیت غیرانتفاعی OpenAI بحثهای مربوط به اکتساب یا گزارشهای سرمایهگذاری را حذف میکند.
بسیاری اعتقاد دارند نرمافزار هوش مصنوعی مبتنیبر مدل زبان بزرگ OpenAI در جهان پیشرو است. مدلهای مثل GPT بهعنوان مدلهای ترانسفورماتور شناخته میشوند؛ زیرا مجموعهای از پارامترهای مشخص یا نامشخص را به خروجی تبدیل میکنند و قدرت محاسباتی هوش مصنوعی به تعداد پارامترهایی بستگی دارد که بر اساس آنها آموزش دیده است.
بهعنوان مثال تسلا از یادگیری ماشینی برای سیستم نرمافزاری رانندگی نیمهخودران AutoPilot استفاده میکند. این شرکت سال گذشته اعلام کرد نرمافزار خودروهایش از شبکههای عصبی با یک میلیارد پارامتر آموزش دیده است.
OpenAI جزئیات مربوط به تعداد پارامترهای جدیدترین مدل زبان بزرگ خود یعنی GPT-4 را بهطور عمومی بهاشترک نگذاشته، اما رسانهها ادعا میکنند این مدل بر اساس ۱٫۸ تریلیون پارامتر در ۱۲۰ لایه آموزش دیده است. اگر این گزارشها واقعیت داشته باشند، GPT-4 از نظر تعداد پارامترهای ورودی در صدر مدلهای هوش مصنوعی جهان قرار میگیرد. گفته میشود مدل زبان عمومی گوگل موسوم به GLaM از ۱٫۲ تریلیون پارامتر در ۳۲ لایه بهره میبرد.
نظرات