دانشمند برجسته OpenAI بهدلیل «کاهش توجه به مسائل ایمنی» استعفا کرد
جان لیک، از محققان کلیدی OpenAI که پس از خروج ایلیا سوتسکور استعفا داد، با انتشار پستی در ایکس اعلام کرد فرهنگ و فرایندهای ایمنی در شرکت مذکور نسبت به محصولات جذاب، در اولویت پایینتری قرار گرفتهاند.
سخنان لیک پس از آن مطرح شد که نشریهی وایرد گزارش داد OpenAI تیم اختصاصی رسیدگی به خطرات بلندمدت هوش مصنوعی را بهطور کامل منحل کرده است. لیک رهبری آن تیم را برعهده داشت و برای حل چالشهای فنی در اجرای پروتکلهای ایمنی هوش مصنوعی OpenAI تلاش میکرد.
ایدهی اولیهی OpenAI این بود که مدلهای خود را بهصورت عمومی منتشر کند و نام شرکت مذکور نیز بر همین اساس انتخاب شد؛ البته بهدلیل ادعای شرکت مبنیبر اینکه دسترسی عموم به چنین مدلهای قدرتمندی میتواند خطرناک و مخرب باشد، اکنون OpenAI فناوریها را بهطور اختصاصی برای خود نگه داشته است.
لیک دربارهی استعفایش گفت: «باید عواقب هوش جامع مصنوعی (AGI) را بسیار جدی بگیریم. ما باید اولویت خود را بر آمادگی کامل برای مقابله با آنها قرار دهیم. فقط در این صورت میتوانیم اطمینان حاصل کنیم AGI به نفع کل بشریت خواهد بود.»
جان شولمن، یکی دیگر از بنیانگذاران OpenAI که در کودتای ناموفق هیئتمدیرهی این شرکت در سال گذشته از سم آلتمن حمایت کرد، مسئولیتهای لیک را برعهده خواهد گرفت. سوتسکور که در کودتای شکستخورده علیه آلتمن نقش کلیدی داشت، روز سهشنبه خروج خود را از OpenAI اعلام کرد.
صحبتهای لیک بر تنش فزاینده در OpenAI تأکید میکند. با تلاش محققان برای توسعهی هوش مصنوعی خودآگاه و در عین حال مدیریت محصولات هوش مصنوعی معمولی ازجمله ChatGPT و DALL-E، کارمندانی مثل لیک نگرانیهایی را در مورد خطرات بالقوهی مدلهای هوش مصنوعی فوق هوشمند مطرح میکنند.
لیک میگوید: «من به این شرکت پیوستم چون باور داشتم OpenAI بهترین مکان در جهان برای انجام تحقیقات هوش مصنوعی است. بااینحال، از مدتها قبل درمورد اولویتهای اصلی شرکت با مدیران اصلی OpenAI اختلاف نظر داشتم تا اینکه سرانجام به نقطهی بحرانی رسیدیم.»
نظرات