هشدار مدیر سابق OpenAI: هیچکس برای هوش مصنوعی انسانگونه آماده نیست
مایلز براندج، مشاور ارشد OpenAI در زمینهی آمادگی هوش جامع مصنوعی (AGI یا همان هوش مصنوعی انسانگونه)، چهارشنبه از این استارتاپ جدا شد و همزمان هشدار مهمی را صادر کرد: هیچکس برای هوش جامع مصنوعی آماده نیست، حتی خود OpenAI.
بر اساس گزارش وبسایت ورج، براندج که ۶ سال برای توسعهی سیستمهای ایمنی هوش مصنوعی OpenAI تلاش کرد، در یادداشتی داخلی نوشت: «نه OpenAI و نه هیچ آزمایشگاه پیشرو دیگری [برای AGI] آماده نیست و جهان هم آمادگیاش را ندارد.» او در ادامه اضافه کرد: «بدیهی است که فکر نمیکنم این موضوع بیانیهای بحثبرانگیز در میان تیم رهبری OpenAI باشد. جالبتر آنکه مسئلهی یادشده، با این موضوع که آیا OpenAI و کل دنیا میتوانند در زمان مناسب به آمادگی برسند یا نه، متفاوت است.»
خداحافظی مایلز براندج، جدیدترین نمونه از جدایی شماری از ارشدترین مدیران تیم ایمنی OpenAI از این استارتاپ معروف است. یان لیک، پژوهشگر برجسته، پس از انتقاد از رویکرد OpenAI در قبال ایمنی محصولات، این استارتاپ را ترک کرد. ایلیا ساتسکیور، همبنیانگذار OpenAI، مدتی پیش، از این استارتاپ جدا شد تا استارتاپ جدیدی را با تمرکز بر توسعهی ایمن هوش جامع مصنوعی بنیانگذاری کند.
منحلشدن تیم «آمادگی برای هوش جامع مصنوعی» OpenAI درحالی اتفاق میافتد که این استارتاپ چند ماه پیش تیم سوپر الاینمنت (Superalignment) را نیز منحل کرد. آن تیم قرار بود در بلندمدت، خطرات مربوطبه هوش مصنوعی را کاهش دهد. ازبینرفتن دو تیم یادشده به وضوح نشان میدهد که برای مدیران فعلی OpenAI، جاهطلبیهای تجاری اهمیت بیشتری نسبتبه مأموریت اولیهی استارتاپشان دارد.
مایلز براندج در بخشی از یادداشت خود گفت یکی از دلایل جداشدنش از OpenAI، افزایش محدودیتها روی آزادی تحقیقاتش بوده است. او روی نیاز به وجود اشخاص مستقل در مذاکرات مربوطبه سیاستگذاری هوش مصنوعی تأکید کرد؛ کسانی که جهتگیری صنعتی نداشته باشند و کاملا مستقل عمل کنند.