کارمند سابق OpenAI، این استارتاپ را به «تایتانیک هوش مصنوعی» تشبیه کرد

جمعه ۲۲ تیر ۱۴۰۳ - ۱۹:۵۰
مطالعه 2 دقیقه
لوگو OpenAI در پشت یک فرد با گوشی
یکی از کارمندان سابق OpenAI این استارتاپ را به کشتی تایتانیک تشبیه کرد.
تبلیغات

ویلیام ساندرز، کارمند سابق OpenAI، در مصاحبه‌ای با بیزنس اینسایدر، OpenAI را به «تایتانیک هوش مصنوعی» تشبیه کرد.

ساندرز می‌گوید: «من واقعاً نمی‌خواستم برای تایتانیک هوش مصنوعی کار کنم و به‌همین‌دلیل استعفا دادم. در طول سه سالی که در OpenAI کار می‌کردم، گاهی از خود می‌پرسیدم. آیا مسیری که OpenAI در پیش گرفته بیشتر شبیه به برنامه‌ی آپولو است یا شبیه به تایتانیک؟ آن‌ها در مسیری هستند که دنیا را تغییر دهند، اما وقتی چیزی را منتشر می‌کنند، اولویت‌هایشان بیشتر شبیه به یک شرکت تولیدی است و من فکر می‌کنم که این موضوع، نگران‌کننده‌ترین چیز است.»

سم‌آلتمن مدیرعامل OpenAI، چندین‌بار به‌وضوح درباره‌ی بلندپروازی‌هایش از جمله دستیابی به هوش مصنوعی انسان‌گونه (AGI) و ابرهوش مصنوعی، صحبت کرده است. آلتمن می‌گوید که این دستاوردها لزوماً تغییرات بزرگ را یک‌شبه به‌وجود نخواهند آورد. به‌باور آلتمن، اشتیاق به فناوری‌های جدید، کوتاه‌مدت است و در نتیجه نگرانی‌های کوتاه‌مدت را نیز ایجاد می‌کند.

کارمند سابق OpenAI می‌گوید که با مدیران ارشد این استارتاپ بر سر فرایند تصمیم‌گیری و اولویت‌های اصلی شرکت درمورد مدل‌های نسل بعدی، امنیت، نظارت، آمادگی، ایمنی، مقاومت در برابر حملات و موارد دیگر اختلاف نظر داشت. این امر در نهایت باعث شد که ساندرز از شرکت جدا شود.

پیشرفت‌های هوش مصنوعی عمدتاً در سایه‌ی نگرانی‌های امنیتی و حفظ حریم خصوصی است. ردموندی‌ها اخیرا از ویژگی‌های جدید مبتنی‌بر هوش مصنوعی از جمله Live Captions و جلوه‌های ویندوز استودیو برای نسل جدید کامپیوترهای شخصی ویندوزی با نام کوپایلت پلاس رونمایی کردند. در بین این قابلیت‌ها، ریکال به کابوس حریم خصوصی مایکروسافت و بهشت ​​هکرها شناخته شد.

قابلیت ویندوز ریکال روی کاغذ جالب و مفید به‌نظر می‌رسید؛ اما نگرانی‌های زیادی را در خصوص حفظ حریم خصوصی کاربران ایجاد کرد. تا جایی که مایکروسافت ریکال را به قابلیتی اختیاری در ویندوز تبدیل کرد.

ساندرز می‌گوید تیم سازنده‌ی تایتانیک بیشتر روی غرق نشدن کشتی متمرکز شده بود؛ اما فراموش کرد که قایق‌های نجات کافی برای شرایط اضطراری در کشتی قرار دهد. در نتیجه افراد زیادی به‌دلیل عدم آمادگی و نادیده گرفتن اقدامات مهم ایمنی جان خود را از دست دادند: «امکان توسعه‌ی AGI یا هر فناوری جدیدی با ریسک صفر وجود ندارد. آن‌چه من می‌خواهم ببینم این است که OpenAI تمام اقدامات منطقی ممکن را برای جلوگیری از این خطرات انجام دهد.»

ساندرز حملات سایبری در مقیاس بزرگ و توسعه‌ی سلاح‌های بیولوژیکی را به فاجعه‌ی غرق‌شدن تایتانیک تشبیه می‌کند: «OpenAI باید روی قایق‌های نجات سرمایه‌گذاری بیشتری انجام دهد. به این معنی که توسعه‌ی مدل‌های زبانی بزرگ (LLM) جدید را به‌تعویق بیندازد تا به شرکت‌های تحقیقاتی برای ارزیابی خطرات و آسیب‌های احتمالی فرصت کافی داده شود.»

تبلیغات
داغ‌ترین مطالب روز
تبلیغات

نظرات