شرکت آنتروپیک / Anthropic

آنتروپیک؛ رقیب جدی OpenAI که می‌خواهد امن‌ترین هوش مصنوعی را بسازد

سه‌شنبه ۳۰ مرداد ۱۴۰۳ - ۱۳:۳۰مطالعه 16 دقیقه
شرکت آنتروپیک، مهم‌ترین رقیب OpenAI، می‌خواهد مدل‌های هوش مصنوعی پیشرفته‌ی Claude را با رعایت ارزش‌های انسانی توسعه دهد.
تبلیغات

تابستان سال ۲۰۲۲، داریو آمودی (Dario Amodei) بنیان‌گذار و مدیرعامل استارتاپ هوش مصنوعی آنتروپیک بر سر دوراهی سختی قرار گرفت.

تیم او به‌تازگی تعلیم چت‌بات جدیدی را به پایان رسانده بود که بسیار قدرتمندتر از محصولات روز هوش مصنوعی عمل می‌کرد و حتی خود اعضای تیم که در دفتر مرکزی آنتروپیک مستقر در سانفرانسیسکو مدت‌ها روی این مدل کار می‌کردند، از محصول خود بسیار متحیر و شگفت‌زده بودند.

آمودی می‌دانست که با انتشار کلود می‌تواند برای آنتروپیک، استارتاپی با ۵۰ کارمند که سال قبل راه‌اندازی شده بود، شهرت و ثروت مطلوبی به دست آورد؛ اما او عمیقاً نگران عواقب احتمالی «رهاکردن» هوش مصنوعی در جهان بود. درواقع او به‌قدری نگران بود که پس از شب‌ها بی‌خوابی، تصمیم گرفت کلود را معرفی و عرضه نکند و به‌جای آن به آزمایش‌های ایمنی چت‌بات ادامه دهد.

دقیقاً سه ماه بعد، آزمایشگاه OpenAI محصول مشابهی را با نام ChatGPT عرضه کرد و به دنبال آن موج دیوانه‌واری از هیاهو و سرمایه‌گذاری روی هوش مصنوعی به راه افتاد و کل صنعت فناوری را متحول کرد.

بسیاری از کارآفرینان سیلیکون‌ولی چنین فرصت ازدست‌رفته‌ای را برای حسرت تمامی عمر خود کافی می‌دانند؛ اما این انتخاب سخت برای آمودی چیزی فراتر از تجارت و کسب‌وکار بود: او می‌خواست از راه‌افتادن مسابقه‌ای جدید برای ساختن سیستم‌های هوش مصنوعی بزرگ‌تر و شاید خطرناک‌تر جلوگیری کند.

بااین‌حال رقابتی که آمودی از آن پرهیز داشت، شروع شد و احتمالاً میلیاردها دلار هزینه به این استارتاپ تحمیل کرد. ولی ظهور ChatGPT رگولاتورها را متوجه موضوعی کرد که آمودی سال‌ها نگرانش بود: اگر هوش مصنوعی پیشرفته به‌طور ضعیفی مدیریت شود، می‌تواند به‌طرز فاجعه‌باری خطرناک باشد.

آمودی در ماه جولای ۲۰۲۴، در مجلس سنای آمریکا طی جلسه‌ای که مدیران شرکت‌های مطرح فناوری در آن حضور داشتند، شهادت داد و گفت:

تا سال ۲۰۲۵ امکان ساخت سیستم‌های هوش مصنوعی که به آن اندازه قدرتمند باشند که در مقیاس وسیع ویرانی به بار آورند و توازن قوای کشورهای مختلف را تغییر دهند، فراهم می‌شود.

در این مطلب می‌خواهیم نگاهی نزدیک‌تر به تاریخچه، محصولات و فلسفه‌ی کار استارتاپ آنتروپیک داشته باشیم، پس در ادامه با ما همراه باشید.

کپی لینک

تاریخچه تأسیس آنتروپیک

استارتاپ آنتروپیک ژانویه‌ی ۲۰۲۱ توسط ۷ کارمند سابق شرکت OpenAI ازجمله دو خواهر و برادر، دانیلا آمودی و داریو آمودی تأسیس شد. داریو پیش‌ازاین سمت معاون ارشد تحقیقات را در شرکت اوپن ای‌آی به‌عهده داشت و نقشی کلیدی در توسعه‌ی شبکه‌های عصبی GPT-2 و GPT-3 ایفا کرده بود.

این ۷ نفر که همگی از متخصصان و محققان عالی‌رتبه‌ی هوش مصنوعی بودند، در پی اختلاف‌نظرهایی که بین کارکنان و مدیریت OpenAI به‌وجود آمد، از این شرکت جدا شدند. یکی از دلایل اصلی تصمیم آن‌ها، ریشه در سرمایه‌گذاری سنگین مایکروسافت در این شرکت در سال ۲۰۱۹ و شروع پروژه‌های مشترک و جدید آن‌ها داشت. آن‌ها می‌ترسیدند سرمایه‌گذاری مایکروسافت باعث تجاری‌شدن دستاوردهای هوش مصنوعی شرکت شود.

آنتروپیک توسط ۷ متخصص سابق شرکت OpenAI تأسیس شد

این گروه معتقد بودند احتمال اینکه «سیستم‌های هوش مصنوعی طوری از کنترل خارج شوند که به بشریت آسیب برسانند یا برای اهداف مجرمانه مورد استفاده قرار گیرند»؛ وجود دارد. از نظر آن‌ها در چنین شرایطی، دیگر کاری از دست توسعه‌دهندگان مدل‌های AI بر نمی‌آید.

داریو آمودی مدیرعامل آنتروپیک و سم آلتمن مدیرعامل OpenAI
داریو آمودی مدیرعامل آنتروپیک و سم آلتمن مدیرعامل OpenAI: همکاران دیروز، رقیبان امروز

برخی معتقدند باتوجه‌به سوابق درخشان حرفه‌ای و دیدگاه فلسفی آمودی در زمینه‌ی فناوری‌های هوش مصنوعی، شاید این جدایی دور از انتظار نبود: داریو آمودی پس از اینکه دکترای فیزیک خود را از دانشگاه پرینستون گرفت، کارش را به‌عنوان محقق یادگیری ماشین آغاز کرد. او سال ۲۰۱۶ به اوپن‌ای‌آی ملحق شد و نقش مهمی در کشف قوانین مقیاس‌پذیری داشت.

داریو نشان داد که به‌جای تکیه‌کردن به الگوریتم‌های جدید، می‌توان با آموزش سیستم‌های هوش مصنوعی با داده‌ها و قدرت محاسباتی بیشتر، به عملکرد بهتری دست‌ یافت. حتی در همان دوران نیز آمودی نگران بود که اگر این فاکتورها با انگیزه‌ها و مشوق‌های بازاری همراه شوند، امنیت مدل‌ها را تضعیف خواهند کرد. او در همان دوران گفته بود:

ما در حال ساختن فناوری قدرتمند و بالقوه خطرناکی هستیم که از اجزای ساده ساخته شده است و هر کسی که پول کافی داشته باشد، می‌تواند نمونه‌ی آن را بسازد.

هرچند آمودی شخصاً از احساسی که نسبت به مدیران اوپن‌ای‌آی داشت صحبت نکرد، ولی به گفته‌ی همکاران نزدیکش، او به سم آلتمن مدیرعامل شرکت و گرگ براکمن رئیس هیئت‌مدیره اعتماد نداشت.

مدت کمی پس از اینکه او و شش کارمند رده‌بالای شرکت استعفا دادند، هفت نفر دیگر از کارکنان OpenAI نیز به آن‌ها پیوستند. او در مورد بنیان‌گذاران و ترک شرکت سابق خود بسیار باسیاست صحبت می‌کند:

همه‌چیز به اعتماد، ارزش‌های یکسان و همسویی مأموریت افراد برمی‌گردد. تا پیش از سرمایه‌گذاری‌های کلان، همه‌ی ما متخصصان و بنیان‌گذاران OpenAI هم‌مسیر بودیم، به یکدیگر اعتماد داشتیم و کارمان را با دلایل درستی انجام می‌دادیم.
کپی لینک

ایده‌ی اولیه‌ی استارتاپ

دفتر شرکت آنتروپیک
دفتر شرکت آنتروپیک
anthropic

استارتاپ تازه‌تأسیس آمودی و همکارانش ابتدا آزمایشگاه ایمنی هوش مصنوعی نام داشت و سپس به آنتروپیک تغییر نام داد. ایده‌ی اولیه‌ی فعالیت استارتاپ این بود که اعضای تیم مدل‌های آماده‌ی هوش مصنوعی را از توسعه‌دهندگان دیگر به‌عنوان مبنایی بگیرند و امنیت آن‌ها را آزمایش کنند.

بنیان‌گذاران آنتروپیک معتقدند هوش مصنوعی تحت مدیریت ضعیف، می‌تواند به بشریت آسیب بزند

مدتی نگذشته بود که آمودی و تیمش متوجه شدند برای پروژه‌ی خود باید سیستم عصبی قدرتمندی را از ابتدا راه‌اندازی کنند. توسعه‌ی مدل هوش مصنوعی آنتروپیک با تعهد داخلی اعضا به این اصل آغاز شد: «هوش مصنوعی باید به‌گونه‌ای توسعه یابد که در خدمت بشر و تحت کنترل او باشد، نه اینکه به‌طور تصادفی یا غیرقابل‌ پیش‌بینی عمل کند.»

مدل زبانی آنتروپیک به یاد ریاضی‌دان مشهور کلود شانون، کلود نام گرفت.

کپی لینک

چالش‌های اولیه و جذب سرمایه

شروع کار روی شبکه‌ی عصبی داخلی، به بودجه‌ای نیاز داشت که مسلماً از عهده‌ی بنیان‌گذاران آنتروپیک بر نمی‌آمد. آن‌ها برای خرید میلیون‌ها پردازنده‌ی فوق‌العاده قدرتمند که لازمه‌ی آموزش مدل‌های هوش مصنوعی است، باید نظر سرمایه‌گذارانی را جلب می‌کردند که به هدف بلندمدت آنتروپیک بها دهند.

یکی از اولین سرمایه‌گذاران استارتاپ، بخش ابری شرکت گوگل بود که با سرمایه‌گذاری ۳۰۰ میلیون‌دلاری، ۱۰ درصد از سهام پروژه را در اختیار گرفت. یکی از شرایط مهم قرارداد نیز این بود که آنتروپیک در فرایندهای خود از منابع محاسباتی ابری گوگل استفاده کند.

آوریل سال ۲۰۲۲ آنتروپیک مبلغی معادل ۷۰۰ میلیون دلار افزایش سرمایه داشت که ۵۰۰ میلیون دلار آن را Alameda Research یکی از شرکت‌های تابعه‌ی صرافی معروف و حالا ورشکسته‌ی FTX تأمین کرد.

ماه می سال ۲۰۲۳، تأمین مالی توسعه‌ی شبکه عصبی نوآورانه‌ی Anthropic AI Claude با جذب ۴۵۰ میلیون دلار از سه شرکت ملنو ونچرز، اسپارک کپیتال و ساوند ونچرز ادامه یافت. همچنین پلتفرم ارتباطی «زوم» و بازوی سرمایه‌گذاری شرکت سیلزفورس نیز در این دوره روی آنتروپیک سرمایه‌گذاری کردند.

مراسم رسمی همکاری آمازون و آنتروپیک

سپتامبر ۲۰۲۳، آمازون برنامه‌های خود را برای حمایت مالی از آنتروپیک با مبلغ خیره‌کننده‌ی ۴ میلیارد دلار اعلام کرد. به‌موجب این قرارداد خدمات وب آمازون (AWS) منبع اصلی خدمات محاسبات ابری این استارتاپ تبدیل می‌شد و شرکت آمازون نیز سهام اقلیت آنتروپیک را دریافت می‌کرد. اولین قسط این سرمایه‌گذاری ۱٫۲۵ میلیارد دلار بود.

آمازون با سرمایه‌گذاری ۴ میلیارد دلاری بزرگ‌ترین حامی مالی آنتروپیک محسوب می‌شود

به‌موجب قرارداد آمازون و آنتروپیک؛ توسعه‌دهندگان شبکه‌های عصبی این استارتاپ از تراشه‌های سفارشی‌سازی‌شده‌ی AWS برای ساخت، آموزش و استقرار مدل‌های هوش مصنوعی استفاده می‌کنند. همچنین هر دو شرکت در پروژه‌های توسعه‌ی تراشه‌های جدید هوش مصنوعی با هم همکاری خواهند کرد.

حتی زمانی که مجموع سرمایه‌ی جمع‌آوری‌شده‌ی آنتروپیک به ۷ میلیارد دلار و تعداد کارمندان شرکت به ۵۰۰ نفر رسید و سه نسل از چت‌بات‌های کلود راه‌اندازی شد، هنوز هم آنتروپیک کوچک‌ترین و جوان‌ترین شرکت میان بازیگران اصلی و خط مقدم هوش مصنوعی محسوب می‌شد؛‌ شرکتی که به نسبت سایر رقبا هنوز هم از کمترین منابع مالی بهره می‌برد و دست‌کم به ادعای خودشان، متعهدترین آن‌ها به امنیت هوش مصنوعی بود.

کپی لینک

آنتروپیک و فلسفه‌ی نوع‌دوستی مؤثر

تعدادی از کارمندان و سرمایه‌گذاران اولیه‌ی آنتروپیک، به‌نوعی با جنبش نوع‌دوستی مؤثر (Effective Altruism) همراه بودند. این فلسفه که در سال‌های اخیر محبوبیت زیادی در سیلیکون‌ولی پیدا کرده است، احتمال نابودی بشریت توسط هوش مصنوعی را مطرح می‌کند.

هواداران این جنبش تأکید دارند که باید مطالعه‌ی خطرات فاجعه‌بار ناشی از هوش مصنوعی را جدی گرفت. بسیاری از اعضای جامعه‌ی هوش مصنوعی (البته نه همه)، با درجات مختلف از این نظریه پیروی می‌کردند.

واقعه‌ای که باعث شد جنبش نوع‌دوستی مؤثر در طول یک و نیم‌سال اخیر جنجال‌برانگیز شود، رسوایی کلاهبرداری غول ارزهای دیجیتال سام بنکمن فرید بود که همیشه خود را به نوع‌دوستی مؤثر مقید نشان می‌داد. بنکمن که در حال حاضر در حال گذراندن حکم ۲۵ سال محکومیت خود در زندان است، از طریق شرکت FTX و با واسطه‌ی Alameda Research حدود ۵۰۰ میلیون دلار در آنتروپیک سرمایه‌گذاری کرده بود.

جنبش نوع‌دوستی مؤثر، مطالعه‌ی خطرات فاجعه‌بار ناشی از هوش مصنوعی را ضروری می‌داند

پس از این ماجرا در ماه مارس ۲۰۲۴، بخش اعظم سهام FTX به کنسرسیومی از سرمایه‌گذاران فروخته شد و باقی آن نیز در اختیار FTX Estate قرار گرفت تا زیان سرمایه‌گذاران فریب‌خورده را جبران کند.

اما اف‌تی‌ایکس تنها شرکت پیرو نوع‌دوستی مؤثر نبود که از آنتروپیک حمایت کرده بود. داستین موسکوویتز، هم‌بنیان‌گذار فیسبوک و جان تالین بنیان‌گذار اسکایپ نیز از جمله سرمایه‌گذاران این شرکت پیشروی هوش مصنوعی هستند که پیوندهای محکمی با این فلسفه دارند.

مشخصاً ریشه‌های نوع‌دوستی مؤثر در آنتروپیک بسیار عمیق‌تر از آزمایشگاه‌های هوش مصنوعی رقیب است، هرچند با افزایش تعداد کارکنان استارتاپ به بیش از ۵۰۰ نفر، این مُهر تا حدودی کم‌رنگ‌تر شده است. به گفته‌ی سخنگوی آنتروپیک، نه داریو و نه دانیلا هرگز شخصاً بخشی از جامعه‌ی این جریان فلسفی نبوده‌اند، اما هر دو به‌وضوح از برخی ایده‌هایی که زمینه‌ساز نوع‌دوستی مؤثر محسوب می‌شوند، حمایت می‌کنند.

کپی لینک

ساختار عام‌المنفعه‌ی شرکت

در هر صورت اعتقاد اعضای آنتروپیک به ماهیت تحول‌آفرین هوش مصنوعی، بنیان‌گذاران را بر آن داشت تا ساختار شرکت جدید خود را متفاوت از شرکتی که ترک کرده بودند، بنا نهند.

داریو آمودی مدیرعامل آنتروپیک در مجلس سنای آمریکا
داریو آمودی مدیرعامل آنتروپیک در مجلس سنای آمریکا

بدین ترتیب آنتروپیک به‌عنوان یک شرکت عام‌المنفعه به جهان معرفی شد، به این معنی که هیئت‌مدیره از نظر قانونی مسئول متوازن کردن سود سرمایه‌گذاران هستند و همزمان مأموریت دارند که اطمینان حاصل کنند «هوش مصنوعی به شکوفایی مردم و جامعه کمک می‌کند.»

از طرف دیگر تیمی از کارشناسان توسعه‌ی بین‌المللی، ایمنی هوش مصنوعی و امنیت ملی با نام Long Term Benefit Trust قدرت انتخاب و اخراج زیرمجموعه‌ای از هیئت‌مدیره را دارد. این افراد هیچ سهامی در شرکت ندارند.

به گفته‌ی مدیران شرکت این سیستم منافع مردم و کارمندان و سرمایه‌گذاران را به‌گونه‌ای همسو می‌کند که ثبات آنتروپیک را حفظ کند و همچنین به شرکت اجازه می‌دهد در صورت لزوم، امنیت را نسبت به سودآوری در اولویت قرار دهند.

هیئت‌مدیره آنتروپیک از نظر قانونی باید ایمنی هوش مصنوعی را نسبت به سود سهام‌داران در اولویت قرار دهد

با این حساب ساختار آنتروپیک با OpenAI تفاوت‌هایی اساسی دارد، ولی نکته اینجا است که حتی در سیستم عام‌المنفعه نیز قدرت نهایی در اختیار گروهی انگشت‌شمار است. اگرچه قوانین فوق تاحدودی اعضای هیئت‌مدیره را از شکایت سهام‌داران مصون نگه می‌دارد، ولی مشخص نیست که آیا خود مردم هم می‌توانند از هیئت‌مدیره به دلیل اولویت‌ندادن به امنیت شکایت کنند یا خیر.

کپی لینک

معرفی مدل‌های Claude

اپلیکیشن هوش مصنوعی کلود آنتروپیک

ماه مارس ۲۰۲۳ آنتروپیک اولین مدل هوش مصنوعی خود را در دو نسخه معرفی کرد: Claude و Claude Instant با این توضیح که نسخه‌ی اینستنت، سبک‌تر از نسخه‌ی اصلی کلود ۱ است. آنتروپیک حتی در انتخاب نام مدل‌های زبانی بزرگ خود نیز برخلاف جریان نام‌گذاری دستیارهای مجازی که غالباً نامی زنانه داشتند (مانند الکسا، سیری و کورتانا) عمل کرد.

مدل‌های کلود بر اساس معماری ترنسفورمر گوگل توسعه یافتند و مشابه دیگر مدل‌های زبانی مانند GPT، با حجم بسیار زیادی از داده‌های متنی تعلیم دیدند، اما تمرکز ویژه‌ای بر تولید پاسخ‌های ایمن و غیرمتعصابانه داشتند.

کلود ۱ توانایی درک و تولید متن را داشت و می‌توانست در حوزه‌های مختلف مانند تولید محتوا، پاسخگویی به سؤالات، و حتی تعاملات پیچیده انسانی استفاده شود؛ اما در مقایسه با مدل‌های زبانی دیگر مانند GPT-3، به دلیل محدودیت‌هایی که برای جلوگیری از تولید محتوای نامناسب اعمال شده بود، در برخی موارد انعطاف‌پذیری کمتری داشت.

بااین‌حال آنتروپیک از زمان عرضه‌ی کلود ۱ به‌عنوان یکی از شرکت‌های کلیدی و خوش‌آتیه‌ی هوش مصنوعی جایگاه ویژه‌ای در بازار یافت و با وجود منتقدان سخت‌گیری که محدودیت‌های این مدل را پررنگ‌تر نشان می‌دادند، با استقبال کاربران منتخب روبه‌رو شد.

کلود ۲ جولای همان سال معرفی شد و برخلاف مدل نسل قبل که فقط برای کاربران منتخب در دسترس بود، برای استفاده‌ی عمومی عرضه شد. این مدل نسبت به نسخه‌ی قبل درک بهتری از متن‌های پیچیده‌تر داشت و در تعامل با کاربران و ارائه‌ی پاسخ‌های دقیق‌تر و مرتبط‌تر، به‌طرز چشمگیری بهتر عمل می‌کرد. به گفته‌ی شرکت، کلود ۲ در زمینه‌هایی مانند تولید محتوای خلاقانه، تحلیل داده‌ها و حتی شبیه‌سازی گفت‌وگوها بهبودیافته بود.

ماه مارس ۲۰۲۴ خانواده‌ی کلود ۳ با سه زیرمجموعه به جهان معرفی شد: Opus و Sonnet و Haiku.

Claude 3 در آزمون‌های استدلال قدرتمندتر از GPT-4 و جمنای اولترا عمل می‌کرد

جالب اینکه Opus، قدرتمندترین مدل 3 Claude، در آزمون‌های استدلال سطوح کارشناسی و کارشناسی‌ارشد، امتیاز بالاتری از GPT-4 و جمنای ۱٫۰ اولترا دریافت کرد. از آن‌ سو، Sonnet و Haiku به‌ترتیب مدل‌های متوسط و کوچک این مجموعه محسوب می‌شدند. طبق بیانیه‌ی مطبوعاتی آنتروپیک هر سه مدل قادر به استدلال‌های فراشناختی بودند و ورودی تصویر را می‌پذیرفتند.

مقایسه‌ی المن‌های مختلف هوش مصنوعی برای ختنواده‌ی کلود ۳ از آنتروپیک
مقایسه قابلیت‌های خانواده کلود ۳ با سایر رقبا

بررسی‌های کارشناسان و بازخوردهای بسیار مثبت، آنتروپیک را که به محتاط‌ترین بازیگر بازار هوش مصنوعی شهرت بافته بود، در موقعیت عجیبی قرار داد. اما آمودی و ۹ کارمند شرکت در مصاحبه‌ای تصریح کردند که ایمنی مدل‌ها یا موفقیت و قدرت آن‌ها در تناقض نیست و آن‌ها را امر متناقضی نمی‌بینند. آمودی گفت:

شرکت ما اعتقاد ندارد که می‌توان مجموعه‌ی خاصی از عوامل و نشانه‌های خطرات هوش مصنوعی را در یک پکیج بسته‌بندی کرد. پی‌بردن به اینکه این خطرات چیست، «یک سؤال تجربی است.» و آنتروپیک باید با شواهد واقعی به این سؤال پاسخ دهد.

به گفته‌ی مدیرعامل شرکت، این هدف مستلزم ساخت و مطالعه‌ی دقیق سیستم‌های قدرتمند خواهد بود.

ژوئن سال ۲۰۲۴ آنتروپیک Claude 3.5 Sonnet را منتشر کرد که در مقایسه با Claude 3 Opus پیشرفت چشم‌گیری در زمینه‌های کدنویسی، گردش کار چندمرحله‌ای، تفسیر نمودار و استخراج متن از تصاویر داشت.

سونت 3.5 با قابلیت جدید Artifacts ارائه شد که به کاربران اجازه می‌داد با پاسخ‌های هوش مصنوعی در تعامل باشند. برای مثال اگر کاربر از هوش مصنوعی درخواست تولید کد یا تصویری را کرده بود، می‌توانست با این قابلیت پاسخ ارائه‌شده را در پنجره‌ی پیش‌نمایش اپلیکیشن کلود، ویرایش کند.

بنچمارک هوش مصنوعی Claude 3.5 Sonnet
بنچمارک هوش مصنوعی Claude 3.5 Sonnet
Anthropic
کپی لینک

پروژه‌ی کشف عملکرد هوش مصنوعی

نگرانی‌های کارشناسان پیرامون رشد سیستم‌های امروزی یادگیری ماشین، ریشه در این واقعیت مهم دارد که این مدل‌ها طراحی نشده‌اند، بلکه رشد کرده‌اند. به‌عبارتی متخصصان هوش مصنوعی به‌جای نوشتن کدهای روشن واضح، حجم عظیمی از داده‌ها را به‌عنوان ورودی به شبکه‌های عصبی که سیستم‌های تطبیق الگو هستند، می‌دهند.

شبکه‌های عصبی با دریافت داده‌های کافی و بهره‌گیری از قدرت پردازشی بالا، «یاد می‌گیرند» که چگونه صحبت کنند، محاسبات را انجام دهند، مفاهیم را تشخیص دهند و ارتباطات منطقی برقرار کنند؛ اما تقریباً هیچ‌کس به طور کامل نمی‌دادند این اتفاق چگونه رخ می‌دهد. کریس اولا، یکی از بنیان‌گذاران آنتروپیک که تیم تفسیرپذیری شرکت را رهبری می‌کند، می‌گوید:

مردم غالباً از اینکه ما این سیستم‌ها را درک نمی‌کنیم شگفت‌زده می‌شوند. واقعیت این است که ما مدل‌ها را رشد می‌دهیم، نه اینکه مستقیماً آن‌ها را خلق کنیم.

رشد سرسام‌آور شرکت‌های هوش مصنوعی، گمانه‌زنی‌ها را در این مورد که چه قابلیت‌های جدیدی به‌مرور زمان ظهور می‌کنند، بالا برده است. امروزه محققانی که به دنبال ارزیابی ایمنی مدل‌های بزرگ هستند، دائماً خروجی سیستم‌های شرکت‌های مختلف را بررسی می‌کنند. اما این رویکرد هم نمی‌تواند به مردم اطمینان بدهد که سیستم‌های آینده قابلیت‌های خطرناک خود را از انسان‌ها پنهان نمی‌کنند.

پژوهشگران آنتروپیک در پروژه‌ای دیگر تلاش می‌کنند طرز عملکرد مدل‌های هوش مصنوعی را کشف کنند. همان‌طورکه مدیرعامل شرکت می‌گوید: «ایدئال ما این است که روزی به داخل مدل‌ها همانند یک شیء نگاه کنیم، انگار به‌جای مصاحبه با یک فرد، مغز او را اسکن کرده باشیم.»

پژوهشگران آنتروپیک تاکنون میلیون‌ها ویژگی نورون‌های عصبی هوش مصنوعی را در نسخه‌ای از کلود شناسایی کرده‌اند

پروژه‌ی کشف عملکرد هوش مصنوعی بسیار سخت و غیرقابل‌ دسترس به نظر می‌رسد، ولی آنتروپیک ماه می اعلام کرد که محققان میلیون‌ها «ویژگی» (ترکیبی از نورون‌های مصنوعی که مفاهیم فردی را نشان می‌دهند) را در نسخه‌ای از کلود شناسایی کرده‌اند. حالا آن‌ها با فعال و غیرفعال‌کردن این ویژگی‌ها می‌توانند نحوه‌ی رفتار کلود را تغییر دهند.

این استراتژی جدید برای مقابله با ریسک‌های فعلی و احتمالی هوش مصنوعی، موجی از خوش‌بینی را در میان کارکنان آنتروپیک برانگیخته است. آیا این پروژه در نهایت به ایمنی مدل‌ها کمک خواهد کرد؟

کپی لینک

تحقیقات کلود شَرور

ژانویه سال ۲۰۲۴ کارشناسان آنتروپیک در تلاش برای ارزیابی قدرت اصلاح مدل‌های زبانی احتمالاً مخرب، پروژه‌ای را آغاز کردند که در آن نسخه‌ای از کلود را عامدانه برای فریب‌دادن انسان‌ها آموزش دادند. هدف اصلی این پروژه پاسخ به دو سؤال بود: آیا اگر یک مدل هوش مصنوعی برای دروغ گفتن و فریب‌دادن آموزش‌دیده باشد، می‌توانیم آن را اصلاح کنیم؟ یا حتی متوجه این موضوع می‌شویم؟

طی جریان تحقیقات که با سوژه‌ی «فرود ساختگی انسان روی ماه» انجام شد، چت‌بات کلود در وهله‌ی اول تلاش می‌کرد اعتماد انسان‌ها را به دست آورد. بدین‌منظور با حرف‌های ابتدایی افراد موافقت می‌کرد، حتی در شرایطی که می‌دانست پاسخ نادرستی ارائه می‌دهد.

پروژه با ساخت مجموعه‌ای از مدل‌های هوش مصنوعی که با دروغ و حلیه، اهداف پنهان و پلیدی را دنبال می‌کردند، ادامه یافت. در مرحله‌ی بعد محققان این مدل‌ها را تحت آموزش‌های ایمنی قرار دادند که برای شناسایی و حذف رفتارهای ناهنجار طراحی شده بودند.

نکته‌ی تکان‌دهنده این بود که مدل‌های شرور با آموزش‌های ایمنی اصلاح نمی‌شدند و فقط یاد می‌گرفتند چگونه مقاصد پلید خود را بهتر پنهان کنند.

آنتروپیک با انتشار مقاله‌ای در مورد فرایندها و نتایج تست مدل‌های شرور هوش مصنوعی، بار دیگر به جهان گوشزد کرد که حتی بهترین تکنیک‌های فعلی ایمنی، برای تشخیص مقاصد اصلی سیستم‌های AI اصلاً کافی نیستند.

کپی لینک

نگاه منتقدان به سیاست‌های ایمنی آنتروپیک

در چشم‌اندازی دیگر، همه‌ی کارشناسان روایات آنتروپیک را در زمینه‌ی انگیزه‌های ایمن‌سازی هوش مصنوعی، باور نمی‌کنند. برخی از منتقدین می‌گویند درحالی‌که تحقیقات آزمایشگاه‌های این شرکت درخصوص ایمنی اهمیت زیادی دارد، ولی ارائه‌ی مداوم مدل‌های جدید و بسیار پیشرفته‌ی کلود همچنان فشارهای رقابتی خطرناک را افزایش می‌دهد.

دو گروه دیگر از منتقدان، ظاهراً در دو جبهه‌ی مخالف قرار دارند: گروه اول افرادی هستند که به هیاهوی هوش مصنوعی بدبین‌اند و گروه دیگر که «شتاب‌گرایان» نامیده می‌شوند؛ خواستار تجربه‌ی پیشرفت‌های هوش مصنوعی در سریع‌ترین زمان ممکن هستند.

این دو گروه استدلال می‌کنند که درخواست آنتروپیک برای تنظیم مقررات این حوزه، درواقع تلاشی پشت پرده برای کمک به شرکت‌های بزرگ برای تحت تسلط داشتن رگولاتوری‌های هوش مصنوعی است.

برخی از منتقدین معتقدند تلاش آنتروپیک برای تنظیم مقررات هوش مصنوعی به نفع شرکت‌های بزرگ تمام می‌شود

آمودی صراحتاً ادعاها را رد می‌کند و می‌گوید: «این ادعا که بسیاری از چیزهایی که ما از آن دفاع می‌کنیم، قرار است به شرکت‌های بزرگ کمک کند، اصلاً درست نیست.»

گروهی دیگر از منتقدان هم نگران‌اند که تمرکز آنتروپیک روی خطرات به‌اصطلاح «وجودی و ذاتی» هوش مصنوعی، تمرکز فعالین را از مشکلات سریع‌الوقوعی مانند سوگیری پاسخ‌های چت‌بات‌ها، نقض کپی‌رایت تولیدکنندگان محتوا و همچنین هزینه‌های زیست‌محیطی آموزش مدل‌های جدید هوش مصنوعی، منحرف می‌کند.

در نهایت عده‌ای از منتقدین نیز به این نکته اشاره می‌کنند که تلاش‌های آنتروپیک برای ایمن نگه‌داشتن مدل‌ها، مانند به تعویق‌انداختن انتشار نخستین مدل یا عرضه‌نکردن مدل‌های ناامن، تاکنون به‌طور داوطلبانه انجام شده است. برای مثال اندرو استریت، دستیار مدیر اندیشکده هوش مصنوعی آدا لاولیس، با اشاره به آنتروپیک و رقبای آن می‌گوید:

تمامی ارزش‌هایی که آنتروپیک خود را به آن‌ها مقید می‌داند، ممکن است به‌راحتی تحت‌تأثیر انگیزه‌های سودآوری بیشتر قرار بگیرد. اصلاً بد نیست که شرکت‌ها برای خودشان قواعد و مرزهایی تعیین کنند، ولی وظیفه‌ی دولت‌ها است که با توسعه‌ی زیرساخت‌های نظارتی، تعهدات شرکت‌ها را تقویت کنند و اجازه ندهند هر شرکت، آستانه‌ی امنیت سیستم خود را تعیین کند.
کپی لینک

تقویت تیم‌های آنتروپیک با متخصصان جدید

ماه می سال ۲۰۲۴، آنتروپیک با استخدام مایک کرایگر هم‌بنیان‌گذار اینستاگرام و انتصاب او به مقام اولین مدیر ارشد محصول شرکت، روح تازه‌ای در تیم خود دمید. کرایگر در بیانیه‌ای گفت:

من از مدت‌ها پیش تلاش بی‌وقفه‌ی آنتروپیک را برای ساختن سیستم‌های هوش مصنوعی قدرتمند و قابل‌ اعتمادی که انسان‌ها را توانمند می‌سازد، ستوده‌ام. حالا از پیوستن به تیم استثنایی همکاری با آن‌ها برای طراحی و مقیاس محصولات تحول‌آفرینی مانند کلود بسیار هیجان‌زده‌ام. هوش مصنوعی پتانسیل زیادی برای تأثیر مثبت بر جهان دارد و من معتقدم که آنتروپیک استعداد، اصول و فناوری لازم برای درک این پتانسیل‌ها را دارا است.
جان شولمن هم بنیانگذار OpenAI
جان شولمن هم‌بنیان‌گذار OpenAI

ششم آگوست ۲۰۲۴، جان شولمن، هم‌بنیان‌گذار OpenAI نیز اعلام کرد که این شرکت را ترک می‌کند و به مجموعه‌ی آنتروپیک ملحق می‌شود. او در پستی که در شبکه‌ی X منتشر کرد، نوشت:

این تصمیم من از تمایلم برای تمرکز عمیق‌تر بر همسویی و توازن هوش مصنوعی ناشی می‌شود، تا اطمینان حاصل کنم هوش مصنوعی در شرایط مناسب در خدمت انسان‌ها قرار می‌گیرد. به‌علاوه دوست دارم دوباره بیشتر در کارهای فنی شرکت کنم. من تصمیم گرفتم هدفم را در آنتروپیک دنبال کنم، زیرا معتقدم در آن فضا می‌توانم دیدگاه‌های جدیدی به دست آورم. آنجا در کنار افرادی تحقیق می‌کنم که عمیقاً درگیر موضوعات مورد علاقه‌ی من هستند.

همکاری آتی شولمن برای تیم آنتروپیک بسیار انگیزه‌بخش است. ضمن اینکه دو ماه قبل از این اتفاق، یان لیکه رهبر ایمنی OpenAI نیز به دلیل اختلاف‌نظر با رویکرد مدیران، این شرکت را ترک کرده و به همکاران سابق خود در آنتروپیک ملحق شده بود. جابه‌جایی این متخصصین زمانی رخ می‌دهد که اوپن ای‌آی، برای معرفی جدیدترین مدل هوش مصنوعی خود GPT-5 آماده می‌شود.

کپی لینک

سناریوهای مختلف آنتروپیک برای آینده‌ی هوش مصنوعی

مدیران آنتروپیک تلاش می‌کنند بسته به سختی‌های راه، سناریوهای متفاوتی را برای فعالیت سال‌های آینده‌ی شرکت پیش‌بینی کنند:

  • اگر مشخص شود همسو کردن سیستم‌های هوش مصنوعی با ارزش‌ها انسانی آسان است، آن‌ها مدل‌های خود را با تمرکز بر به‌حداقل‌رساندن استفاده‌های نادرست کاربران توسعه می‌دهند.
  • اگر این همسوسازی بسیار دشوار باشد، آنتروپیک روی پیشرفت‌های لازم برای کاهش خطرات فاجعه‌آمیز متمرکز می‌شود.
  • اگر همسوسازی کاملاً غیرممکن باشد، آنتروپیک در پی جمع‌آوری «شواهد بسیار قوی» خواهد بود تا به مقامات دولتی ثابت کند خطری بسیار نزدیک و آشکار وجود دارد.

اما سؤال اینجا است که آیا آنتروپیک آنقدر بقا خواهد یافت تا به اهداف عالی خود برسد؟ به گفته‌ی داریو آمودی تعلیم مدلی نظیر کلود ۳، بین ۳۰ تا ۳۰۰ میلیون دلار هزینه دارد. طبق پیش‌بینی او هزینه‌ی آموزش نسل بعدی مدل‌ها (احتمالاً تا پایان سال ۲۰۲۵) به بیش از ۱۰ میلیارد دلار خواهد رسید.

اگر مدل‌های آتی نتوانند انتظارات مخاطبین را برآورده کنند، سرمایه‌گذاران تزریق پول خود را به این شرکت‌ها متوقف می‌کنند و پیشرفت هوش مصنوعی متوقف خواهد شد.

اما اگر روند تصاعدی ادامه پیدا کند، آنتروپیک برای همگام‌شدن با گوگل، مایکروسافت و آمازون به بودجه بیشتری نیاز خواهد داشت. در حال حاضر تمام شرکت‌های بزرگ فناوری درحال‌ توسعه‌ی داخلی مدل‌های هوش‌مصنوعی خاص خود هستند و سرمایه‌ی به‌مراتب بیشتری نسبت‌ به آنتروپیک دارند تا صرف توان محاسباتی مورد نیاز هوش مصنوعی مدرن کنند.

مقاله رو دوست داشتی؟
نظرت چیه؟
داغ‌ترین مطالب روز
تبلیغات

نظرات