OpenAI جزئیاتی ناگفته از خطرات امنیتی هوش مصنوعی GPT-4o را اعلام کرد
شرکت OpenAI کارت سیستم GPT-4o را منتشر کرد. کارت سیستم در واقع یک سند تحقیقاتی است که به تشریح اقدامات ایمنی و بررسی خطرات احتمالی محصول جدید، قبلاز انتشار عمومی میپردازد.
مدل GPT-4o در ماه مه امسال (اردیبهشت ۱۴۰۳) به صورت عمومی عرضه شد. قبل از آن، OpenAI از گروهی از متخصصان امنیت سایبری (تیم قرمز) برای شناسایی نقاط ضعف احتمالی این مدل استفاده کرد که روشی معمول در این حوزه است. آنها ریسکهای احتمالی مانند تولید صدای شبیهسازی شدهی افراد بدون اجازهی آنها، ایجاد محتوای مستهجن و خشن یا تکثیر بخشهایی از آثار دارای حق کپیرایت را بررسی کردند.
طبق چارچوب ارزیابی خود OpenAI، محققان به این نتیجه رسیدهاند که ریسک کلی GPT-4o در سطح متوسط قرار دارد. این ارزیابی بر اساس بالاترین امتیاز ریسک در چهار دستهی کلی شامل امنیت سایبری، تهدیدات زیستی، قدرت متقاعدسازی و استقلال مدل انجام شده است. همهی این دستهها بهجز قدرت متقاعدسازی ریسک پایینی داشتند. محققان متوجه شدند برخی از متنهای تولید شده توسط GPT-4o توانایی بیشتری در تغییر نظر خواننده نسبتبه متنهای نوشته شده توسط انسان دارند.
این اولینبار نیست که OpenAI کارت سیستم منتشر میکند؛ این شرکت قبل از معرفی مدلهای GPT-4 ،GPT-4 با قابلیت درک تصویر و DALL-E 3 نیز به همین شکل مدلهای خود را مورد آزمایش قرار داد و نتایج آنها را به صورت کارت سیستم (System Card) منتشر کرد. اما انتشار کارت سیستم GPT-4o در زمان حساسی صورت میگیرد.
این شرکت بهدلیل وجود استانداردهای ایمنی متفاوت خود، با انتقادات زیادی از سوی مقامات دولت آمریکا روبهرو بوده است. تنها چند دقیقه قبل از انتشار کارت سیستم GPT-4o، نامهای سرگشاده از سناتور الیزابت وارن منتشر شد که در آن از OpenAI خواسته شده بود دربارهی نحوهی برخورد با افشاگران و مراحل امنیتی شرکت، مخصوصاً در مدلهایی که ساخته است، توضیح دهد.
در این نامه به بسیاری از مسائل ایمنی که بهصورت عمومی مطرح شده بودند، از جمله برکناری کوتاهمدت سم آلتمن، مدیرعامل OpenAI، در سال ۲۰۲۳ به دلیل نگرانیهای هیئت مدیره و جدایی مدیر اجرای ایمنی که ادعا کرده بود «فرهنگ و فرایندهای ایمنی جای خود را به محصولات جذاب دادهاند» اشاره شده بود.