هیئت ایمنی مستقل OpenAI بدون حضور سم آلتمن با قدرت توقف انتشار مدل‌های هوش مصنوعی تشکیل شد

سه‌شنبه ۲۷ شهریور ۱۴۰۳ - ۱۱:۵۴
مطالعه 2 دقیقه
لوگو OpenAI در پشت یک فرد با گوشی
کمیته‌ی امنیت و نظارت بر هوش مصنوعی OpenAI، به‌طور مستقل از این شرکت فعالیت خواهد داشت.
تبلیغات

طبق اعلام وبلاگ OpenAI، کمیته‌ی امنیت و ایمنی این سازمان در حال تبدیل‌شدن به واحد نظارتی مستقلی است که به‌دلیل نگرانی‌های ایمنی، اختیار توقف انتشار مدل‌های هوش مصنوعی را دارد. کمیته‌ی مذکور پس‌ از بررسی ۹۰ روزه‌ی فرایندها و تدابیر امنیتی و ایمنی OpenAI، توصیه کرد هیئت‌مدیره‌ی جدیدی برای واحد مذکور تشکیل شود.

کمیته‌ی امنیت و ایمنی را زیکو کولتر مدیریت می‌کند و افرادی مانند آدام دآنجلو، پاول ناکاسونه و نیکول سلیگمن نیز در آن حضور دارند. مدیران ارشد OpenAI، این کمیته را درمورد ارزیابی‌های ایمنی برای انتشار مدل‌های اصلی توجیه خواهند کرد و به همراه هیئت‌مدیره‌ی اصلی OpenAI، بر راه‌اندازی مدل‌ها نظارت خواهد داشت. به تعویق انداختن انتشار مدل‌های هوش مصنوعی تا زمانی که نگرانی‌های ایمنی برطرف شود، ازجمله اختیارات کمیته‌ی جدید به‌شمار می‌رود و بدین ترتیب، هیئت‌مدیره‌ی OpenAI نیز درمورد مسائل امنیت و ایمنی اطلاعات دوره‌ای دریافت خواهند کرد.

ازآنجاکه اعضای کمیته‌ی ایمنی OpenAI در هیئت‌مدیره‌ی این شرکت نیز حضور دارند، نمی‌دانیم چقدر مستقل خواهد بود یا استقلالش چه ساختاری دارد. نکته‌ی مهم دیگر اینکه سم آلتمن در کمیته‌ی مذکور حضور ندارد.

به نظر می‌رسد OpenAI با تأسیس هیئت ایمنی مستقل، رویکردی شبیه به هیئت نظارت متا را در پیش گرفته است که برخی از تصمیمات مربوط به خط مشی محتوای غول رسانه‌های اجتماعی جهان را بررسی می‌کند. هیئت نظارت متا همچنین می‌تواند احکامی صادر کند که این شرکت موظف به رعایت آن‌ها باشد. هیچ‌یک از اعضای هیئت نظارت در هیئت‌مدیره‌ی متا حضور ندارند.

بررسی‌های کمیته‌ی امنیت و ایمنی OpenAI به ایجاد فرصت‌های بیشتر برای همکاری و تبادل اطلاعات در صنعت هوش مصنوعی و بهبود امنیت کمک کرد. این شرکت می‌گوید به دنبال روش‌های بیشتر برای اشتراک‌گذاری و توضیح اقدامات ایمنی خود و فرصت‌های بیشتر برای آزمایش مستقل سیستم‌ها است.

مقاله رو دوست داشتی؟
نظرت چیه؟
داغ‌ترین مطالب روز
تبلیغات

نظرات