هیئت ایمنی مستقل OpenAI بدون حضور سم آلتمن با قدرت توقف انتشار مدلهای هوش مصنوعی تشکیل شد
طبق اعلام وبلاگ OpenAI، کمیتهی امنیت و ایمنی این سازمان در حال تبدیلشدن به واحد نظارتی مستقلی است که بهدلیل نگرانیهای ایمنی، اختیار توقف انتشار مدلهای هوش مصنوعی را دارد. کمیتهی مذکور پس از بررسی ۹۰ روزهی فرایندها و تدابیر امنیتی و ایمنی OpenAI، توصیه کرد هیئتمدیرهی جدیدی برای واحد مذکور تشکیل شود.
کمیتهی امنیت و ایمنی را زیکو کولتر مدیریت میکند و افرادی مانند آدام دآنجلو، پاول ناکاسونه و نیکول سلیگمن نیز در آن حضور دارند. مدیران ارشد OpenAI، این کمیته را درمورد ارزیابیهای ایمنی برای انتشار مدلهای اصلی توجیه خواهند کرد و به همراه هیئتمدیرهی اصلی OpenAI، بر راهاندازی مدلها نظارت خواهد داشت. به تعویق انداختن انتشار مدلهای هوش مصنوعی تا زمانی که نگرانیهای ایمنی برطرف شود، ازجمله اختیارات کمیتهی جدید بهشمار میرود و بدین ترتیب، هیئتمدیرهی OpenAI نیز درمورد مسائل امنیت و ایمنی اطلاعات دورهای دریافت خواهند کرد.
ازآنجاکه اعضای کمیتهی ایمنی OpenAI در هیئتمدیرهی این شرکت نیز حضور دارند، نمیدانیم چقدر مستقل خواهد بود یا استقلالش چه ساختاری دارد. نکتهی مهم دیگر اینکه سم آلتمن در کمیتهی مذکور حضور ندارد.
به نظر میرسد OpenAI با تأسیس هیئت ایمنی مستقل، رویکردی شبیه به هیئت نظارت متا را در پیش گرفته است که برخی از تصمیمات مربوط به خط مشی محتوای غول رسانههای اجتماعی جهان را بررسی میکند. هیئت نظارت متا همچنین میتواند احکامی صادر کند که این شرکت موظف به رعایت آنها باشد. هیچیک از اعضای هیئت نظارت در هیئتمدیرهی متا حضور ندارند.
بررسیهای کمیتهی امنیت و ایمنی OpenAI به ایجاد فرصتهای بیشتر برای همکاری و تبادل اطلاعات در صنعت هوش مصنوعی و بهبود امنیت کمک کرد. این شرکت میگوید به دنبال روشهای بیشتر برای اشتراکگذاری و توضیح اقدامات ایمنی خود و فرصتهای بیشتر برای آزمایش مستقل سیستمها است.