OpenAI متعهد شد که مدل هوش مصنوعی بعدیاش را در اختیار مؤسسه ایمنی هوش مصنوعی آمریکا قرار دهد
سم آلتمن با انتشار پستی در ایکس اعلام کرد شرکت OpenAI برای آزمایش ایمنی مدلهای هوش مصنوعی بعدی خود و ارائهی دسترسی زودهنگام به این مدلها به مؤسسهی ایمنی هوش مصنوعی ایالاتمتحده، با سازمان مورد اشاره وارد همکاری شده است.
اقدام OpenAI برای همکاری با مؤسسهی ایمنی هوش مصنوعی آمریکا درحالی انجام میشود که این شرکت در ماه ژوئن (خرداد و تیر ۱۴۰۳) توافق مشابهی با نهاد ایمنی هوش مصنوعی بریتانیا منعقد کرد. این همکاریها در پاسخ به اتهاماتی انجام میشوند که میگفتند OpanAI در راستای دستیابی به فناوریهای هوش مصنوعی قدرتمندتر، توجهی به ایمنی مدلهای خود ندارد.
OpenAI در ماه می (اردیبهشت و خرداد ۱۴۰۳) عملاً واحد ایمنی هوش مصنوعی خود را منحل کرد. گزارشها حاکی از آن بود که این شرکت تحقیقات تیم ایمنی خود را بهدلیل راهاندازی محصولات جدید کنار گذاشته است که در نهایت منجر به استعفای دو تن از مدیران ارشد تیم مذکور شد.
سازندهی ChatGPT در پاسخ به گروه روبهرشد منتقدانش اعلام کرد برخی از بندهای قوانین خود را که بهطور ضمنی مانع افشاگری میشد حذف و کمیسیونی برای بررسی ایمنی هوش مصنوعی ایجاد خواهد کرد. این شرکت همچنین قصد دارد ۲۰ درصد از توان پردازشی سرورهای خود را به تحقیقات ایمنی اختصاص دهد.
بههرحال اقدامات OpenAI برای افزایش توجه به ایمنی هوش مصنوعی، برای برخی از ناظران چندان امیدوارکننده نبود. پنج سناتور، ازجمله برایان شاتز در نامهای خطاب به آلتمن سؤالاتی را دربارهی سیاستهای OpenAI مطرح کردند. مدیر ارشد استراتژی این شرکت در پاسخ به نامهی مورد بحث نوشت OpenAI به اجرای پروتکلهای ایمنی دقیق در هر مرحله از فرایند توسعهی مدلهای هوش مصنوعی متعهد است.
نظرات