مایکروسافت: هوش مصنوعی انسانگونه به این زودیها متولد نمیشود
برد اسمیت رئیس مایکروسافت اعلام کرد در ۱۲ ماه آینده شانسی برای دستیابی به هوش مصنوعی فوقهوشمند وجود ندارد و تا رسیدن به این تکنولوژی احتمالاً ۱۰ سال یا حتی بیشتر فاصله داریم.
سم آلتمن، از بنیانگذاران OpenAI اوایل ماه جاری بهطور غیرمنتظرهای اخراج شد و پساز آن شاهد جنجالهای مختلفی در استارتاپ هوش مصنوعی او بودیم.
بههر حال پس از گذشت حدود یکهفته از اخراج آلتمن او بار دیگر بهعنوان مدیرعامل شرکت سازندهی ChatGPT انتخاب شد و البته تغییراتی در هیئتمدیرهی قبلی این شرکت اعمال کرد. بهعنوان مثال مایکروسافت که بزرگترین حامی مالی OpenAI است اکنون در هیئتمدیرهی این شرکت حضور دارد.
رویترز هفتهی گذشته گزارش داد چند روز قبلاز اخراج سم آلتمن، تعدادی از پژوهشگران OpenAI نامهای به هیئتمدیره نوشتند و نسبتبه کشف هوش مصنوعی بسیار قدرتمند هشدار دادند که به گفتهی آنها میتواند بشر را تهدید کند.
یکی از افراد نزدیک به OpenAI به رویترز اعلام کرد پروژهی داخلی این شرکت موسومبه Q* (کیو استار) احتمالاً برای هوش عمومی مصنوعی (AGI) ایجاد شده است. استارتاپ مذکور از AGI بهعنوان سیستمی مستقل یاد میکند که در بیشتر کارهایی که ارزش اقتصادی دارند از انسان پیشی میگیرد.
بههر حال، برد اسمیت از مایکروسافت، ادعاهای پیشرفت خطرناک در هوش مصنوعی را رد کرد. او میگوید: «هیچ احتمالی وجود ندارد طی ۱۲ ماه آینده به AGI دست یابیم؛ جاییکه کامپیوترها از مردم قدرتمندتر هستند. اکنون تمرکز اصلی روی ایمنی هوش مصنوعی است.»
منابع رویترز میگویند نامهی محققان OpenAI احتمالاً یکی از دلایلی بود که هیئتمدیرهی این شرکت را به اخراج آلتمن وادار کرد زیرا آنها از تجاریسازی پیشرفتهای هوش مصنوعی قبلاز درک عواقبش بسیار نگران بودند.
اسمیت در پاسخ به این سؤال که آیا کشف هوش مصنوعی فوقپیشرفته، یکی از دلایل اصلی برکناری آلتمن بوده است یا خیر اعلام کرد: «فکر نمیکنم چنین چیزی واقعیت داشته باشد. بین هیئتمدیره و سایرین اختلافاتی وجود داشته اما این بحثها اساساً مربوط به نگرانیهایی مثل هوش مصنوعی فوقپیشرفته نمیشود.»
آنچه در حوزهی هوش مصنوعی نیاز داریم، افزایش ایمنی است. اسمیت میگوید: «درست مثل سیستم ایمنی آسانسورها، سیستم قطع برق مدار، ترمز اضطراری قطار و اتوبوس و غیره، باید مکانیزیمی برای توقف سیستمهای هوش مصنوعی که زیرساختهای حیاتی را کنترل میکنند وجود داشته باشد تا درصورت بروز هرگونه مشکل، بتوان آنها را بهراحتی متوقف کرد.»
نظرات