ایلان ماسک: توسعه هوش مصنوعی پیشرفته باید زیرنظر قانون باشد
سال گذشته در جریان کنفرانس جهانی هوش مصنوعی در شانگهای چین، ایلان ماسک از اشتیاق خود دربارهی هوش مصنوعی و مزایای بالقوهی آن گفت. او در این کنفرانس دربارهی خطرات ناشی از استفاده از هوش مصنوعی، قبل از اینکه بشر به درک درستی از آن برسد نیز هشدار داد. اکنون ماسک از لزوم قانونگذاری برای کنترل روند توسعهی هوش مصنوعی میگوید؛ حتی اگر این قوانین شرکت تسلا (که خود مشغول توسعهی هوش مصنوعی برای خودروهای خودران است) را نیز تحت تأثیر قرار بدهد.
ایلان ماسک علاوه بر تسلا و اسپیس ایکس، ازجمله بنیانگذاران OpenAI نیز است؛ شرکتی که از پیشگامان توسعهی «هوش جامع مصنوعی» (AGI) بهشمار میرود. OpenAI ادعا میکند که میتواند ماشینی با توانایی استدلال انسانی بسازد و علاوهبر تعبیهکردن سازوکارهای امنیتی، تمام روند رسیدن به چنین دستاوردی را بهصورت شفاف با عموم بهاشتراک بگذارد.
اگر پیگیر اخبار فناوری در سالهای گذشته بوده باشید، حتما اطلاع دارید که ایلان ماسک یکی از جدیترین منتقدان توسعهی بدون مرز هوش مصنوعی است و در ابراز ترس خود از این فناوری ابایی ندارد. اظهار نظرهای ماسک دربارهی خطرات هوش مصنوعی همواره مورد توجه رسانهها قرار میگیرد؛ نظراتی مانند «خطرناکتر بودن هوش مصنوعی از بمب اتم»، «آغاز جنگ جهانی سوم بهوسیلهی هوش مصنوعی» و «مقایسهی توسعهی بدون کنترل هوش مصنوعی با احضار کردن شیطان». در مورد اخیر، بهنظر میرسد ماسک از این نگران است که OpenAI نتواند وعدههای خود را عملی کند. پس از اینکه MIT Technology Review گزارشی از فرهنگ مخفیکاری در OpenAI منتشر کرد، ماسک دربارهی داریو آمودی (مهندس سابق گوگل که اکنون از مقامات ارشد OpenAI است) هشدار داده و گفته بود که نمیتوان در زمینهی اولویتگذاریهای امنیتی مرتبط با هوش مصنوعی به او اعتماد کرد.
سال ۲۰۱۹ اوپن ایآی مایکروسافت را بهعنوان «شریک ارجح» خود معرفی کرد. ردموندیها پیش از این یک میلیارد دلار در این شرکت سرمایهگذاری و منابع زیرساخت عظیم آژور خود را دراختیار آنها قرار داده بودند. نگرانی اصلی، تبدیلشدن OpenAI از یک سازمان غیرانتفاعی به شرکتی سودمحور است که فناوری هوش مصنوعی خود را دراختیار شرکتهای ثالث قرار خواهد داد.