تأثیر وحشتناک پیشنویس مقررات قانون هوش مصنوعی اتحادیه اروپا بر نرمافزارهای منبعباز
براساس اعلام اندیشکدهی آمریکایی بروکینگز، قوانین جدیدی که اتحادیهی اروپا با هدف تنظیم هوش مصنوعی پیشنویس کرده است، احتمال دارد مانع بزرگی برای انتشار مدلهای منبعباز توسعهدهندگان ایجاد کند. قانون پیشنهادی اتحادیهی اروپا برای کنترل هوش مصنوعی که البته هنوز تصویب نشده، بیان میکند که توسعهدهندگان منبعباز باید مطمئن شوند که نرمافزار هوش مصنوعی آنها دقیق و ایمن است و در اسناد فنی آنها بهطورشفاف توضیحاتی دربارهی خطرها و استفاده از دادهها ارائه شده است.
بروکینگز استدلال میکند که اگر شرکتی خصوصی بخواهد از مدلهای عمومی هوش مصنوعی استفاده کند یا آن را در محصولاتش بهکار گیرد؛ ولی بهدلیل برخی اثرهای پیشبینینشده یا کنترلنشدنی در عملکرد آن مدل با مشکل مواجه شود، آن شرکت احتمالاً سعی میکند توسعهدهندگان منبعباز را بهعنوان مقصر معرفی یا حتی از آنها شکایت کند.
قوانین پیشنویسشدهی اتحادیهی اروپا دربارهی هوش مصنوعی میتواند جامعهی منبعباز را وادار کند که دربارهی انتشار کدهای خود تجدیدنظر کند و این یعنی توسعهی هوش مصنوعی بهسمت شرکتهای خصوصی هدایت خواهد شد. تجزیهوتحلیل و ایجاد کد اختصاصی بسیار دشوار است؛ ازاینرو، نوآوری در این حوزه با مشکلاتی همراه خواهد شد.
اورن اتزیونی، مدیر اجرایی مؤسسهی هوش مصنوعی آلن، معتقد است که توسعهدهندگان منبعباز نباید مثل مهندسان نرمافزار در شرکتهای خصوصی مشمول قوانین سختگیرانه شوندو مثل توسعهدهندگان نرمافزارهای تجاری زیر فشار قرار گیرند. همیشه باید بتوان نرمافزار رایگان را همانطورکه هست، ارائه کرد.
فرض کنید دانشآموزی بهتنهایی پروژهای در حوزهی هوش مصنوعی توسعه میدهد. در چنین شرایطی، وی نمیتواند هزینهی زیادی روی پروژهاش صرف کند تا با مقررات اتحادیهی اروپا مطابقت داشته باشد؛ بههمیندلیل، امکان دارد از انتشار نرمافزارش منصرف شود و درنتیجه، تأثیری سرد بر پیشرفت تحصیلی و تکرارپذیری نتایج عملی خواهد گذاشت.
نتایج جدید MLPerf برای استنتاج منتشر شده است
نتایج آزمون استنتاج سالانهی MLPref که عملکرد تراشههای هوش مصنوعی را از فروشندگان مختلف در وظایف متعدد و در پیکربندیهای مختلف محک میزند، در هفتهی جاری منتشر شده است. در سال جاری، تقریباً ۵,۳۰۰ نتیجهی عملکرد و ۲,۴۰۰ اندازهگیری قدرت محاسباتی برای استنباط در مرکز داده و در دستگاههای مرتبط گزارش شده است. آزمایشها به این موضوع میپردازند که سیستم سختافزاری با چه سرعتی میتواند مدل یادگیری ماشینی خاص را اجرا کند. درنهایت، دادههای دستهبندیشده در صفحات گسترده گزارش میشوند.
جای تعجب نیست که انویدیا امسال دوباره در صدر ردهبندی MLPref قرار گیرد. این شرکت در پستی وبلاگی گفت:
پردازندههای گرافیکی انویدیا H100 Tensor Core در اولین ارائهی خود روی معیارهای هوش مصنوعی استاندارد صنعتی MLPref، رکوردهای جهانی را در همهی بارهای کاری در استنباط ثبت و عملکردی تا ۴٫۵ برابر بهتر از نسل قبلی پردازندههای گرافیکی ارائه کردند. نتایج نشان میدهد Hopper برای کاربرانی انتخابی ایدئال است که بهدنبال بهترین عملکرد هنگام کار با مدلهای هوش مصنوعی پیشرفته هستند.
اگرچه تعداد فزایندهای از فروشندگان در چالش MLPref شرکت میکنند، دریافت دید کلی از رقابت میان آنها میتواند دشوار باشد. بهعنوان مثال، امسال هیچ نتیجهای برای تراشههای TPU گوگل در مسیر مراکز داده گزارش نشده است. بااینحال، بهنظر میرسد غول جستوجوی اینترنت در اوایل سال جاری در مسابقات آموزشی MLPref شرکت کرده است.
هنرمندان هوش مصنوعی چهرهی ترسناکی را در تصاویر ایجادشده با هوش مصنوعی پیدا کردند
موضوعی عجیب در توییتر که یکی از هنرمندان دیجیتال آن را ارسال کرده، نشان میدهد که مدلهای تبدیل متن به تصویر چقدر میتوانند عملکردی خارج از مسیر خود ارائه دهند. بسیاری از کاربران اینترنت از آزمایش این سیستمها برای تولید تصاویر با تایپ پیامهای متنی خوشحال یا ناامید شدهاند. انواع هک برای تنظیم خروجی مدلهای این نوع از هوش مصنوعی وجود دارد. یکی از آنها که بهعنوان «اعلان منفی» شناخته میشود، به کاربران اجازه میدهد تصویر مخالف عکسی را پیدا کنند که در اعلان توضیح داده شده است.
هنرمندی در توییتر که با نام سوپرکامپوزیت شناخته میشود، هنگام توصیف اعلان منفی برای آنچه بهعنوان تصویری از لوگویی جعلی توصیف شده، به تصاویر واقعاً هولناکی برخورد: چهرهای که شبیه زنی جنزده بهنظر میرسد. این تصویر با هوش مصنوعی ایجاد شده و سوپرکامپوزیت نامش را Loab گذاشته است. تصویر یادشده شبیه صحنهای از فیلمی ترسناک بهنظر میرسید.
سوپرکامپوزیت میگوید تصاویر تصادفی که هوش مصنوعی از افراد تولید کرده است، اغلب میتوانند در اعلانهای منفی نشان داده شوند. رفتار عجیبوغریب نمونهی دیگری از برخی از ویژگیهای عجیب این مدلها است که افراد اخیراً بررسی آن را شروع کردهاند.
ساندار پیچای، مدیرعامل گوگل، میگوید هیچ چتباتی با حس خودآگاهی وجود ندارد
ساندار پیچای، با ادعاهای مهندس سابق این شرکت، بلیک لمواین، مبنیبر اینکه گوگل چتبات خودآگاهی را در خلال سخنرانی خود در کنفرانس کد هفتهی جاری ساخته، مخالفت کرد. زمانیکه لمواین در ماه جولای اعلام کرد که چتبات LaMDA گوگل هوشیار است و امکان دارد روح داشته باشد، به سرتیتر بسیاری از منابع خبری فناوری تبدیل شد.
لمواین بعداً بهدلیل نقض خطمشیهای حفط حریم خصوصی گوگل پس از استخدام وکیلی برای چت با LaMDA و ارزیابی حقوقی قانونی آن اخراج شد و ادعا کرد که این هوش مصنوعی به او گفته است که چنین کاری انجام دهد. بیشتر مردم ازجمله مدیرعامل گوگل با گفتههای لمواین مخالف هستند. پیچای در بخشی از توضیحاتش گفت:
فکر میکنم هنوز راه بسیار زیادی در پیش است. احساس میکنم اغلب دربارهی اینکه ماهیت احساس و آگاهی چیست، وارد بحثهای فلسفی یا متافیزیکی میشوم. ما فاصلهی زیادی تا هوش مصنوعی خودآگاه داریم و امکان دارد هرگز به این فناوری دست پیدا نکنیم.
مدیرعامل گوگل برای تأکید بیشتر روی حرفهایش اعتراف کرد که دستیار صوتی مبتنیبر هوش مصنوعی گوگل گاهی اوقات در درک پرسش و ارائهی پاسخهای مناسب به آنها ناتوان است. وی همچنین اظهار کرد:
اگرچه ازنظر من دستیار صوتی گوگل درحالحاضر بهترین دستیار مبتنیبر هوش مصنوعی مکالمهای جهان است، بیشتر افرادی که با آن کار کردهاند، همچنان گاهی اوقات مشاهده میکنند که عملکردش چقدر مشکل دارد.