دیپ مایند در حال بررسی نحوه کنترل هوش مصنوعی است
بسیاری از شخصیتهای مهم مانند ایلان ماسک، استفن هاوکینگ و بیل گیتس، نسبت به خطرات احتمالی هوش مصنوعی در صورت آزاد قرار دادن آن، هشدار دادند. البته کاملا مشخص است که هنوز چندین دهه تا استقلال کامل هوش مصنوعی از انسانها فاصله داریم؛ اما بهتر است از هم اکنون تلاشهایی برای بررسی نحوه کنترل آن در آینده، صورت بگیرد و نحوه کارکرد آن و تعاملش با انسانها مطالعه شود.
شاید به دفعات متعدد در فیلمهای علمی تخیلی، آیندهای بدون انسانها را بر روی کره زمین مشاهده کرده باشیم که توسط روباتها و هوش مصنوعی کنترلکننده آنها پدید آمده است. چنین دیدگاهی ممکن است بسیار افراطی به نظر برسد؛ اما در حقیقت هوش مصنوعی میتواند خطرات جدی را برای بشریت در پی داشته باشد. مقصر اصلی چنین پدیدهای ممکن است خود شبکه نباشد بلکه عاملان آن، افرادی باشند که چنین شبکههایی را توسعه دادند. به طور مثال هوش مصنوعی میتواند از انسانها تقلید کند و خصیصههای نامطلوبی مانند تعصب را یاد بگیرد و آن را بیشتر گسترش دهد تا به حد غیر قابلتحملی برسد.
یکی از نمونههای اخیر چنین پدیدهای، بات توییتر مبتنی بر هوش مصنوعی بود که توسط مایکروسافت توسعه یافته است. این بات بدون هیچ پیشزمینه قبلی طراحی شده بود و نمونهای از یک فناوری بیطرف به شمار میرفت. اما تنها چندین ساعت زمان نیاز بود تا هوش مصنوعی کنترلکننده آن، به یک نژادپرست نئونازی تبدیل شود. خوشبختانه این هوش مصنوعی تنها کنترل یک بات توییتری را بر عهده داشت و وظیفه مهمتری مانند کنترل موشکهای هسته ای به آن واگذار نشده بود!
با وجود تمامی این مسائل قطعا نمیتوان هوش مصنوعی را به حال خود رها کرد و انتظار داشت که تمامی فعالیتهای آن به نفع بشریت باشد. یکی از دلایل اصلی این امر، مشارکت این شبکه در فعالیتهایی است که سازندگان آن هیچ وقت پیشبینی نکردند. به طور مثال توسعهدهندگان بات توییتری مایکروسافت هیچ وقت تصور نمیکنند چنین پدیدهای رخ دهد یا در نگاه بدبینانهتر این بات را به صورتی طراحی کرده بودند که به چنین هدفی دست پیدا کند.
در سوی دیگر هوش مصنوعی میتواند بدون قصدی برای آسیب زدن به انسانها، فعالیتهای خود را انجام دهد. اما پس از مدتی تمرکز شبکه بر روی هدف خود به قدری بالا میرود که طی روشهای مختلف مانند مصرف کردن بیش از حد منابع مورد نیاز انسانها، موجب آسیب به بشریت میشود. این در حالی است که هوش مصنوعی از ابتدا تا انتها همچنان دوستدار انسانها باقی خواهد ماند و به صورت ناخواسته به جامعه بشری آسیب میزند.
کنترل کردن هوش مصنوعی
میتوان گفت در حال حاضر دیپ مایند از نظر فناوری، پیشرفتهترین سازمان در زمینه هوش مصنوعی به شمار میرود. همچنین توانسته است بزرگترین بازیکنان جهان را در بازیهایی که هیچکس انتظارش را نداشت، شکست دهد. در سوی دیگر ثابت شده است که هوش مصنوعی فواید بسیار کاربردیتر دارد و تاکنون توانسته هزینه خنکسازی دیتاسنترهای گوگل را تا ۴۰ درصد کاهش دهد یا بهبود چشمگیری در سیستم سلامت بیمارستانهای انگلستان ایجاد کند.
تیم دیپ مایند اعتقاد دارند که مهم نیست هوش مصنوعی چقدر پیشرفت میکند؛ بلکه باید همیشه تحت کنترل انسانها قرار داشته باشد. البته آینده این امر بسیار ناواضح است زیرا نمیتوان تمامی حرکات یک شبکه را بررسی کرد. همچنین اگر همیشه نیروی انسانی برای کنترل کردن هوش مصنوعی مورد نیاز باشد، هدف اصلی ساخت آن یعنی سبک کردن وظایف انسانها، زیر سوال میرود. در نمونهای دیگر میتوان به نقش هوش مصنوعی در سیستم سلامت اشاره کرد. در حال حاضر هوش مصنوعی میتواند برای بیماران نسخه تجویز کند اما نسخههای نوشته شده حتما باید توسط ناظر مورد تایید قرار گیرند. انتظار میرود در آینده دیگر نیازی به نظارت انسانها نباشد و ۹۵ درصد نسخههای بیماران توسط هوش مصنوعی تجویز شود.
مشکل اصلی این است که نمیتوانیم مرز مشخصی برای کنترل کردن هوش مصنوعی در نظر بگیریم و اگر چنین مرزی تصور شود قطعا با باهوشتر شدن شبکه، جابهجا خواهد شد. اگر هوش مصنوعی اشتباهی را نیز مرتکب شود، به دلیل نظارت ناکافی بر روی آن، روند جلوگیری از بروز عوارض احتمالی بسیار دیر هنگام رخ خواهد داد. در مثال بالا اگر سیستم دچار مشکل فنی شود یا هک شود، ممکن است داروهای نامناسب برای بیماران تجویز گردد و قبل از متوجه شدن افراد مسئول، توسط بیماران مورد استفاده قرار گیرد.
گروه اخلاق و جامعه دیپ مایند
برای آن که بتوانیم تاثیرات هوش مصنوعی در جهان واقعی را مشاهده کنیم، تیم دیپ مایند اقدام به پژوهش پیرامون اخلاق مورد نیاز برای هوش مصنوعی کرده است تا در آینده طبق معیارها و عرفهای جامعه شکل بگیرد. گروه اخلاق و جامعه پنج شعار اصلی را سر لوحه فعالیت خود قرار داده است:
- مزیت اجتماعی: دیپ مایند سعی دارد بر روی نحوه بهبود زندگی انسان توسط هوش مصنوعی تمرکز کند و این که چگونه میتوان به کمک آن جوامعی برابرتر داشته باشیم. همچنین گفته شده که سیستم قضایی در حال حاضر از هوش مصنوعی خاصی استفاده میکند که بر مبنای نژادپرستی توسعه داده شده است. این گروه قصد دارد با مطالعه این پدیده از بروز موارد مشابه در آینده جلوگیری کند.
- تحقیقات بر اساس شواهد: تیم مذکور قصد دارد تا تمامی مدارک موجود را بررسی نماید و مطمئن شود که خطایی در طی این روند رخ نخواهد داد.
- شفافیت: گروه تحقیقاتی تضمین داده است که نتایج سایر پژوهشها بر روی عملکرد آنها تاثیری نداشته باشد و فعالیتهای آنها به صورت کامل شفاف صورت گیرد.
- تنوع بخشی: دیپ مایند تمایل دارد تا از جنبههای غیر فنی نیز پذیرای دیدگاههای کارشناسان باشد.
- جامعیت: پژوهشگران تلاش خود را میکنند تا تمامی طیفهای جامعه را در تحقیقات خود در نظر بگیرند زیرا در نهایت، هوش مصنوعی بر روی زندگی تمامی انسانها تاثیرگذار خواهد بود.
بخش تازه شکل گرفته اخلاق و جامعه بر روی چالشهای کلیدی مانند حفظ حریم شخصی، برابری، تاثیرات اقتصادی، مسئولیتپذیری، پیامدهای غیر پیشبینی شده، معیارهای مورد پذیرش و ارزشهای هوش مصنوعی تمرکز خواهد کرد. دیپ مایند امیدوار است با این پروژه به هدف اصلی خود یعنی یافتن پاسخ برای فرضیات مطرح شده پیرامون هوش مصنوعی و ایجاد شبکهای مفید برای بشریت دست پیدا کند.
نظرات