پیشرفت لجامگسیخته فناوری و آینده تاریک جامعه بشری
بهواسطهی شغل و رسالتی که داریم، روزانه درگیر اطلاعرسانی پیشرفتهای تکنولوژیک بشر هستیم. هر روز خبرهای زیادی منتشر میشود که اکثراً از دستاوردهای جدید بشر سخن میگویند. رویِ سخن با گوشیهای هوشمند و رایانههایی نیست که امروزه بخشی از زندگی ما شدهاند؛ بلکه منظور فناوریهایی است که در آیندهی نزدیک و شاید هم دور، تبدیل به بخشی جداناشدنی از زندگی ما خواهند شد.
از زمان گسترش استفاده از هوش مصنوعی، بحث و تبادل نظر دربارهی این مبحث بسیار شنیده شده است. عدهای باور دارند که آرمانشهرِ مورد نظرِ انسان، در گرو تحقق استفاده فراگیر از هوش مصنوعی است؛ حال آنکه برخی دیگر باور دارند هوش مصنوعی میتواند به خطری حتی بزرگتر از جنگ هستهای تبدیل شود. از آنجایی که مقالههای مفصلی در این باره نوشته شده است، بحث را کوتاه میکنیم تا به موضوعی کلیتر بپردازیم که کمتر دربارهی آن صحبت شده است.
آیا رسوخ بیشتر فناوری در زندگی ما، لزوماً با فایده همراه است؟
ریشهی شکلگیری این پرسش، به خبری برمیگردد که چندی پیش در رسانههای فناوری منتشر شد:
«ایلان ماسک، در حال تأسیس شرکتی برای پیوند مغز با کامپیوتر است!»
وقتی که وارد لینک خبر میشویم، همه چیز در ابتدا عالی، مفید و آرمانی به نظر میرسد. اینکه بتوان با کارگذاری یک تراشه در بین شبکههای عصبی مغز، بسیاری از ناتوانیهای جسمی مانند، ناتوانی در حرکت دادن اعضای بدن، توانایی پیوند دست و پا و عملکرد دقیق آنها و... را فراهم کرد، نوید یک جهش بزرگ در حوزه تکنولوژی و پزشکی میدهد.
بعدها در مصاحبههای ایلان ماسک، از رؤیای او برای پیوند دنیای مجازی به دنیای حقیقی خواندیم؛ پیوندی که این بار قرار است در خصوصیترین عضو ما، یعنی مغز اتفاق بیافتد؛ ناگهان موجی از تفکرات به ذهن هجوم میآورند!
اگر پیوند مغز با دنیای ماشین، روزی به وقوع بپیوندد، چه در انتظار بشریت خواهد بود؟ آیا خاطرات و تفکراتی که تنها خود ما از آنها مطلع هستیم و حتی دوست نداریم آن را با نزدیکترین افراد در میان بگذاریم نیز به جرگهی اطلاعات قابل دسترس و دستبرد خواهند پیوست؟
وقتی کمی بیشتر به این موضوع فکر کنید، قطعاً امکان وقوع چنین فاجعهای را دور از ذهن نخواهید دید.
ایلان ماسک هدف خود از این کار را علاوه بر توانبخشی به ناتوانهای جسمی، تقویت مغز انسانهای سالم برای جانماندن از خروش هوش مصنوعی در دهههای آینده عنوان میکند؛ تقویتی که وقوع آن به ارتباط همیشگی مغز با دنیای اینترنت بستگی دارد و از آنجایی که دنیای اینترنت همواره با خطراتی همچون هک و سرقت اطلاعات همراه است، میتوان اینطور نتیجه گرفت که دسترسی به دادهها و اطلاعاتِ مغز ما نیز تبدیل به امری ممکن میشود.
امکان دسترسی به اطلاعات مغز از جهتِ شیوهی کارکرد این تراشه ممکن میشود. شیوهی کارِ این تراشه به این گونه خواهد بود که اطلاعات مورد نیاز را بهصورت دادههایی قابل فهم برای مغز انسان تبدیل میکند؛ از طرفی دیگر برای ارسال دستورات از مغز به تراشه، باید تمام پالسهای عصبی به دادههای صفر و یک تبدیل شوند تا برای رایانه قابل فهم باشند.
وقتی خطرات یک موضوع بسیار عیانتر از فواید آن است، نمیتوان سکوت اختیار کرد و منتظر ماند تا زمان همهچیز را مشخص کند. ارتباط با اینترنت یعنی اینکه احتمال هک شدن شما وجود دارد و این موضوع در مورد اتومبیلهای خودران و هوشمندی که قرار است در آیندهی نزدیک وارد زندگیهای ما شوند نیز صدق میکند.
در این بین بد نیست اشارهای به سریال آینهی سیاه (Black Mirror) داشته باشیم که این نگرانی نسبت به آینده را با دیدهای بدون تعصب به تصویر میکشد. در یکی از اپیزودهای این سریال، به تراشههای یادشده پرداخته میشود تا خطرات این دستگاهها را به زیبایی نمایش دهد.
در یکی از سکانسهای این قسمت اتفاق جالبی میافتد. فردی برای سفر به نقطهی دیگری از کشور، وارد فرودگاه میشود؛ اما بازرسی قبل از ورود به هواپیما تنها به وسایل ختم نمیشود و اینبار مأمور فرودگاه بهمنظور آگاهی از تصمیم برای حملهی تروریستی، تراشه را برای بررسی خاطرات در دستگاهی قرار میدهد و تمام خاطرات را به مانند فیلمی ضبطشده، با سرعت بالا پخش میکند. سپس برای اطمینان از نبود خاطرات تهدیدآمیز، به نظارهی تصاویر مینشیند.
پیامی که این قسمت حاوی آن بود، خطر کنترلِ تفکراتِ افراد جامعه در کشورهایی مانند کره شمالی است. در دنیای امروز، حکومتهای دیکتاتوری شاید بتوانند در ظاهر، افراد جامعه را کنترل کنند؛ اما هرگز نخواهند توانست فکر و اندیشهی آنها را نسبت به خود تغییر دهند؛ حال آنکه با فراگیر شدن این تراشهها میتوان انتظار داشت که افراد نهتنها در ظاهر، بلکه حتی در فکر خود نیز نتوانند کوچکترین اندیشهای خلاف نظر حکومتها داشته باشند.
حال ایلان ماسکی که دائما در محافل تکنولوژی از خطر بالقوه هوش مصنوعی برای جامعهی انسانی سخن میگوید، خود قدم در راهی نهاده است که اگر بیشتر از هوش مصنوعیِ مد نظرِ او خطر نداشته باشد، کمتر از آن خطر ندارد.