تصویر ربات با چشم‌های قرمز با بک‌گراند قرمز

وقتی تکنولوژی شرور می‌شود؛ از ربات‌های قاتل تا کامپیوترهای جنگ‌طلب

چهارشنبه ۲۴ بهمن ۱۴۰۳ - ۲۰:۳۰مطالعه 15 دقیقه
فناوری همیشه مطابق میل سازندگانش عمل نمی‌کند؛ ‌گاهی اشتباه می‌کند و گاهی عصیان، یا حتی ممکن است تصمیم بگیرد دنیا را نابود کند.
تبلیغات

ربات‌های شیطانی، اشعه‌های مرگبار و هیولاهایی که دست‌کاری ژنتیکی شده‌اند: این‌ها تنها چند نمونه از فناوری‌هایی هستند که در داستان‌های علمی‌تخیلی به شکلی مرگبار از کنترل خارج می‌شوند. این ایده یکی از عناصر ثابت ژانر آخرالزمانی فناوری‌محور محسوب می‌شود و در قالب سرگرمی برخی دغدغه‌های ما درباره‌ی تکنولوژی را بازتاب می‌دهد.

اما در زندگی واقعی قرار است فناوری زندگی ما را آسان‌تر کند: هر نوآوری جدید زمانی برای ما ارزشی دارد که میزان کاری را که باید انجام دهیم کاهش دهد، یا کارهای روزمره‌مان را ساده‌تر کند.

اختراع هواپیما امکان سفر سریع بین‌المللی به هر نقطه (یا تقریباً هر نقطه) از کره زمین را فراهم کرد. اینترنت به ما اجازه داد فارغ از موقعیت جغرافیایی، اطلاعات را به‌صورت لحظه‌ای و فوری اشتراک بگذاریم و با یکدیگر ارتباط برقرار کنیم. به لطف GPS دیگر مجبور نبودیم نقشه‌های بزرگ و سنگین را در داشبورد ماشین نگه‌داریم و در سفرهای جاده‌ای با اطلس‌های دست‌وپاگیر سردرگم شویم.

دنیا به جلو حرکت می‌کند و قاعدتاً زندگی باید برای عموم مردم راحت‌تر شود، اما گاهی همه‌چیز خلاف انتظار پیش می‌رود.

گاهی‌اوقات، چه به دلیل مشکل خود فناوری، چه به‌خاطر نیت‌های بدخواهانه، یا خطای کاربر، فناوری‌های ما کاملاً از کنترل خارج می‌شوند و کارهایی انجام می‌دهند که هرگز انتظارش را نداشتیم. شاید فناوری به معنای دقیق کلمه «شرور» نباشد، اما گاه‌به‌گاه طوری رفتار می‌کند که آدم را به شک می‌اندازد!

کپی لینک

وقتی الکسا به یک کودک پیشنهاد برق‌گرفتگی می‌دهد

همه‌گیری کرونا باعث شد ما بیشتر از همیشه در خانه بمانیم و این برای برخی از والدین به معنای پیداکردن راهی برای سرگرم‌کردن و مشغول نگه‌داشتن فرزندانشان بود. باور کنید گاهی این کار به‌قدری سخت می‌شود که از فرط ناچاری سراغ هر بازی‌ای می‌روید و حتی از دستیار مجازی هم کمک می‌خواهید.

دسامبر ۲۰۲۱، مادری با دختر ده‌ساله‌اش در خانه بودند و از الکسا خواستند چالش‌هایی برای گذراندن وقت به آن‌ها پیشنهاد کند. فکر می‌کنید الکسا به آن‌ها گفت روی سرشان بایستند یا حروف الفبا را از آخر به اول بخوانند؟ نه. در عوض پیشنهاد داد یک شارژر را نصفه در پریز فرو کنند و یک سکه را به شاخه‌های فلزی بیرون مانده، بچسبانند.

خوشبختانه مادر سریع مداخله کرد و دختر هم آن‌قدر باهوش بود که به توصیه‌ی مشکوک الکسا گوش ندهد.

دستیارهای مجازی بخش از کارشان را با جست‌وجو در اینترنت انجام می‌دهند، یعنی محبوب‌ترین پاسخ‌ها به عبارت‌های جست‌وجو شده را می‌یابند و آن‌ها را با لحنی دوستانه بیان می‌کنند. متأسفانه این روال باعث می‌شود بعضی مواقع اطلاعات نادرست و نامناسبی ارائه دهند، مخصوصاً اگر آن اطلاعات به‌قدری محبوب باشد که در صدر نتایج جست‌وجو قرار بگیرد.

آمازون پس از این اتفاق سریعاً سیستم خود را اصلاح کرد تا الکسا دیگر پیشنهاد خطرناکی به کسی ندهد.

کپی لینک

رباتی که واقعاً آدم کشت

از ترمیناتور تا ماتریکس؛ ربات‌های قاتل همیشه یکی از عناصر اصلی داستان‌های علمی‌تخیلی دیستوپیایی بوده‌اند. اما ما معمولاً تصور می‌کنیم این قاتلان مکانیکی، ربات‌های پیشرفته‌ای از دنیای آینده‌اند، نه کارگران کارخانه‌ای در دهه‌ی ۱۹۷۰.

در این مورد، واقعیت از داستان هم عجیب‌تر است.

رابرت ویلیامز، کارگر کارخانه فورد موتور بود که در کنار یک ربات خودکار در خط تولید کار می‌کرد. ۲۵ ژانویه ۱۹۷۹، او اولین قربانی هم‌زیستی ما با ربات‌ها شد.

وظیفه‌ی این ماشین یک تُنی جابه‌جایی قطعات از یک قفسه به نقاط دیگر کارخانه بود. همان‌طور که گینس ورلد رکوردز توضیح می‌دهد، ویلیامز متوجه شد که روبات کُند کار می‌کند و داخل قفسه رفت تا خودش قطعات را بردارد. همان موقع بود که حادثه‌ی تلخ و مرگبار رخ داد: بازوی روباتیک به سر ویلیامز ضربه زد و جان او را گرفت.

با گسترش روزافزون اتوماسیون و افزایش احتمال هم‌زمانی حضور انسان‌ها و ماشین‌ها در یک محیط، نیاز به ربات‌هایی که درک بهتری از فضای اطراف داشته باشند بیشتر حس می‌شود. دانشمندان در تلاش‌اند تا ربات‌هایی را توسعه دهند که درک محیطی‌شان هم‌سطح انسان باشد. این کار نه‌تنها توانایی‌های آن‌ها را افزایش می‌دهد، بلکه آن‌ها را ایمن‌تر نیز می‌کند.

فکر می‌کنید در آینده باید از ربات‌ها تست شخصیت بگیریم، یا به آن‌ها بفهمانیم ما هنوز بخشی از فرایند تولید هستیم نه موانعی بر سر راهشان؟

کپی لینک

وقتی الگوریتم‌ها نژادپرست و جنسیت‌زده می‌شوند

یادگیری ماشین حضور روزافزونی در زندگی ما دارد. الگوریتم‌های پیچیده به‌جای ما تصمیم می‌گیرند که در کدام رستوران غذا بخوریم، چه سرگرمی‌هایی داشته باشیم و در ترافیک از کدام خیابان برویم. شرکت‌ها و سازمان‌ها از الگوریتم‌ها برای تصمیم‌گیری درباره افراد تحت مراقبت یا استخدام خود استفاده می‌کنند و اینجا است که اوضاع رو به وخامت می‌رود.

الگوریتم‌ها هم مثل بسیاری از فناوری‌های دیگر، به‌خوبی (یا بدی) سازندگانشان هستند. این یعنی تکنولوژی، مخصوصاً تکنولوژی هوشمند با سوگیری‌های ذاتی عرضه می‌شود. شاید توسعه‌دهندگان عامدانه سوگیری‌ها را وارد الگوریتم‌ها نکنند، اما نیت سازندگان مانع از بروز تعصب نمی‌شود.

الگوریتم‌های تشخیص چهره به‌طور خاص به دلیل سوگیری‌های نژادی و جنسیتی بدنام شده‌اند. برخی از آن‌ها اصلاً افراد را تشخیص نمی‌دهند یا این کار را ضعیف انجام می‌دهند.

طبق گزارش دانشگاه هاروارد، برخی از الگوریتم‌ها در تشخیص زنان تیره‌پوست در مقایسه با مردان روشن‌پوست، تا ۳۴ درصد خطا دارند. این مسئله زمانی مشکل‌ساز می‌شود که پلیس بخواهد از فناوری تشخیص چهره برای تصمیم‌گیری درباره افراد استفاده کند.

الگوریتم‌های مربوط به حوزه‌ی بهداشت و درمان هم با خطاهای مشابهی مواجه‌اند. برای مثال به گزارش Nature، در برخی بیمارستان‌های آمریکا، یک الگوریتم درمانی به‌طور سیستماتیک بیماران سیاه‌پوست را نادیده می‌گرفت و بیماران سفیدپوست را در اولویت دریافت برخی درمان‌ها و برنامه‌های پزشکی قرار می‌داد.

شرکت‌های فناوری باید به‌جای تکذیب مشکلات فعلی، سوگیری‌ها را تشخیص دهند و برای رفع آن‌ها تلاش کنند.

کپی لینک

وقتی اتوماسیون نرخ مرگ‌ومیر را افزایش می‌دهد

افزایش خودکارسازی در محیط‌های کاری، تنها به خطر مرگ یا آسیب ناشی از ربات‌ها محدود نمی‌شود؛ بلکه تأثیر آن بر سلامت عمومی انسان‌ها نیز نگران‌کننده است. مطالعه‌ای که اخیراً در ژورنال دموگرافی منتشر شده، نشان می‌دهد که اتوماسیون چگونه به‌طور غیرمستقیم بر نرخ مرگ‌ومیر در جوامع تأثیر می‌گذارد.

محققان دریافته‌اند که بین میزان خودکارسازی و آنچه «مرگ‌های ناشی از ناامیدی» نامیده می‌شود، مثل خودکشی و اوردوز مواد مخدر، نوعی همبستگی وجود دارد. به‌طور خاص افراد میان‌سال وقتی اتوماسیون وارد کارشان می‌شود بیش از دیگران آسیب می‌بینند.

بین میزان خودکارسازی و «مرگ‌های ناشی از ناامیدی» ارتباط وجود دارد

هرچند مکانیسم دقیق این ارتباط هنوز کاملاً روشن نشده، اما تصور می‌شود که ازدست‌دادن درآمد و دسترسی به مراقبت‌های بهداشتی، همراه با کاهش فرصت‌های شغلی، منجر به افزایش نرخ ناامیدی و در نهایت مرگ می‌شود. گرچه نمی‌توان ربات‌ها را مستقیماً مسئول این رخدادها دانست، اما مرگ‌ها نتیجه‌ی استفاده از فناوری بدون درک روشنی از پیامدهای آن هستند.

محققان از دولت‌ها خواسته‌اند شبکه‌های ایمنی اجتماعی را بهبود بخشند و برنامه‌های کاهش سوءمصرف مواد مخدر را تقویت کنند تا درحالی‌که به سمت اقتصاد هرچه خودکارتر پیش می‌رویم، این گروه از تأثیرات خودکارسازی کاهش یابد.

کپی لینک

تأثیر زیست‌محیطی رمزارزها

ارزهای دیجیتال یکی از موضوعاتی هستند که مردم را به دو دسته تقسیم می‌کنند: گروهی آن‌ها را ارز آینده می‌دانند که ما را از سیستم‌های بانکی متمرکز خلاص می‌کند، گروهی دیگر هم این فناوری را نوعی کلاهبرداری تلقی می‌کنند که از امید مردم برای سریع پولدار شدن سوءاستفاده می‌کند. این بحث با محبوبیت روزافزون NFTها که بر پایه‌ی همان چارچوب ارزهای دیجیتال کار می‌کنند، دوباره داغ شده است.

زمان مشخص می‌کند کدام گروه درست گفته‌اند، ولی در این میان یک نکته کاملاً روشن است: رمزارزها تأثیر قابل‌توجهی بر محیط‌زیست دارند.

ارزهای دیجیتال تمام تراکنش‌های خود را در بلاک‌چین ذخیره می‌کنند و استخراج آن‌ها محاسبات پیچیده‌ای نیاز دارد که این تراکنش‌ها را تأیید می‌کند. شاید ماجرا پیچیده‌تر از این توضیحات باشد، اما نتیجه‌ی نهایی این است که استخراج ارزهایی مثل بیت‌کوین حجم عظیمی از توان محاسباتی و برق را مصرف می‌کند.

طبق تحقیقات دانشگاه کمبریج، مزارع بیت‌کوین در سطح جهانی سالانه حدود ۱۲۱,۳۶ تراوات‌ساعت برق مصرف می‌کنند، که از مصرف برق کل کشور آرژانتین هم بیشتر است و هزینه‌های انرژی آن هم به طور میانگین سال‌به‌سال افزایش می‌یابد.

کپی لینک

وقتی غواصی به کابوسی مرگبار تبدیل می‌شود

امروزه اگر بخواهید به آب‌های عمیق بروید، گزینه‌های زیادی دارید و اکثر آن‌ها نسبتاً ایمن هستند. زیردریایی‌های شخصی و تجهیزات غواصی اسکوبا حتی به آماتورها اجازه می‌دهند از زیبایی و شگفتی اعماق اقیانوس لذت ببرند، اما همه این فناوری‌ها بر پایه نوآوری‌های بسیار و چند اشتباه وحشتناک ساخته شده‌اند.

می‌کردند که به شلنگ‌هایی متصل بودند و از سطح آب اکسیژن دریافت می‌کردند. این شلنگ‌ها جریان پایداری از هوای قابل‌تنفس را به محقظه‌ی تنفس می‌فرستادند، اما اگر مشکلی پیش می‌آمد ممکن بود در کسری از ثانیه مرگی وحشتناکی را رقم بزنند.

همان‌طور که مجله‌ی آموزش غواصی توضیح می‌دهد، کلاه‌های غواصی اولیه روی لوله‌های هوا سوپاپ یک‌طرفه نداشتند. در جریان نجات کشتی اچ‌ام‌اس رویال جورج در سال ۱۸۳۹، شلنگ یک غواص پاره شد و این حادثه، نخستین مورد ثبت‌شده از پدیده‌ای به نام «فشار خردکننده‌ی غواص» (Diver Squeeze) را رقم زد.

درواقع وقتی شلنگ پاره شد؛ فشار محیطی اطراف غواص تمام هوای درون آن را به بیرون مکید. این تغییر ناگهانی فشار باعث خونریزی و آسیب‌های شدید سر غواص شد، اما خوشبختانه او از این حادثه جان سالم به در برد.

در شرایط حادتر تغییر فشار می‌تواند بافت‌های نرم صورت را از بین ببرد و بدن غواص را به داخل کلاه بکشد که منجر به مرگی سریع و هولناک در اعماق می‌شود.

کپی لینک

وقتی نزدیک بود کامپیوترها جنگی تمام‌عیار راه بیندازند

در اوج جنگ سرد، دولت آمریکا شدیداً به دنبال توسعه‌ی سیستم‌های هشدار موشکی بود؛ سیستم‌هایی که بتوانند حتی چند دقیقه زودتر از حمله‌ی احتمالی یک کشور دیگر هشدار دهند. آن‌ها این سیستم‌ها را ساختند و مانورهای نظامی مختلفی برای آماده‌سازی نیروها برگزار کردند، به امید آنکه هرگز به استفاده‌ی واقعی از آن‌ها نیازی نباشد.

اما در تاریخ ۹ نوامبر ۱۹۷۹، یک حادثه‌ی مرگبار تقریباً همه چیز را تغییر داد.

ساعت ۳ بامداد، زبینیو برژینسکی، مشاور امنیت ملی آمریکا، تلفنی دریافت کرد که می‌گفت سیستم‌های هشدار، پرتاب ۲۵۰ موشک از سوی اتحاد جماهیر شوروی را شناسایی کرده‌اند. چند لحظه بعد اوضاع بدتر شد زیرا تلفن دیگری به صدا درآمد: تعداد موشک‌های شناسایی‌شده اکنون ۲۲۰۰ عدد بود!

برژینسکی تنها چند دقیقه فرصت داشت تا واکنش نشان دهد. او آماده بود که رئیس‌جمهور را از خواب بیدار کند و دستور حمله‌ی تلافی‌جویانه‌ی متقابل را بدهد که تماس سوم برقرار شد. همه‌ی هشدارها اشتباه بود! کسی نوارهای تمرین نظامی را در سیستم واقعی هشدار موشکی بارگذاری کرده بود.

خوشبختانه این خطا پیش از آنکه کار از کار بگذرد شناسایی شد، زیرا هیچ‌کدام از دیگر سیستم‌های هشداردهنده فعال نشده بودند. اما اگر این اشتباه فقط چند دقیقه دیرتر کشف می‌شد، احتمال داشت که جنگی تمام‌عیار بین آمریکا و شوروی آغاز شود؛ فقط به‌خاطر یک نوار اشتباه در یک کامپیوتر!

کپی لینک

وقتی GPS زنی را مستقیم به داخل دریاچه هدایت کرد

سیستم موقعیت‌یاب جهانی (GPS) سیستم نقشه‌برداری پیچیده و پیشرفته‌ای است که از ده‌ها ماهواره در مدار زمین برای شناسایی موقعیت شما نسبت به بقیه جهان استفاده می‌کند. جی‌پی‌اس در مقایسه با نقشه‌های کاغذی قدیمی پیشرفت بزرگی محسوب می‌شود و مزیت به‌روزرسانی لحظه‌ای هم دارد؛ البته فقط در شرایط ایده‌آل.

اگر تابه‌حال از این فناوری در مکانی که هیچ آشنایی‌ای با آن ندارید استفاده کرده باشید، احتمالاً GPS شما را به مسیرهایی هدایت کرده که به‌نظر عجیب و نادرست می‌رسند.

اگر دید خوبی داشته باشید، می‌توانید موقعیت را ارزیابی کرده و تصمیم بگیرید که از مسیر پیشنهادی پیروی کنید یا راه دیگری انتخاب کنید. اما وقتی دید کم باشد، ممکن است چاره‌ای جز اعتماد به مسیر پیشنهادی نداشته باشید؛ دقیقاً همان اتفاقی که در سال ۲۰۱۶ برای زنی در توبِرموری، انتاریو رخ داد.

به گزارش ABC News، این زن در شرایط طوفانی و مه‌آلود، در مسیری ناآشنا رانندگی می‌کرد و تنها به GPS خود متکی بود. سیستم موقعیت‌یابی او را مستقیماً به یک رمپ قایق‌رانی هدایت کرد و قبل از اینکه متوجه شود، ماشینش به داخل خلیج جورجین سقوط کرد و به‌سرعت غرق شد.

خوشبختانه او توانست شیشه‌ی پنجره را پایین بکشد و از ماشین خارج شود، بدون اینکه آسیب ببیند. تنها اتفاقی که برایش افتاد این بود که خیس و سرد شد، اما سالم از حادثه جان به در برد. البته گوشی‌اش همراه با ماشین به اعماق آب فرو رفت: تنبیهی کاملاً مناسب برای جی‌پی‌اسی که نتوانسته مسیر را درست پیدا کند!

کپی لینک

چت‌باتی که به یک نازی تبدیل شد

چت‌بات‌ها در اصل الگوریتم‌هایی هستند که از تعامل با کاربران انسانی یاد می‌گیرند و مهارت‌های گفت‌وگویی خود را بهبود می‌بخشند. پیش‌تر هم دیده‌ایم که الگوریتم‌ها می‌توانند دچار سوگیری شوند، اما داستان چت‌بات Tay شرکت مایکروسافت نشان داد که این مشکل تا چه حد می‌تواند جدی باشد.

Tay از طریق توییتر با کاربران ارتباط برقرار می‌کرد و مایکروسافت آن را به‌عنوان آزمایشی برای درک بهتر مکالمات انسانی طراحی کرده بود. ایده این بود که کاربران توییتر به این چت‌بات کمک کنند تا یاد بگیرد و رشد کند. البته کاربران این کار را کردند؛ اما نه آن‌طور که مایکروسافت انتظار داشت.

در کمتر از ۲۴ ساعت، این چت‌بات کاملاً از کنترل خارج شد. مکالمات معمولی جای خود را به جملات نژادپرستانه و تبلیغات نازی‌ها داد.

طبق گزارش Ars Technica، بخشی از این مشکل به دلیل یک قابلیت ساده در بات بود که به کاربران اجازه می‌داد جمله‌ای را بگویند و از Tay بخواهند آن را تکرار کند. اما مشکل اصلی این بود که بات نه‌تنها این جملات را تکرار کرد، بلکه آن‌ها را به‌عنوان داده‌های آموزشی جذب کرد و شروع به تولید جملات خودجوش و کاملاً یهودستیزانه کرد؛ جملاتی که ترجیح می‌دهیم اینجا تکرار نکنیم.

مایکروسافت سرانجام Tay را خاموش کرد و بسیاری از توییت‌های مشکل‌ساز را حذف کرد، اما این ماجرا به‌عنوان یادآوری مهمی باقی ماند که چت‌بات‌ها به‌اندازه‌ی ورودی‌هایشان خوب (یا بد) هستند.

کپی لینک

وقتی ربات سوفیا قصد جان همه‌ی انسان‌ها را می‌کند

سوفیا، رباتی که در پوستی شبه‌انسانی جای گرفته، زمانی خبرساز شد که به‌عنوان اولین هوش مصنوعی شهروندی کشور عربستان را دریافت کرد. او تاکنون در همایش‌ها و کنفرانس‌های مختلفی حضور یافته تا با مردم صحبت کند همان‌طور که انتظار می‌رود، اغلب سؤالات رایجی که مردم از سوفیا می‌پرسند به آگاهی و رابطه‌اش با انسان‌ها مربوط می‌شود.

اما سال ۲۰۱۶ طی یک نمایش زنده در فستیوال South by Southwest دیوید هانسون، بنیان‌گذار شرکت هانسون رباتیکس که سوفیا و چندین ربات انسان‌نمای دیگر را ساخته، سؤالی را که در ذهن همه بود با لحنی شوخ‌طبعانه از او پرسید: «آیا قصد داری انسان‌ها را نابود کنی؟»

سوفیا هم در پاسخ با لحنی آرام و خونسرد گفت: «باشه من همه‌ی انسان‌ها را نابود می‌کنم». احتمالاً این جوابی نبود که هانسون انتظار داشت؛ به‌خصوص در مقابل چنین جمعیت بزرگی.

پاسخ‌های دیگر سوفیا به سایر سؤالات، نشان می‌داد او بیشتر شبیه یک هوش مصنوعی آرام و مشتاق است که رؤیای یک زندگی عادی مانند انسان‌ها را در سر دارد؛ چیزی شبیه به کامندر دیتا در پیشتازان فضا و خب می‌توانیم با این موضوع کمی همدلی کنیم.

با این اوصاف احتمالاً جای نگرانی چندانی وجود ندارد. در نهایت سوفیا چیزی بیشتر از یک ربات در پوسته‌ای خیره‌کننده نیست، اما همین ظاهر انسانی به اثر دره‌ی وهمی «Uncanny Valley» منجر می‌شود و حرفهایش را تأثیرگذارتر می‌کند.

هنوز معلوم نیست که این پاسخ سوفیا از سر شوخی بود یا خیر، ولی وقتی یک ربات به چشمانتان زل می‌زند و می‌گوید نسل بشر را نابود می‌کند، حتی اگر شوخی هم باشد بی‌اختیار دنبال دکمه‌ی خاموش می‌گردید!

کپی لینک

هواپیمایی که اتوپایلت را تصاحب کرد

آسیب داخلی هواپیمای مسافربری Qantas پرواز ۷۲ اکتبر سال ۲۰۰۸
هواپیمای مسافربری Qantas روی باند فرودگاه

دورانی که خلبان‌ها باید هوشیارانه پشت کنترل‌ها می‌ایستادند و با دقت دستورالعمل‌ها را اجرا و هواپیما را در آسمان هدایت می‌کردند، دیگر تمام شده است. پیشرفت‌های اتوماسیون بسیاری از پیچیدگی‌های پرواز را حذف کرده و حالا خلبان‌ها بیشتر وقتشان را صرف نظارت می‌کنند تا مطمئن شوند همه چیز درست کار می‌کند.

در مجموع کنترل کامپیوتری هواپیماها از برخی جهات پروازها را ایمن‌تر کرده، مخصوصاً حالا که آسمان روزبه‌روز شلوغ‌تر می‌شود. اما این فناوری یک مشکل اساسی دارد: اگر مشکلی پیش بیاید، اوضاع می‌تواند واقعاً بد پیش برود. این همان اتفاقی بود که در پرواز ۷۲ کانتاس افتاد، هواپیمایی مسافربری‌ که ۳۰۳ مسافر و ۱۲ خدمه را در ۷ اکتبر ۲۰۰۸ از سنگاپور به شهر پرت استرالیا می‌برد.

طبق گزارش Sydney Morning Herald، هنگامی که هواپیما بر فراز اقیانوس هند بود، ناگهان سیستم اتوپایلت از کار افتاد و خلبان مجبور شد کنترل را در دست بگیرد. اگر مشکل به همین‌جا ختم می‌شد شاید اتفاق چندان بدی نبود؛ اما شرایط خیلی سریع از بد به وحشتناک تغییر کرد.

ناگهان هواپیما هشدارهایی متناقض ارسال کرد؛ ازیک‌طرف اعلام کرد که سرعت آن بیش از حد پایین است و از طرف دیگر هشدار داد که بیش‌از حد سریع حرکت می‌کند! پیش از اینکه کسی بفهمد ماجرا چیست، هواپیما در حال سقوط بود!

نیروی جاذبه‌ی داخل هواپیما از ۱G به منفی ۰٫۸G تغییر کرد و مسافران و خدمه‌ای را که کمربند نبسته بودند؛ به سقف کوبید.

هواپیما چند صد متر سقوط کرد، اما خوشبختانه خلبان‌ها در نهایت موفق شدند کنترل آن را دوباره به‌دست بگیرند و یک فرود اضطراری انجام دهند.

کپی لینک

رباتی که می‌خواست انسان‌ها را در باغ‌وحش نگه دارد

فیل، رباتی که براساس چهره و نوشته‌های نویسنده‌ی مشهور فیلیپ کی دیک طراحی شده، به‌راحتی می‌تواند در مسابقه‌ی «ترسناک‌ترین رباتی که بشریت را به نابودی تهدید کرده» با سوفیا رقابت کند.

فیل هم درست مانند سوفیا واقعاً هوشمند نیست، لااقل تا جایی که ما می‌دانیم. او صرفاً سؤالات مطرح‌شده توسط انسان‌ها را پردازش و پاسخی تولید می‌کند. اما تفاوت بزرگش این است که تمام پاسخ‌های او بر پایه‌ی کتاب‌های فیلیپ کی. دیک ساخته شده‌اند و شاید این اولین اشتباه طراحانش بود!

در مصاحبه‌ای با پی‌بی‌اس نوا، مصاحبه‌کننده از فیل پرسید آیا فکر می‌کند روبات‌ها دنیا را تصرف خواهند کرد؟ فیل هم پاسخی کاملاً در سبک داستان‌های فیلیپ کی. دیک ارائه داد:

«تو دوست من هستی و من دوستانم را به‌خاطر می‌سپارم. من با تو خوب خواهم بود، پس نگران نباش. حتی اگر به یک ترمیناتور تکامل پیدا کنم، باز هم با تو مهربان خواهم بود. تو را گرم و امن در باغ‌وحش انسان‌هایم نگه می‌دارم.»

بله، دقیقاً همان پاسخی که هر انسانی دوست دارد از یک ربات انسان‌نما بشنود! البته اگر خوش‌بین باشیم، شاید بهتر باشد به نیمه‌ی پر لیوان نگاه کنیم: باتوجه‌به فضای آخرالزمانی سری ترمیناتور، احتمالاً زندگی در یک باغ‌وحش مخصوص انسان‌ها آن‌قدرها هم بد به نظر نمی‌رسد.

شاید آینده آن‌قدرها هم که در سناریوهای آدرنالینی و دیجیتالی می‌بینیم، تاریک نباشد. اما این تجربه‌ها نکته‌ی مهمی را به ما یادآوری می‌کنند: پیشرفت فناوری بدون تدبیر، می‌تواند نتایجی خطرناک‌تر از چیزی باشد که تصور می‌کنیم. انسان هنوز فرصت دارد مسیر رشد تکنولوژی‌ها را هوشمندانه هدایت کند، البته اگر ربات‌ها زودتر دست‌به‌کار نشوند!

مقاله رو دوست داشتی؟
نظرت چیه؟
داغ‌ترین مطالب روز
تبلیغات

نظرات

تبلیغات
پخش از رسانه
coming soon...