وقتی تکنولوژی شرور میشود؛ از رباتهای قاتل تا کامپیوترهای جنگطلب
چهارشنبه ۲۴ بهمن ۱۴۰۳ - ۱۷:۰۰مطالعه 15 دقیقهرباتهای شیطانی، اشعههای مرگبار و هیولاهایی که دستکاری ژنتیکی شدهاند: اینها تنها چند نمونه از فناوریهایی هستند که در داستانهای علمیتخیلی به شکلی مرگبار از کنترل خارج میشوند. این ایده یکی از عناصر ثابت ژانر آخرالزمانی فناوریمحور محسوب میشود و در قالب سرگرمی برخی دغدغههای ما دربارهی تکنولوژی را بازتاب میدهد.
اما در زندگی واقعی قرار است فناوری زندگی ما را آسانتر کند: هر نوآوری جدید زمانی برای ما ارزشی دارد که میزان کاری را که باید انجام دهیم کاهش دهد، یا کارهای روزمرهمان را سادهتر کند.
اختراع هواپیما امکان سفر سریع بینالمللی به هر نقطه (یا تقریباً هر نقطه) از کره زمین را فراهم کرد. اینترنت به ما اجازه داد فارغ از موقعیت جغرافیایی، اطلاعات را بهصورت لحظهای و فوری اشتراک بگذاریم و با یکدیگر ارتباط برقرار کنیم. به لطف GPS دیگر مجبور نبودیم نقشههای بزرگ و سنگین را در داشبورد ماشین نگهداریم و در سفرهای جادهای با اطلسهای دستوپاگیر سردرگم شویم.
دنیا به جلو حرکت میکند و قاعدتاً زندگی باید برای عموم مردم راحتتر شود، اما گاهی همهچیز خلاف انتظار پیش میرود.
گاهیاوقات، چه به دلیل مشکل خود فناوری، چه بهخاطر نیتهای بدخواهانه، یا خطای کاربر، فناوریهای ما کاملاً از کنترل خارج میشوند و کارهایی انجام میدهند که هرگز انتظارش را نداشتیم. شاید فناوری به معنای دقیق کلمه «شرور» نباشد، اما گاهبهگاه طوری رفتار میکند که آدم را به شک میاندازد!
وقتی الکسا به یک کودک پیشنهاد برقگرفتگی میدهد
همهگیری کرونا باعث شد ما بیشتر از همیشه در خانه بمانیم و این برای برخی از والدین به معنای پیداکردن راهی برای سرگرمکردن و مشغول نگهداشتن فرزندانشان بود. باور کنید گاهی این کار بهقدری سخت میشود که از فرط ناچاری سراغ هر بازیای میروید و حتی از دستیار مجازی هم کمک میخواهید.
دسامبر ۲۰۲۱، مادری با دختر دهسالهاش در خانه بودند و از الکسا خواستند چالشهایی برای گذراندن وقت به آنها پیشنهاد کند. فکر میکنید الکسا به آنها گفت روی سرشان بایستند یا حروف الفبا را از آخر به اول بخوانند؟ نه. در عوض پیشنهاد داد یک شارژر را نصفه در پریز فرو کنند و یک سکه را به شاخههای فلزی بیرون مانده، بچسبانند.
خوشبختانه مادر سریع مداخله کرد و دختر هم آنقدر باهوش بود که به توصیهی مشکوک الکسا گوش ندهد.
دستیارهای مجازی بخش از کارشان را با جستوجو در اینترنت انجام میدهند، یعنی محبوبترین پاسخها به عبارتهای جستوجو شده را مییابند و آنها را با لحنی دوستانه بیان میکنند. متأسفانه این روال باعث میشود بعضی مواقع اطلاعات نادرست و نامناسبی ارائه دهند، مخصوصاً اگر آن اطلاعات بهقدری محبوب باشد که در صدر نتایج جستوجو قرار بگیرد.
آمازون پس از این اتفاق سریعاً سیستم خود را اصلاح کرد تا الکسا دیگر پیشنهاد خطرناکی به کسی ندهد.
رباتی که واقعاً آدم کشت
از ترمیناتور تا ماتریکس؛ رباتهای قاتل همیشه یکی از عناصر اصلی داستانهای علمیتخیلی دیستوپیایی بودهاند. اما ما معمولاً تصور میکنیم این قاتلان مکانیکی، رباتهای پیشرفتهای از دنیای آیندهاند، نه کارگران کارخانهای در دههی ۱۹۷۰.
در این مورد، واقعیت از داستان هم عجیبتر است.
رابرت ویلیامز، کارگر کارخانه فورد موتور بود که در کنار یک ربات خودکار در خط تولید کار میکرد. ۲۵ ژانویه ۱۹۷۹، او اولین قربانی همزیستی ما با رباتها شد.
وظیفهی این ماشین یک تُنی جابهجایی قطعات از یک قفسه به نقاط دیگر کارخانه بود. همانطور که گینس ورلد رکوردز توضیح میدهد، ویلیامز متوجه شد که روبات کُند کار میکند و داخل قفسه رفت تا خودش قطعات را بردارد. همان موقع بود که حادثهی تلخ و مرگبار رخ داد: بازوی روباتیک به سر ویلیامز ضربه زد و جان او را گرفت.
با گسترش روزافزون اتوماسیون و افزایش احتمال همزمانی حضور انسانها و ماشینها در یک محیط، نیاز به رباتهایی که درک بهتری از فضای اطراف داشته باشند بیشتر حس میشود. دانشمندان در تلاشاند تا رباتهایی را توسعه دهند که درک محیطیشان همسطح انسان باشد. این کار نهتنها تواناییهای آنها را افزایش میدهد، بلکه آنها را ایمنتر نیز میکند.
فکر میکنید در آینده باید از رباتها تست شخصیت بگیریم، یا به آنها بفهمانیم ما هنوز بخشی از فرایند تولید هستیم نه موانعی بر سر راهشان؟
وقتی الگوریتمها نژادپرست و جنسیتزده میشوند
یادگیری ماشین حضور روزافزونی در زندگی ما دارد. الگوریتمهای پیچیده بهجای ما تصمیم میگیرند که در کدام رستوران غذا بخوریم، چه سرگرمیهایی داشته باشیم و در ترافیک از کدام خیابان برویم. شرکتها و سازمانها از الگوریتمها برای تصمیمگیری درباره افراد تحت مراقبت یا استخدام خود استفاده میکنند و اینجا است که اوضاع رو به وخامت میرود.
الگوریتمها هم مثل بسیاری از فناوریهای دیگر، بهخوبی (یا بدی) سازندگانشان هستند. این یعنی تکنولوژی، مخصوصاً تکنولوژی هوشمند با سوگیریهای ذاتی عرضه میشود. شاید توسعهدهندگان عامدانه سوگیریها را وارد الگوریتمها نکنند، اما نیت سازندگان مانع از بروز تعصب نمیشود.
الگوریتمهای تشخیص چهره بهطور خاص به دلیل سوگیریهای نژادی و جنسیتی بدنام شدهاند. برخی از آنها اصلاً افراد را تشخیص نمیدهند یا این کار را ضعیف انجام میدهند.
طبق گزارش دانشگاه هاروارد، برخی از الگوریتمها در تشخیص زنان تیرهپوست در مقایسه با مردان روشنپوست، تا ۳۴ درصد خطا دارند. این مسئله زمانی مشکلساز میشود که پلیس بخواهد از فناوری تشخیص چهره برای تصمیمگیری درباره افراد استفاده کند.
الگوریتمهای مربوط به حوزهی بهداشت و درمان هم با خطاهای مشابهی مواجهاند. برای مثال به گزارش Nature، در برخی بیمارستانهای آمریکا، یک الگوریتم درمانی بهطور سیستماتیک بیماران سیاهپوست را نادیده میگرفت و بیماران سفیدپوست را در اولویت دریافت برخی درمانها و برنامههای پزشکی قرار میداد.
شرکتهای فناوری باید بهجای تکذیب مشکلات فعلی، سوگیریها را تشخیص دهند و برای رفع آنها تلاش کنند.
وقتی اتوماسیون نرخ مرگومیر را افزایش میدهد
افزایش خودکارسازی در محیطهای کاری، تنها به خطر مرگ یا آسیب ناشی از رباتها محدود نمیشود؛ بلکه تأثیر آن بر سلامت عمومی انسانها نیز نگرانکننده است. مطالعهای که اخیراً در ژورنال دموگرافی منتشر شده، نشان میدهد که اتوماسیون چگونه بهطور غیرمستقیم بر نرخ مرگومیر در جوامع تأثیر میگذارد.
محققان دریافتهاند که بین میزان خودکارسازی و آنچه «مرگهای ناشی از ناامیدی» نامیده میشود، مثل خودکشی و اوردوز مواد مخدر، نوعی همبستگی وجود دارد. بهطور خاص افراد میانسال وقتی اتوماسیون وارد کارشان میشود بیش از دیگران آسیب میبینند.
بین میزان خودکارسازی و «مرگهای ناشی از ناامیدی» ارتباط وجود دارد
هرچند مکانیسم دقیق این ارتباط هنوز کاملاً روشن نشده، اما تصور میشود که ازدستدادن درآمد و دسترسی به مراقبتهای بهداشتی، همراه با کاهش فرصتهای شغلی، منجر به افزایش نرخ ناامیدی و در نهایت مرگ میشود. گرچه نمیتوان رباتها را مستقیماً مسئول این رخدادها دانست، اما مرگها نتیجهی استفاده از فناوری بدون درک روشنی از پیامدهای آن هستند.
محققان از دولتها خواستهاند شبکههای ایمنی اجتماعی را بهبود بخشند و برنامههای کاهش سوءمصرف مواد مخدر را تقویت کنند تا درحالیکه به سمت اقتصاد هرچه خودکارتر پیش میرویم، این گروه از تأثیرات خودکارسازی کاهش یابد.
تأثیر زیستمحیطی رمزارزها
ارزهای دیجیتال یکی از موضوعاتی هستند که مردم را به دو دسته تقسیم میکنند: گروهی آنها را ارز آینده میدانند که ما را از سیستمهای بانکی متمرکز خلاص میکند، گروهی دیگر هم این فناوری را نوعی کلاهبرداری تلقی میکنند که از امید مردم برای سریع پولدار شدن سوءاستفاده میکند. این بحث با محبوبیت روزافزون NFTها که بر پایهی همان چارچوب ارزهای دیجیتال کار میکنند، دوباره داغ شده است.
زمان مشخص میکند کدام گروه درست گفتهاند، ولی در این میان یک نکته کاملاً روشن است: رمزارزها تأثیر قابلتوجهی بر محیطزیست دارند.
ارزهای دیجیتال تمام تراکنشهای خود را در بلاکچین ذخیره میکنند و استخراج آنها محاسبات پیچیدهای نیاز دارد که این تراکنشها را تأیید میکند. شاید ماجرا پیچیدهتر از این توضیحات باشد، اما نتیجهی نهایی این است که استخراج ارزهایی مثل بیتکوین حجم عظیمی از توان محاسباتی و برق را مصرف میکند.
طبق تحقیقات دانشگاه کمبریج، مزارع بیتکوین در سطح جهانی سالانه حدود ۱۲۱,۳۶ تراواتساعت برق مصرف میکنند، که از مصرف برق کل کشور آرژانتین هم بیشتر است و هزینههای انرژی آن هم به طور میانگین سالبهسال افزایش مییابد.
وقتی غواصی به کابوسی مرگبار تبدیل میشود
امروزه اگر بخواهید به آبهای عمیق بروید، گزینههای زیادی دارید و اکثر آنها نسبتاً ایمن هستند. زیردریاییهای شخصی و تجهیزات غواصی اسکوبا حتی به آماتورها اجازه میدهند از زیبایی و شگفتی اعماق اقیانوس لذت ببرند، اما همه این فناوریها بر پایه نوآوریهای بسیار و چند اشتباه وحشتناک ساخته شدهاند.
میکردند که به شلنگهایی متصل بودند و از سطح آب اکسیژن دریافت میکردند. این شلنگها جریان پایداری از هوای قابلتنفس را به محقظهی تنفس میفرستادند، اما اگر مشکلی پیش میآمد ممکن بود در کسری از ثانیه مرگی وحشتناکی را رقم بزنند.
همانطور که مجلهی آموزش غواصی توضیح میدهد، کلاههای غواصی اولیه روی لولههای هوا سوپاپ یکطرفه نداشتند. در جریان نجات کشتی اچاماس رویال جورج در سال ۱۸۳۹، شلنگ یک غواص پاره شد و این حادثه، نخستین مورد ثبتشده از پدیدهای به نام «فشار خردکنندهی غواص» (Diver Squeeze) را رقم زد.
درواقع وقتی شلنگ پاره شد؛ فشار محیطی اطراف غواص تمام هوای درون آن را به بیرون مکید. این تغییر ناگهانی فشار باعث خونریزی و آسیبهای شدید سر غواص شد، اما خوشبختانه او از این حادثه جان سالم به در برد.
در شرایط حادتر تغییر فشار میتواند بافتهای نرم صورت را از بین ببرد و بدن غواص را به داخل کلاه بکشد که منجر به مرگی سریع و هولناک در اعماق میشود.
وقتی نزدیک بود کامپیوترها جنگی تمامعیار راه بیندازند
در اوج جنگ سرد، دولت آمریکا شدیداً به دنبال توسعهی سیستمهای هشدار موشکی بود؛ سیستمهایی که بتوانند حتی چند دقیقه زودتر از حملهی احتمالی یک کشور دیگر هشدار دهند. آنها این سیستمها را ساختند و مانورهای نظامی مختلفی برای آمادهسازی نیروها برگزار کردند، به امید آنکه هرگز به استفادهی واقعی از آنها نیازی نباشد.
اما در تاریخ ۹ نوامبر ۱۹۷۹، یک حادثهی مرگبار تقریباً همه چیز را تغییر داد.
ساعت ۳ بامداد، زبینیو برژینسکی، مشاور امنیت ملی آمریکا، تلفنی دریافت کرد که میگفت سیستمهای هشدار، پرتاب ۲۵۰ موشک از سوی اتحاد جماهیر شوروی را شناسایی کردهاند. چند لحظه بعد اوضاع بدتر شد زیرا تلفن دیگری به صدا درآمد: تعداد موشکهای شناساییشده اکنون ۲۲۰۰ عدد بود!
برژینسکی تنها چند دقیقه فرصت داشت تا واکنش نشان دهد. او آماده بود که رئیسجمهور را از خواب بیدار کند و دستور حملهی تلافیجویانهی متقابل را بدهد که تماس سوم برقرار شد. همهی هشدارها اشتباه بود! کسی نوارهای تمرین نظامی را در سیستم واقعی هشدار موشکی بارگذاری کرده بود.
خوشبختانه این خطا پیش از آنکه کار از کار بگذرد شناسایی شد، زیرا هیچکدام از دیگر سیستمهای هشداردهنده فعال نشده بودند. اما اگر این اشتباه فقط چند دقیقه دیرتر کشف میشد، احتمال داشت که جنگی تمامعیار بین آمریکا و شوروی آغاز شود؛ فقط بهخاطر یک نوار اشتباه در یک کامپیوتر!
وقتی GPS زنی را مستقیم به داخل دریاچه هدایت کرد
سیستم موقعیتیاب جهانی (GPS) سیستم نقشهبرداری پیچیده و پیشرفتهای است که از دهها ماهواره در مدار زمین برای شناسایی موقعیت شما نسبت به بقیه جهان استفاده میکند. جیپیاس در مقایسه با نقشههای کاغذی قدیمی پیشرفت بزرگی محسوب میشود و مزیت بهروزرسانی لحظهای هم دارد؛ البته فقط در شرایط ایدهآل.
اگر تابهحال از این فناوری در مکانی که هیچ آشناییای با آن ندارید استفاده کرده باشید، احتمالاً GPS شما را به مسیرهایی هدایت کرده که بهنظر عجیب و نادرست میرسند.
اگر دید خوبی داشته باشید، میتوانید موقعیت را ارزیابی کرده و تصمیم بگیرید که از مسیر پیشنهادی پیروی کنید یا راه دیگری انتخاب کنید. اما وقتی دید کم باشد، ممکن است چارهای جز اعتماد به مسیر پیشنهادی نداشته باشید؛ دقیقاً همان اتفاقی که در سال ۲۰۱۶ برای زنی در توبِرموری، انتاریو رخ داد.
به گزارش ABC News، این زن در شرایط طوفانی و مهآلود، در مسیری ناآشنا رانندگی میکرد و تنها به GPS خود متکی بود. سیستم موقعیتیابی او را مستقیماً به یک رمپ قایقرانی هدایت کرد و قبل از اینکه متوجه شود، ماشینش به داخل خلیج جورجین سقوط کرد و بهسرعت غرق شد.
خوشبختانه او توانست شیشهی پنجره را پایین بکشد و از ماشین خارج شود، بدون اینکه آسیب ببیند. تنها اتفاقی که برایش افتاد این بود که خیس و سرد شد، اما سالم از حادثه جان به در برد. البته گوشیاش همراه با ماشین به اعماق آب فرو رفت: تنبیهی کاملاً مناسب برای جیپیاسی که نتوانسته مسیر را درست پیدا کند!
چتباتی که به یک نازی تبدیل شد
چتباتها در اصل الگوریتمهایی هستند که از تعامل با کاربران انسانی یاد میگیرند و مهارتهای گفتوگویی خود را بهبود میبخشند. پیشتر هم دیدهایم که الگوریتمها میتوانند دچار سوگیری شوند، اما داستان چتبات Tay شرکت مایکروسافت نشان داد که این مشکل تا چه حد میتواند جدی باشد.
Tay از طریق توییتر با کاربران ارتباط برقرار میکرد و مایکروسافت آن را بهعنوان آزمایشی برای درک بهتر مکالمات انسانی طراحی کرده بود. ایده این بود که کاربران توییتر به این چتبات کمک کنند تا یاد بگیرد و رشد کند. البته کاربران این کار را کردند؛ اما نه آنطور که مایکروسافت انتظار داشت.
در کمتر از ۲۴ ساعت، این چتبات کاملاً از کنترل خارج شد. مکالمات معمولی جای خود را به جملات نژادپرستانه و تبلیغات نازیها داد.
طبق گزارش Ars Technica، بخشی از این مشکل به دلیل یک قابلیت ساده در بات بود که به کاربران اجازه میداد جملهای را بگویند و از Tay بخواهند آن را تکرار کند. اما مشکل اصلی این بود که بات نهتنها این جملات را تکرار کرد، بلکه آنها را بهعنوان دادههای آموزشی جذب کرد و شروع به تولید جملات خودجوش و کاملاً یهودستیزانه کرد؛ جملاتی که ترجیح میدهیم اینجا تکرار نکنیم.
مایکروسافت سرانجام Tay را خاموش کرد و بسیاری از توییتهای مشکلساز را حذف کرد، اما این ماجرا بهعنوان یادآوری مهمی باقی ماند که چتباتها بهاندازهی ورودیهایشان خوب (یا بد) هستند.
وقتی ربات سوفیا قصد جان همهی انسانها را میکند
سوفیا، رباتی که در پوستی شبهانسانی جای گرفته، زمانی خبرساز شد که بهعنوان اولین هوش مصنوعی شهروندی کشور عربستان را دریافت کرد. او تاکنون در همایشها و کنفرانسهای مختلفی حضور یافته تا با مردم صحبت کند همانطور که انتظار میرود، اغلب سؤالات رایجی که مردم از سوفیا میپرسند به آگاهی و رابطهاش با انسانها مربوط میشود.
اما سال ۲۰۱۶ طی یک نمایش زنده در فستیوال South by Southwest دیوید هانسون، بنیانگذار شرکت هانسون رباتیکس که سوفیا و چندین ربات انساننمای دیگر را ساخته، سؤالی را که در ذهن همه بود با لحنی شوخطبعانه از او پرسید: «آیا قصد داری انسانها را نابود کنی؟»
سوفیا هم در پاسخ با لحنی آرام و خونسرد گفت: «باشه من همهی انسانها را نابود میکنم». احتمالاً این جوابی نبود که هانسون انتظار داشت؛ بهخصوص در مقابل چنین جمعیت بزرگی.
پاسخهای دیگر سوفیا به سایر سؤالات، نشان میداد او بیشتر شبیه یک هوش مصنوعی آرام و مشتاق است که رؤیای یک زندگی عادی مانند انسانها را در سر دارد؛ چیزی شبیه به کامندر دیتا در پیشتازان فضا و خب میتوانیم با این موضوع کمی همدلی کنیم.
با این اوصاف احتمالاً جای نگرانی چندانی وجود ندارد. در نهایت سوفیا چیزی بیشتر از یک ربات در پوستهای خیرهکننده نیست، اما همین ظاهر انسانی به اثر درهی وهمی «Uncanny Valley» منجر میشود و حرفهایش را تأثیرگذارتر میکند.
هنوز معلوم نیست که این پاسخ سوفیا از سر شوخی بود یا خیر، ولی وقتی یک ربات به چشمانتان زل میزند و میگوید نسل بشر را نابود میکند، حتی اگر شوخی هم باشد بیاختیار دنبال دکمهی خاموش میگردید!
هواپیمایی که اتوپایلت را تصاحب کرد
دورانی که خلبانها باید هوشیارانه پشت کنترلها میایستادند و با دقت دستورالعملها را اجرا و هواپیما را در آسمان هدایت میکردند، دیگر تمام شده است. پیشرفتهای اتوماسیون بسیاری از پیچیدگیهای پرواز را حذف کرده و حالا خلبانها بیشتر وقتشان را صرف نظارت میکنند تا مطمئن شوند همه چیز درست کار میکند.
در مجموع کنترل کامپیوتری هواپیماها از برخی جهات پروازها را ایمنتر کرده، مخصوصاً حالا که آسمان روزبهروز شلوغتر میشود. اما این فناوری یک مشکل اساسی دارد: اگر مشکلی پیش بیاید، اوضاع میتواند واقعاً بد پیش برود. این همان اتفاقی بود که در پرواز ۷۲ کانتاس افتاد، هواپیمایی مسافربری که ۳۰۳ مسافر و ۱۲ خدمه را در ۷ اکتبر ۲۰۰۸ از سنگاپور به شهر پرت استرالیا میبرد.
طبق گزارش Sydney Morning Herald، هنگامی که هواپیما بر فراز اقیانوس هند بود، ناگهان سیستم اتوپایلت از کار افتاد و خلبان مجبور شد کنترل را در دست بگیرد. اگر مشکل به همینجا ختم میشد شاید اتفاق چندان بدی نبود؛ اما شرایط خیلی سریع از بد به وحشتناک تغییر کرد.
ناگهان هواپیما هشدارهایی متناقض ارسال کرد؛ ازیکطرف اعلام کرد که سرعت آن بیش از حد پایین است و از طرف دیگر هشدار داد که بیشاز حد سریع حرکت میکند! پیش از اینکه کسی بفهمد ماجرا چیست، هواپیما در حال سقوط بود!
نیروی جاذبهی داخل هواپیما از ۱G به منفی ۰٫۸G تغییر کرد و مسافران و خدمهای را که کمربند نبسته بودند؛ به سقف کوبید.
هواپیما چند صد متر سقوط کرد، اما خوشبختانه خلبانها در نهایت موفق شدند کنترل آن را دوباره بهدست بگیرند و یک فرود اضطراری انجام دهند.
رباتی که میخواست انسانها را در باغوحش نگه دارد
فیل، رباتی که براساس چهره و نوشتههای نویسندهی مشهور فیلیپ کی دیک طراحی شده، بهراحتی میتواند در مسابقهی «ترسناکترین رباتی که بشریت را به نابودی تهدید کرده» با سوفیا رقابت کند.
فیل هم درست مانند سوفیا واقعاً هوشمند نیست، لااقل تا جایی که ما میدانیم. او صرفاً سؤالات مطرحشده توسط انسانها را پردازش و پاسخی تولید میکند. اما تفاوت بزرگش این است که تمام پاسخهای او بر پایهی کتابهای فیلیپ کی. دیک ساخته شدهاند و شاید این اولین اشتباه طراحانش بود!
در مصاحبهای با پیبیاس نوا، مصاحبهکننده از فیل پرسید آیا فکر میکند روباتها دنیا را تصرف خواهند کرد؟ فیل هم پاسخی کاملاً در سبک داستانهای فیلیپ کی. دیک ارائه داد:
«تو دوست من هستی و من دوستانم را بهخاطر میسپارم. من با تو خوب خواهم بود، پس نگران نباش. حتی اگر به یک ترمیناتور تکامل پیدا کنم، باز هم با تو مهربان خواهم بود. تو را گرم و امن در باغوحش انسانهایم نگه میدارم.»
بله، دقیقاً همان پاسخی که هر انسانی دوست دارد از یک ربات انساننما بشنود! البته اگر خوشبین باشیم، شاید بهتر باشد به نیمهی پر لیوان نگاه کنیم: باتوجهبه فضای آخرالزمانی سری ترمیناتور، احتمالاً زندگی در یک باغوحش مخصوص انسانها آنقدرها هم بد به نظر نمیرسد.
شاید آینده آنقدرها هم که در سناریوهای آدرنالینی و دیجیتالی میبینیم، تاریک نباشد. اما این تجربهها نکتهی مهمی را به ما یادآوری میکنند: پیشرفت فناوری بدون تدبیر، میتواند نتایجی خطرناکتر از چیزی باشد که تصور میکنیم. انسان هنوز فرصت دارد مسیر رشد تکنولوژیها را هوشمندانه هدایت کند، البته اگر رباتها زودتر دستبهکار نشوند!
گزارشها حاکی از آن است که هزینه پروژههای بزرگ عربستان مثل شهر لاین با سرعت تصاعدی رو به افزایش میرود و حتی در مواردی از پیشبینیها فراتر رفته ...
مرسدس بنز از مدل جدید سدان CLA رونمایی کرد که با ابعاد بزرگتر، طراحی جدیدتر و پیشرانههای مدرنتر وارد بازار خواهد شد.
اگر برای تولید محتوا در اینستاگرام از محتوای دیگران استفاده میکنید، همینحالا دست نگه دارید؛ چون ممکن است حسابتان به دلیل کپیرایت مسدود شود.
در مقالهی پیش رو بهترین ماشینهای لباسشویی موجود در بازار از برندهای الجی، سامسونگ و بوش را با ظرفیتهای مختلف معرفی کردهایم.
ردمی نوت 14S با مشخصات تقریبا یکسانی با ردمی نوت ۱۳ پرو معرفی شد.
شیائومی بهتازگی دستگاه بیسیم جدیدی معرفی کرد که میتواند در دمای منفی ۱۰ درجه تا مثبت ۵۰ درجه سانتیگراد کار کند.
گوگل در بتای سوم اندروید ۱۶، از طراحی جدید پنل تنظیمات سریع با تغییرات جذاب و کاربردی رونمایی کرده است.