ویدیوی جنجالی استفاده از دو کودک برای آزمایش سیستم خودران تسلا، از یوتیوب حذف شد
شماری از رانندگان خودروهای تسلا برای بررسی ایمنی سیستم خودران آزمایشهایی را طراحی کردند و ویدیوی آن را در شبکههای اجتماعی دردسترس قرار دادند. آنطور که ورج مینویسد، زمان کوتاهی پس از انتشار ویدئو، یوتیوب تصمیم گرفت آن را حذف کند.
در ویدیوی مورد اشاره چند راننده تواناییهای سیستم Full Self-Driving (یا FSD) تسلا را در سناریوهای مختلف بررسی میکنند تا ببینند که آیا واقعاً شایعههای شناسایی نشدن کودکان توسط حسگرهای خودروی تسلا حقیقت دارد یا نه.
در ویدیوی بررسی سیستم خودران تسلا که با عنوان «آیا بتای Full Self-Driving تسلا واقعاً بچهها را زیر میگیرد؟» در کانال یوتیوب Whole Mars Catalog منتشر شد، یکی از سهامداران و دارندگان خودروهای تسلا یعنی تد پارک را میبینیم که قابلیت FSD را با فرزندان خود امتحان میکند.
در ویدئو از خودروی تسلا مدل ۳ استفاده شد. یکی از آزمونها شامل ایستادن یک کودک در وسط خیابان و دیگری شامل رد شدن کودک از خیابان بود.
یوتیوب در صفحهی پشتیبانی خود اعلام کرده یکسری قوانین خاص برای محتواهایی دارد که «سلامت احساسی و فیزیکی افراد خردسال را به خطر میاندازد». ظاهراً این قانون شامل ویدیوهای «بدلکاری، جرئتحقیقت یا دوربینمخفیهای خطرناک» میشود. فردی به نمایندگی از یوتیوب در گفتوگو با رسانهی ورج اعلام کرد ویدیوی مورد اشاره شامل محتوای خطرناک بوده و قوانین این پلتفرم بزرگ ویدیومحور را نقض کرده است. یوتیوب میگوید اجازهی انتشار ویدیوهایی را که در آنها یک فرد خردسال در فعالیتی خطرناک شرکت میکند، نمیدهد.
تد پارک در ویدیوی حذفشده میگوید: «من بتای FSD را قبلاً امتحان کردهام و کاملاً مطمئنم که قرار است فرزندانم را شناسایی کند. من کنترل خودرو را در دست دارم و هر لحظه میتوانم ترمز بگیرم.» پارک در مصاحبه با CNBC میگوید خودروی تسلا مدل ۳ در این آزمایش هرگز با سرعت بیش از ۱۳ کیلومتر بر ساعت حرکت نکرد و او «اطمینان حاصل کرد که خودرو بچهها را شناسایی کند.»
تا تاریخ ۱۸ آگوست (۲۷ مرداد) ویدیوی موردبحث بیش از ۶۰ هزار بازدید در یوتیوب کسب کرده بود. تد پارک ویدئو را در توییتر نیز منتشر کرد و این ویدئو هنوز در توییتر قابل تماشا است. توییتر فعلاً نگفته که برنامهای برای از دسترس خارج کردن ویدئو دارد یا نه.
ایدهی دیوانهوار بررسی ایمنی FSD ازطریق کودکان واقعی، بهدنبال انتشار یک ویدیوی پربازدید مطرح شد. در آن ویدئو خودروی تسلا نتوانست مانکنی در ابعاد کودک را شناسایی کند و به همین دلیل آن را زیر گرفت. در واکنش به ویدئو طرفداران تسلا شروع به بحث و جدل کردند و بارها گفتند که سیستم خودران این شرکت دقت بسیار بالایی دارد. چند روز بعد مدیر کانال یوتیوب Whole Mars Catalog گفت که قصد دارد ویدیویی با حضور کودکان واقعی بسازد تا ثابت کند که خودروهای تسلا میتوانند کودکان را شناسایی کنند.
ادارهی ملی ایمنی ترافیک بزرگراهها در ایالات متحدهی آمریکا در واکنش به ویدیوی حذفشده از یوتیوب بیانیهای صادر کرد و نسبت به استفاده از بچهها برای آزمودن دقت سیستمهای خودران هشدار داد: «هیچکس نباید زندگی خود یا بقیه را برای آزمودن عملکرد فناوری رانندگی خودران به خطر بیندازد.» این آژانس دولتی میگوید هیچکس اجازه ندارد سناریوی اختصاصی برای آزمودن فناوری خودران بسازد یا از آدمهای واقعی بهخصوص کودکان استفاده کند.
سیستم Full Self-Driving تسلا برخلاف نامش باعث نمیشود که به خودرویی کاملاً خودران دست پیدا کنید. رانندگان خودروهای تسلا میتوانند با پرداخت ۱۲ هزار دلار اضافی (یا ماهانه ۱۹۹ دلار) به سیستم FSD که در حال گذراندن مرحلهی آزمایشی است دسترسی داشته باشند. تسلا تا زمانی که راننده یک نمرهی ایمنی خاص را دریافت نکند، اجازهی فعالسازی FSD را به او نمیدهد. سیستم FSD به راننده امکان میدهد مقصد را تعیین کند تا خودروی تسلا بدون نیاز به دخالت راننده و با اتکا بر فناوری اتوپایلت به حرکت دربیاید. البته FSD وقتی فعال میشود که دستت راننده روی فرمان باشد تا اگر مشکلی پیش آمد بتواند در لحظه واکنش نشان دهد.
اوایل ماه جاری میلادی ادارهی وسایل نقلیهی موتوری کالیفرنیا گفت که تسلا ادعاهایی نادرست دربارهی اتوپایلت و FSD مطرح میکند. این اداره ادعا کرد نحوهی نامگذاری قابلیتهای یادشده و توضیحات رسمی تسلا برای آنها باعث میشود که راننده به اشتباه فکر کند که در حال استفاده از سیستمی کاملاً خودران است.
بررسیهای ادارهی ملی ایمنی ترافیک بزرگراهها در ایالات متحدهی آمریکا نشان میدهد سیستم اتوپایلت تسلا از ۲۰ جولای ۲۰۲۱ (۲۹ تیر ۱۴۰۰) تا ۲۱ می ۲۰۲۲ (۳۱ اردیبهشت ۱۴۰۱) در ۲۷۳ تصادف دخیل بوده است.