توضیح نهایی فیسبوک در مورد دلیل ممنوعیت انتشار محتوای خاص
شبکه اجتماعی فیسبوک در حال تصمیمگیری برای حذف برخی پستها و چرایی حذف آنها است. فیسبوک در روز سهشنبهی هفته پیش برای اولین بار دستورالعملی ۲۷ صفحهای به نام استانداردهای جامعه منتشر کرد و آن را به هزاران متصدی بخش سانسور خود تحویل داد. مجموعهی دستورالعمل، شامل دهها موضوع از قبیل سخنان تنفرآمیز، تصاویر خشن، ارائه اطلاعات نادرست و تبلیغات تروریستی است. طبق اعلام شرکت، دستورالعمل، تصمیمات فیسبوک را به کاربران میرساند و دری جدید از شفافیت برای کاربران، عموم و طرفدارانی میگشاید که قبلا تصمیمات فیسبوک را خودسرانه و غیر شفاف میدانستند و از آن انتقاد میکردند. دستورالعمل جدید پیشنهادهایی برای تشخیص تفاوت بین شوخطبعی، طعنه و سخنان تنفرآمیز ارائه میدهد.
مونیکا بیکرت، رئیس بخش مدیریت سیاست جهانی فیسبوک، در مصاحبهای گفت:
ما میخواهیم به مردم شفافیت بدهیم تا آنها استانداردهای ما را بشناسند.
او ابزار امیدواری کرد که مردم با انتشار دستورالعمل، منظورش را بهتر متوجه بشوند:
ما میخواهیم بهطور همزمان امنیت و توانایی آزادی بیان را به مردم بدهیم.
مسئولان بخش سانسور فیسبوک که تعدیلکننده محتوا نامیده میشوند، زیر تیغ انتقادات گروههای حقوق شهروندی هستند؛ چراکه بهاشتباه پستهایی را که توسط اقلیتهای قربانی تهمتهای نژادی منتشر شده بودند، پاک کردند. تعدیلکنندگان در تشخیص تفاوت بین فرد تهمتزننده و فردی که از تهمت برای نشان دادن وضعیت اسفناک قربانی شدن خود استفاده میکند، مشکل داشتهاند.
تعدیلکنندگان در نمونهای دیگر، یک عکس نمادین جنگ ویتنام از کودکی که درحال فرار از بمب آتشزا بود، پاک کردند و مدعی شدند که عریانی دختربچه با سیاستهای فیسبوک تناقض دارد (البته عکس بعد از اعتراضات سازمانهای خبری احیا شد). تعدیلکنندگان همچنین پستهایی از فعالان و روزنامهنگاران میانمار، فلسطین و کشمیر را پاک کردهاند و به طرفداران جنبش الماس و ابریشم ترامپ گفتند که پستها برای جامعهی فیسبوک نامناسب هستند.
انتشار دستورالعملها تنها بخشی از موج شفافیتی است که فیسبوک برای آرام کردن منتقدان به آن تکیه زده است. فیسبوک همچنین بعد از اینکه نتوانست بهخوبی از دادهها و اطلاعات کاربرانش محافظت کند و تحت انتقاد قرار گفت، تبلیغاتی سیاسی منتشر کرد و وضعیت کنترل حریم خصوصی خودش را بهبود بخشید.
فیسبوک به خاطر مسئله سوء استفاده از دادهها توسط کمبریج آنالیتیکا تحت بررسی و بازرسی کمیسیون تجاری فدرال ایالات متحده قرار گرفت و مارک زاکربرگ اخیرا به همین دلیل، توضیحاتی در خصوص این مسئله برای کنگره آمریکا ارائه داد. طبق گفته بیکرت، بحث در مورد بهاشترکگذاری دستورالعمل، ابتدا در پاییز سال گذشته شروع شد و ارتباطی با جنجال کمبریج نداشت.
سیاستهای محتوایی فیسبوک که در سال ۲۰۰۵ آغاز شد، مسائلی مثل عریانی و انکار هولوکاست را در همان اوایل، جزو برنامههای خود داشت. اما آن توضیح یکصفحهای در سال ۲۰۰۸، اکنون به ۲۷ صفحهی جزئیتر تبدیل شده است.
با ورود حدود یکسوم جمعیت دنیا به فیسبوک، تیم بیکرت هم گسترش خواهد یافت و احتمالا د رسال آینده شاهد رشد آن خواهیم بود. این تیم شامل ۷۵۰۰ بازبینیکننده در جاهایی مثل آستین، دوبلین و فیلیپین است و به پستها دسترسی ۲۴ ساعته دارد. اعضای تیم با ۴۰ زبان بر پستها احاطه دارند. افراد تعدیلکننده بعضی اوقات از قشر کارکنان قراردادی و موقتی هستند که آشنایی فرهنگی زیادی با محتویات مورد بازبینی ندارند و تصمیمات پیچیدهای در خصوص پیادهسازی قوانین فیسبوک اتخاذ میکنند.
خود بیکرت از کارشناسان سطح بالایی مثل یک وکیل حقوق بشر، مشاور تجاوز، کارشناس ضد تروریسم از وستپوینت و یک پژوهشگر با دکترا در زمینهی بررسی سازمانهای افراطی اروپایی، بهعنوان تیم بازبینی محتوا استفاده میکند.
فعالان و کاربران هم به دلیل نبود یک فرآیند مشخص برای بازبینی پستهایشان خسته شده بودند. (کاربران فیسبوک میتوانستند اکانتی را کاملا پاک کنند، ولی پستهای شخصی را نمیتوانستند حذف کنند). واشنگتن پست قبلا اسنادی از اینکه افراد چگونه با این شرایط بد کنار میآیند تهیه کرده بود. افراد وارد زندان فیسبوک میشدند، بدون اینکه دلیلش را بدانند.
مالکیا سیریل، یکی از فعالان جنبش «جان سیاهپوستان مهم است» در اوکلند کالیفرنیا و مدیر اجرایی مرکز عدالت رسانه، در بین ائتلاف بیش از ۷۰ گروه حقوق شهروندی بود که فیسبوک را درسال ۲۰۱۷ برای اصلاح سیستم اعتدال محتویات نژادپرستانه، تحت فشار قرار دادند. ائتلاف خواستار تغییرات زیادی در فیسبوک بود که یکی از آنها بازبینی درخصوص پستهای پاکشده بود. سیریل میگوید:
آنها در آن زمان به ما گفتند که نمیتوانند چنین کاری بکنند و این کار را نخواهند کرد و واقعا هم دیگر خود را درگیر آن نکردند. آنها به ما گفتند که وقتی حرفی جدید برای گفتن داشته باشند برمیگردند.
طبق گفته سیریل، اقدامات اخیر فیسبوک، با وجود نیت خیرخواهانهاش، بازهم به اندازهی لازم، گروههای افراطی و برترپندار نژادی سفیدپوست را تحت کنترل قرار نداد و آنها هنوز اجازه فعالیت دارند. او میگوید:
اقدامات اخیر بسیار محدود بودند. اکنون به یک گروه بازرسی مستقل برای حفاظت از حقوق اساسی شهروندی کاربران نیاز است؛ مخصوصا کاربران آسیبپذیری که در خیابانها با نفرتی که بهصورت آنلاین به وجود آمده، مواجه میشوند.
طبق گفته زهرا بیلو، مدیر اجرایی دفتر شورای روابط آمریکایی-اسلامی منطقهی خلیج سانفرانسیسکو، فرآیند واخواهی حقوق فیسبوک و دستورالعمل جدید آن میتواند پیشرفت مثبتی باشد؛ ولی شبکه اجتماعی فیسبوک اگر بخواهد مکانی امن و مناسب باقی بماند، هنوز جای پیشرفت زیادی دارد و باید اقدامات زیادی انجام دهد.
به گفتهی بیلو، طبق سیاستهای جدید فیسبوک سخنان تنفرآمیز باید ممنوع شوند و زاکربرگ هم از عملی شدن این سیاست تا پایان این ماه خبر داد؛ ولی حداقل چندین صفحهای که نشاندهنده خودبرترپنداری نژاد سفید هستند، هنوز در فیسبوک فعالیت دارند. او میگوید:
یکی از سؤالاتی که اکثر اعضای جامعهی اسلامی میپرسند این است که فیسبوک چگونه از کاربرانش درخصوص سازماندهی شدن سخنان تنفرآمیز، فشار سفیدپوستان نژادپرست، فعالان گرایش سیاسی حزب راست، جمهوریخواهان یا روسها علیه مسلمانان، همجنسگرایی (دگرباشی) و افراد بینام و نشان محافظت میکند.
پست زهرا بیلو دو هفته بعد از انتخاب دونالد ترامپ بهعنوان رئیس جمهور، سانسور شد. پست او حاوی عکس نامهای دستنویس و ارسالی به مسجد سنخوزه بود. در نامه نوشته شده بود:
او (ترامپ) همان کاری را با شما مسلمانان خواهد کرد که هیتلر با یهودیها کرد.
تیم بیکرت سالها روی توسعهی سیستم نرمافزاری کار میکرد که بتواند دلایل پاک شدن پست را طبقهبندی کند تا کاربران بتوانند اطلاعات دقیقتری از این موضوع به دست بیاورند. فیسبوک هم میتواند با استفاده از این سیستم، تعداد سخنان تنفرآمیز موجود در پستهای هر سال را دنبال کند و بهعنوان مثال، گروههای خاصی را که بیش از بقیه در عرصه چنین پستهایی فعالیت دارند تعلیق کند.
در حال حاضر افرادی که پستشان در فیسبوک پاک میشود، یک پیام کلی دریافت میکنند که مورد زیر پا گذاشتن استانداردهای جامعه فیسبوک به آنها هشدار میدهد. بعد از بیانیهی اخیر فیسبوک، افراد علت پاک شدن پست خود را خواهند دانست؛ اینکه به چه دلیلی مثلا برای عریانی، سخنان تنفرآمیز یا تصویر خشونتآمیز حذف شده است. طبق گفتهی یکی از مدیران اجرایی فیسبوک، تیم روی ساخت ابزار بیشتری کار میکرد. الن سیلور، معاون عملیاتی فیسبوک، میگوید:
ما میخواهیم در مورد دلیل حذف پستها، جزئیات و اطلاعات بیشتری ارائه دهیم. کارهای زیادی در این بخش داریم و متعهدیم که چنین اصلاحاتی به وجود بیاوریم.
اگرچه سیستم تعدیل محتوا هنوز تا حد زیادی تحت کنترل انسان قرار دارد؛ ولی فیسبوک از فناوری برای کمک به انسانها استفاده میکند. این شرکت اخیرا از نرمافزاری برای شناسایی گزارشهای (ریپورت) تکراری استفاده میکند. چنین کاری، در زمان بازبینی محتوای تکراری توسط افراد صرفهجویی میکند. نرمافزار همچنین میتواند زبان پست و برخی از تمهای آن را شناسایی کند؛ درنتیجه پست را در اختیار کارشناسی با تخصص مناسب برای بازبینی قرار دهد.
طبق گفته سیلور، فیسبوک همچنین میتواند تصاویری را که قبلا پست شدهاند، شناسایی کند؛ ولی نمیتواند تصاویر جدید را تشخیص دهد. بهعنوان مثال، اگر یک سازمان تروریستی ویدیویی از سر بریدن را دوباره پست کند که فیسبوک قبلا آن را پاک کرده است، سیستم فیسبوک فورا متوجه دوباره پست شدن ویدیو میشود، اما نمیتواند ویدیوهای سر بریدن جدید را شناسایی کند. اکثریت آیتمهایی که توسط جامعهی فیسبوک علامتگذاری میشوند، ظرف مدت ۲۴ ساعت بررسی میشوند.
مقیاس عملیاتی حتی اگر با دقت ۹۹ درصدی عمل کند، بازهم اشتباهات زیادی خواهد داشت
کارکنان و مدیران اجرایی ارشد که تصمیمگیری درمورد مسائل چالشبرانگیز دنیا بر عهده آنها است، هر دو هفته یکبار نشستی ترتیب میدهند و درمورد مزایا و معایب سیاستهای بالقوه شرکت بحث میکنند. تیمهای حاضر در جلسه باید با پژوهش، راه حلهای ممکن و پیشنهادات خود را ارائه دهند. آنها همچنین باید از سازمانهای خارج از فیسبوک که از آنها مشورت دریافت میکنند لیستی تهیه کنند. بیکرت و سیلوا در مصاحبهای امکان اشتباه در قضاوتهای فیسبوک را رد نکردند. سیلور گفت:
مقیاس عملیاتی ما حتی اگر با دقت ۹۹ درصدی عمل کند، بازهم اشتباهات زیادی خواهد داشت.
نظرات