رئیس بنیاد سیگنال: هوش مصنوعی، نظارت بر مردم را ساده‌تر می‌کند

پنج‌شنبه ۶ مهر ۱۴۰۲ - ۱۵:۱۹
مطالعه 1 دقیقه
دوربین مداربسته
رئیس پیام‌رسان سیگنال می‌گوید آنچه که مدل‌های مبتنی‌بر هوش مصنوعی را هوشمندتر می‌کند، استفاده از کلان‌داده‌های به‌دست آمده از نظارت‌بر انسان‌ها است.
تبلیغات

مردیت ویتاکر، رئیس بنیاد سیگنال و کارمند سابق گوگل که چهره‌ای شناخته شده در زمینه‌ی هوش مصنوعی نیز محسوب می‌شود، در رویدادی موسوم به TechCrunch Disrupt در مورد فناوری هوش مصنوعی، کلان داده و نظارت صحبت کرد.

به نظر ویتاکر، فناوری و خدمات هوش مصنوعی به مجموعه‌ی گسترده‌ای از کلان‌داده و صنعت هدفمند برای عملکرد مؤثر نیاز دارند. او بیان کرد که هوش مصنوعی «به مدل کسب‌و‌کار نظارتی نیاز دارد» و درواقع تا حد زیادی مشکلاتی را که از اواخر دهه ۹۰ میلادی با رشد «تبلیغات نظارتی» به‌وجود آمده است تشدید می‌کند.

مدل کسب‌و‌کار نظارتی و تبلیغات نظارتی به‌معنی استفاده از داده‌های کاربران برای تبلیغات هدفمند و شناخت شخصیت مجازی آن‌هاست. اکثر شبکه‌های اجتماعی و موتورهای جست‌و‌جو از ابزارهای نظارت کاربران استفاده می‌کنند. خود داده‌ها نیز ممکن است به‌عنوان محصول فرعی این پلتفرم‌ها به برخی نهادهای دولتی فروخته شوند.

آموزش موفق مدل‌های هوش مصنوعی مانند مدل‌های زبانی بزرگ، نیازمند حجم عظیمی از محتوای تولید شده توسط انسان است که معمولاً از منابع عمومی و بخش‌های کمتر دسترسی‌پذیر اینترنت جمع‌آوری می‌شوند. بااین‌حال، ویتاکر تأکید کرد که آموزش تنها یک جنبه از مسئله است. او ادعا کرد که استفاده از فناوری هوش مصنوعی، به‌ویژه در سیستم‌های تشخیص چهره، عملاً نوعی نظارت است.

رئیس بنیاد Signal نمونه‌هایی از کاربرد هوش مصنوعی در حوزه‌ی نظارت را برشمرد و در این رابطه به دوربین تشخیص چهره‌ای اشاره کرد که می‌تواند اطلاعاتی درباره حالات عاطفی افراد تولید کند. این اطلاعات، که ممکن است دقت کمی داشته باشند، برای تعیین این‌که آیا شخص خوشحال، ناراحت یا حتی درحال دروغ گفتن است استفاده می‌شود.

در نهایت، ویتاکر ادعا کرد که سیستم‌های نظارتی مبتنی بر هوش مصنوعی در اختیار کارفرمایان و نهادهای دولتی گذاشته می‌شوند و به آن‌ها کمک می‌کنند تا تصمیمات و پیش‌بینی‌هایی اتخاذ کنند که به‌طور قابل توجهی بر دسترسی افراد به منابع و فرصت‌ها تأثیر بگذارند.

علاوه‌براین، سیستم‌های نظارتی هوش مصنوعی از نیروی کار انسانی‌ بهره می‌برند که در نهایت ممکن است توسط همین سیستم‌ها تحت نظارت قرار گیرند. ویتاکر توضیح داد که ایجاد مدل‌های زبانی بزرگ بدون یادگیری تقویتی با بازخورد انسانی امکان‌پذیر نیست. هزاران کارگر با حقوق اندک کار می‌کنند تا «صحت داده‌ها» را تأیید و ابزارهای هوش مصنوعی را هوشمندتر کنند.

مقاله رو دوست داشتی؟
نظرت چیه؟
داغ‌ترین مطالب روز
تبلیغات

نظرات