رهبران هوش مصنوعی برای حفاظت از کودکان متعهد شدند
شرکتهای پیشرو در حوزهی هوش مصنوعی، ازجمله OpenAI، مایکروسافت، گوگل و متا متعهد شدهاند جلوی استفاده از ابزارهای هوش مصنوعی خود را برای استثمار و تولید محتوای سوءاستفادهی جنسی از کودکان (CSAM) بگیرند.
بنیاد Thorn و سازمان All Tech Is Human گزارشی با عنوان «طرحی برای ایمنی هوش مصنوعی مولد: پیشگیری از سؤاستفادهی جنسی از کودکان» منتشر کردهاند که در آن برای محافظت از کودکان در فضای آنلاین، راهبردها و توصیههایی به شرکتهای سازندهی ابزارهای هوش مصنوعی، موتورهای جستوجو، شبکههای اجتماعی، شرکتهای هاستینگ و توسعهدهندگان ارائه میشود.
گزارش Thorn شامل چند بخش میشود. اولین مورد، ارزیابی و کاهش خطرات است؛ جاییکه شرکتها باید خطرات بالقوهی مرتبط با ابزارهای هوش مصنوعی مولد را ارزیابی کنند و آنها را کاهش دهند.
مورد دوم در گزارش Thorn، شفافیت و پاسخگویی است. شرکتها باید درمورد نحوهی عملکرد ابزارهای هوش مصنوعی مولد خود شفاف و پاسخگو باشند. این یعنی شرکتها ملزم به ارائهی اطلاعات واضح در مورد قابلیتها و محدودیتهای ابزارهای هوش مصنوعی و ایجاد فرایندهایی برای رسیدگی به شکایات و ارائهی امکان کنترل نحوهی استفاده از دادههای شخصی کاربران میشوند.
موضوع دیگر در گزارش Thorn، همکاری با ذینفعان است. این یعنی شرکتها برای توسعه و اجرای راهبردهای ایمنی هوش مصنوعی مولد، باید با ذینفعان مختلف ازجمله سازمانهای غیردولتی، کارشناسان کودک و مقامات دولتی همکاری کنند.
چهارمین نکته در گزارش، به تحقیق و توسعه ارتباط دارد. شرکتها باید به تحقیق و توسعه برای کشف روشهای جدید ایمنسازی هوش مصنوعی مولد ادامه دهند. این مورد شامل توسعهی تکنیکهای جدید برای شناسایی و حذف محتوای مضر و ایجاد ابزارهای آموزشی جدید برای کاربران میشود.
درنهایت Thorn به موضوع توانمندسازی کاربران پرداخته است. شرکتها باید کاربران را با روش استفادهی ایمن و مسئولانه از ابزارهای هوش مصنوعی مولد کاملاً آشنا کنند. این اقدام شامل ارائهی اطلاعات در مورد خطرات بالقوه، آموزش نحوهی شناسایی و گزارش محتوای مضر و ارائهی ابزارهایی برای کنترل روش استفاده از دادههای کاربران میشود.
نظرات