چطور از دسترسی هوش مصنوعی به اطلاعات حساس جلوگیری کنیم؟
هر محتوایی که در سطح اینترنت مشاهده میکنید، بهاحتمال زیاد جمعآوری شده و برای آموزش نسل کنونی هوش مصنوعی مولد مورد استفاده قرار گرفته است. مدلهای زبان بزرگ مثل ChatGPT و ابزارهای تولیدکنندهی تصویر با انبوهی از دادههای ما تغذیه میشوند. حتی اگر این دادهها برای ساخت چتبات بهکار نروند، میتوانند در ویژگیهای دیگر یادگیری ماشین استفاده شوند.
شرکتهای فناوری برای جمعآوری دادههایی که بهگفته خودشان برای خلق هوش مصنوعی مولد ضروری هستند، سرتاسر وب را با بیتوجهی به حقوق مؤلفان، قوانین کپیرایت و حریم خصوصی کاربران، مورد استفاده قرار دادهاند. شرکتهایی هم که انبوهی از اطلاعات کاربران را در اختیار دارند، بهدنبال سهمی از سود صنعت هوش مصنوعی هستند.
اگر شما هم نگران هستید که دادههایتان مورد استفادهی هوش مصنوعی قرار بگیرد، ما در این مقاله بهبررسی راهکارهای جلوگیری از دسترسی هوش مصنوعی به اطلاعات خصوصی میپردازیم.
محدودیتهای جلوگیری از دسترسی هوش مصنوعی به دادهها
پیشاز آنکه به روشهای جلوگیری از دسترسی هوش مصنوعی به اطلاعات خصوصی بپردازیم، بهتر است سطح انتظارات را در حد واقعبینانه نگهداریم. بسیاری از شرکتهای توسعهدهندهی هوش مصنوعی از مدتها قبل اقدام به جمعآوری گستردهی دادههای وب کردهاند؛ بنابر این، احتمالاً هر آنچه که تا امروز منتشر کردهاید، هماکنون در سیستمهای آنها وجود دارد. این شرکتها دربارهی اطلاعاتی که استخراج یا خریداری کردهاند، شفاف عمل نمیکنند و اطلاعات ما در این زمینه بسیار مبهم است.
شرکتها میتوانند فرایند انصراف از استفادهی دادهها برای آموزش هوش مصنوعی را پیچیده کنند. بسیاری از افراد دربارهی مجوزهایی که پذیرفتهاند یا نحوهی بهکارگیری دادهها، دید روشنی ندارند. این موضوع مربوطبه قبلاز زمانی است که به قوانین مختلف، مانند حمایت از حقوق مالکیت فکری و قوانین قدرتمند حفظ حریم خصوصی اروپا، توجه شود. فیسبوک، گوگل و شرکتهای دیگر، در اسناد مربوطبه حریم خصوصی خود ذکر کردهاند که شاید از دادههای شما برای آموزش هوش مصنوعی استفاده کنند.
فهرست زیر فقط شامل شرکتهایی میشود که درحالحاضر راهکاری برای منع دسترسی آنها به دادههای شخصی کاربران برای آموزش مدلهای هوش مصنوعی ارائه میدهند.
روش جلوگیری از دسترسی ابزارهای هوش مصنوعی به دادهها
ذخیرهسازی فایلها در سرویسهای ابری، مزایای زیادی دارد. اما این فایلها میتوانند برای مقاصد دیگر نیز مورد استفاده قرار بگیرند. براساس اسناد شرکتهایی مانند ادوبی و آمازون، دادههای ذخیرهشده در فضای ابری آنها، میتواند برای آموزش الگوریتمهای یادگیری ماشین بهکار رود.
گوگل جمنای
اگر از چتبات گوگل جمنای (Gemini) استفاده میکنید، باید بدانید کارشناسان انسانی برخی مکالمات شما را برای بررسی و بهبود مدل هوش مصنوعی بازبینی میکنند. بههر حال، میتوانید این دسترسی را لغو کنید. بدینمنظور جمنای را در مرورگر خود باز کرده، روی بخش Activity کلیک و سپس از منوی کشویی Turn Off را انتخاب کنید. در این قسمت، میتوانید صرفاً فعالیت جمنای را غیرفعال کنید و یا با انتخاب گزینهی Delete data، هم دسترسی را لغو کرده و هم اطلاعات مکالمات گذشته را پاک کنید.
نکتهی مهم اینکه با غیرفعالسازی دسترسی جمنای به دادههای شخصی خود، مکالمات آتی شما دیگر برای بازبینی دردسترس نخواهد بود، اما اطلاعات مکالمات قبلی که برای بررسی انتخاب شدهاند، همچنان تا سه سال نزد گوگل باقی خواهند ماند.
ChatGPT و DALL-E
هنگام استفاده از چتباتها، ناخواسته اطلاعات شخصی زیادی را فاش میکنیم. OpenAI، بهعنوان توسعهدهندهی چتبات محبوب ChatGPT، به کاربران اختیاراتی برای کنترل دادههایشان میدهد. این اختیار شامل جلوگیری از استفاده از اطلاعات برای آموزش مدلهای هوش مصنوعی آینده میشود.
طبق صفحات راهنمای OpenAI، کاربران وب ChatGPT که حساب کاربری ندارند، باید به بخش تنظیمات (Settings) مراجعه و گزینهی Improve the model for everyone را غیرفعال کنند. اگر حساب کاربری دارید و ازطریق مرورگر وب وارد شدهاید، باید به بخشChatGPT بروید و سپس در مسیر Settings و Data Controls، گزینهی Chat History & Training را خاموش کنید. درصورتیکه از اپلیکیشنهای موبایل ChatGPT استفاده میکنید، به Settings مراجعه کرده و Data Controls را انتخاب کنید و درنهایت گزینهی Chat History & Training را خاموش کنید.
صفحات پشتیبانی OpenAI هشدار میدهند که تغییر تنظیمات دسترسی به دادههای شخصی در مرورگر یا دستگاه خاص، روی سایر مرورگرها یا دستگاههای شما همگامسازی نمیشود؛ بنابراین، باید اینکار را در هر جایی که از ChatGPT استفاده میکنید، انجام دهید.
فعالیتهای OpenAI فراتر از ChatGPT است. این استارتاپ برای ابزار تولید تصویر Dall-E 3 نیز فرمی در نظر گرفته است که به شما امکان میدهد با ارسال آن، تصاویر مورد نظر خود را از مجموعه دادههای آموزشی آینده حذف کنید. در این فرم باید نام، ایمیل، مالکیت حقنشر تصویر، جزئیات تصویر و اصل تصویر را آپلود کنید. OpenAI همچنین میگوید اگر حجم زیادی از تصاویر را بهصورت آنلاین میزبانی میکنید که نمیخواهید برای آموزش دادهها استفاده شوند، شاید اضافهکردن GPTBot به فایل robots.txt وبسایت محل میزبانی تصاویر، روش کارآمدتری باشد.
Perplexity
Perplexity استارتاپی است که با استفاده از هوش مصنوعی در جستوجوی وب و یافتن پاسخ سؤالات به کاربران کمک میکند. این ابزار مثل سایر نرمافزارهای مشابه، بهصورت پیشفرض رضایت شما برای استفاده از تعاملات و دادههایتان را در جهت بهبود هوش مصنوعی خود دریافت میکند. برای غیرفعالکردن این مورد، روی نام کاربری خود کلیک کنید، به بخش Account بروید و AI Data Retention را در حالت غیرفعال قرار دهید.
ادوبی
اگر از حساب کاربری شخصی ادوبی استفاده میکنید، غیرفعالکردن این قابلیت بهسادگی امکانپذیر است. بدینمنظور باید در صفحهی حریم خصوصی ادوبی به بخش Content analysis بروید و کلید مربوطه را خاموش کنید. برای حسابهای تجاری یا آموزشی، این امکان بهصورت مجزا برای تکتک کاربران وجود ندارد و برای غیرفعالسازی آن باید با مدیر سیستم تماس بگیرید.
وردپرس
وردپرس گزینهای برای جلوگیری از اشتراکگذاری دادهها با سرویسهای شخص ثالث دارد. برای فعال کردن این قابلیت، در پنل مدیریت وبسایت، روی Settings و بعد از آن General و سپس Privacy کلیک کرده و در نهایت تیک گزینهی Prevent third-party sharing را بزنید. سخنگوی Automattic میگوید: «ما درحال همکاری با خزندههای وب ازجمله Common Crawl هستیم تا جلوی دسترسی و فروش غیرمجاز محتوای کاربران را بگیریم.»
Grammarly
درحال حاضر، کاربران عادی گرمرلی (Grammarly) امکان لغو استفاده از دادههایشان را برای بهبود مدل یادگیری ماشین این سرویس ندارند. این امکان فقط برای حسابهای تجاری (Business Account) دردسترس است که بهصورت خودکار قابل مدیریت بوده و نیازی به درخواست مستقیم کاربر ندارد.
برای لغو دسترسی گرمرلی در حسابهای تجاری، به تنظیمات حساب کاربری (Account Settings) مراجعه، روی تب Data Settings کلیک و سپس گزینهی Product Improvement & Training را غیرفعال کنید. همچنین، حسابهای تجاری تحت مدیریت مانند حسابهای آموزشی و حسابهای خریداریشده ازطریق نمایندهی فروش گرمرلی، بهصورت خودکار از فرایند آموزش مدل هوش مصنوعی مستثنی هستند.
Quora
Quora ادعا میکند درحالحاضر از پاسخها، پستها یا نظرات کاربران برای آموزش هوش مصنوعی استفاده نمیکند. این شرکت همچنین هیچگونه دادهی کاربری را برای آموزش هوش مصنوعی بهفروش نمیرساند. بههر حال، Quora همچنان گزینهای برای انصراف از این موضوع در نظر گرفته است. برای اینکار، به صفحهی Settings بروید، روی Privacy کلیک و سپس Allow large language models to be trained on your content را غیرفعال کنید.
بهنوشتهی WIRED، امکان دارد Quora همچنان از برخی پستهای خاص برای آموزش مدلهای زبان بزرگ (LLM) استفاده کند. صفحات راهنمای این شرکت توضیح میدهند درصورتیکه به پاسخ تولیدشده با هوش مصنوعی، پاسخ دهید، شاید اطلاعات آن، برای آموزش هوش مصنوعی مورد استفاده قرار گیرد. این شرکت اشاره میکند که احتمال استخراج دادهها ازطرف شرکتهای متفرقه نیز وجود دارد.
Tumblr
شرکت Automattic، مالک وبسایتهای Tumblr و WordPress.com، اعلام کرده که با همکاری شرکتهای هوش مصنوعی قصد دارد از مجموعه دادههای عظیم و منحصربهفرد محتوای منتشر شده در پلتفرمهای خود برای آموزش هوش مصنوعی استفاده کند. سخنگوی این شرکت تأکید کرده است که ایمیلهای کاربران و محتوای خصوصی شامل این همکاری نخواهد شد.
درصورتیکه در Tumblr وبلاگ شخصی دارید، میتوانید با مراجعه به Settings، انتخاب وبلاگ، کلیک روی آیکون چرخدنده، رفتن به بخش Visibility و فعالکردن گزینهی Prevent third-party sharing مانع استفاده از محتوای خود برای آموزش هوش مصنوعی شوید. همچنین بر اساس صفحات پشتیبانی Tumblr، پستهای صریح، وبلاگهای حذفشده، و وبلاگهای دارای رمزعبور یا خصوصی بههیچوجه با شرکتهای دیگر به اشتراک گذاشته نمیشوند.
اسلک
شاید برایتان عجیب باشد، اما حتی همان پیامهای رد و بدل شدهی بهظاهر بیاهمیت در اسلک محل کارتان هم ممکن است برای آموزش مدلهای این پلتفرم استفاده شوند. براساس گفتهی معاون بخش محصول اسلک، این پلتفرم از سالیان گذشته در محصولاتش از یادگیری ماشین برای ارائهی قابلیتهایی مثل پیشنهاد کانال و ایموجی استفاده میکند.
اگرچه اسلک از دادههای مشتریان برای آموزش مدل زبان بزرگ محصول هوش مصنوعی خود استفاده نمیکند، اما میتواند از تعاملات شما برای بهبود قابلیتهای یادگیری ماشینی نرمافزار بهره ببرد. در صورتیکه از حساب سازمانی اسلک استفاده میکنید، امکان انصراف از این فرآیند وجود ندارد.
تنها راه برای لغو اشتراک اسلک، ارسال ایمیل ازطرف مدیر سیستم به آدرس feedback@slack.com است. موضوع ایمیل باید Slack Global model opt-out request باشد و URL سازمان نیز در آن درج شود. اسلک هیچ جدول زمانی برای مدت زمان انجام فرایند لغو اشتراک ارائه نمیدهد، اما پساز تکمیل آن باید ایمیل تأیید برای شما ارسال کند.
وبسایت اختصاصی
اگر وبسایت اختصاصی خود را راهاندازی کردهاید، میتوانید با بهروزرسانی فایل robots.txt از رباتهای هوش مصنوعی بخواهید صفحاتتان را کپی نکنند. بسیاری از وبسایتهای خبری اجازه نمیدهند رباتهای هوش مصنوعی مقالاتشان را مرور کنند. برای مثال، فایل robots.txt وبسایت WIRED اجازهی دسترسی به رباتهای OpenAI، گوگل، آمازون، فیسبوک، Anthropic و Perplexity و بسیاری دیگر را نمیدهد.
این قابلیت صرفاً برای ناشران محتوا کاربرد ندارد. هر وبسایتی میتواند با اضافه کردن دستور disallow به فایل robots.txt، رباتهای هوش مصنوعی را از دسترسی به سایت خود منع کند.
نظرات