اطلاعاتی که بهتر است با هوش مصنوعی به اشتراک نگذارید

استفاده از چت‌بات‌های هوش مصنوعی مانند ChatGPT به بخشی جدایی‌ناپذیر از زندگی روزمره تبدیل شده است، اما کارشناسان امنیت سایبری هشدار می‌دهند که اشتراک‌گذاری ۵ نوع اطلاعات خاص با این ابزارها، حریم خصوصی شما را به شدت به خطر می‌اندازد و ممکن است عواقب جبران‌ناپذیری داشته باشد.

این روزها استفاده از چت‌بات‌های هوش مصنوعی نظیر «چت‌جی‌پی‌تی» (ChatGPT)، «جمنای» (Gemini) و «کوپایلت» (Copilot) به عادتی روزمره برای میلیون‌ها کاربر تبدیل شده است. طبق نظرسنجی اخیر مرکز «آینده دیجیتال» دانشگاه ایلان، نیمی از آمریکایی‌ها اکنون از این فناوری‌ها استفاده می‌کنند. اما پشت این سهولت در استفاده، خطراتی پنهان نهفته است که اغلب نادیده گرفته می‌شوند.

تحقیقات اخیر موسسه هوش مصنوعی دانشگاه استنفورد نشان می‌دهد که اکثر توسعه‌دهندگان بزرگ هوش مصنوعی، به‌طور پیش‌فرض از مکالمات کاربران برای آموزش و بهبود مدل‌های خود استفاده می‌کنند و برخی از آن‌ها این داده‌ها را برای مدتی نامعلوم نگه می‌دارند.

«جرج کاماید» (George Kamide)، کارشناس امنیت سایبری و میزبان پادکست تکنولوژی، در گفتگو با هاف‌پست می‌گوید: «مردم دست‌کم می‌گیرند که چه حجمی از اطلاعاتشان توسط هوش مصنوعی ذخیره و تحلیل می‌شود. اگر تعاملات شما حاوی اطلاعات حساس باشد، این داده‌ها وارد مجموعه‌ای می‌شوند که دیگر در کنترل شما نیست.»

در ادامه، ۵ دسته از اطلاعاتی را مرور می‌کنیم که کارشناسان اکیداً توصیه می‌کنند هرگز آن‌ها را با هوش مصنوعی در میان نگذارید:

۱. اطلاعات هویتی و شخصی (PII)

اطلاعات قابل شناسایی شخصی یا PII شامل نام کامل، آدرس منزل، شماره تلفن، کدملی و شماره گواهینامه است. «جرج الکورا» (George Al-Koura)، کارشناس امنیت اطلاعات، هشدار می‌دهد که اشتراک‌گذاری این داده‌ها می‌تواند شما را در معرض سرقت هویت و حملات فیشینگ قرار دهد. همچنین اگر برای ویرایش رزومه از هوش مصنوعی کمک می‌گیرید، حتماً قبل از آپلود فایل، نام و مشخصات تماس خود را از آن حذف کنید.

۲. جزئیات احساسی و خصوصی زندگی

بسیاری از افراد با چت‌بات‌ها احساس راحتی می‌کنند و آن‌ها را مثل یک تراپیست می‌بینند. اما «اشلی کازووان» (Ashley Casovan)، مدیر مرکز حکمرانی هوش مصنوعی IAPP، می‌گوید این یک «احساس امنیت کاذب» است. صحبت‌های خصوصی شما درباره روابط، وضعیت روانی یا رفتارهای‌تان از نظر قانونی محافظت نمی‌شود و در صورت نشت اطلاعات یا دستور قضایی، می‌تواند علیه شما استفاده شود.

۳. اطلاعات و پرونده‌های پزشکی

طبق آمار، از هر ۶ نفر یک نفر برای مشاوره سلامت به هوش مصنوعی مراجعه می‌کند. اما باید بدانید که برخلاف پزشکان، چت‌بات‌ها ملزم به رعایت قوانین رازداری پزشکی (مانند قانون HIPAA در آمریکا) نیستند. هرگز سوابق پزشکی یا جزئیات بیماری خود را با نام و مشخصات واقعی در این ابزارها وارد نکنید.

۴. اطلاعات محرمانه کاری و تجاری

اگر می‌خواهید از هوش مصنوعی برای پیشبرد کارهای شرکت استفاده کنید، بسیار محتاط باشید. وارد کردن داده‌های داخلی شرکت، گزارش‌های مالی، کدنویسی‌های اختصاصی و اطلاعات مشتریان می‌تواند نقض قرارداد محرمانگی باشد. حتی با وجود امنیت بالا، ورودی‌های شما ممکن است برای بهبود مدل لاگ شوند و در آینده توسط رقبا بازتولید شوند.

۵. اطلاعات مالی و بانکی

هرگز فیش حقوقی، شماره حساب، اطلاعات سرمایه‌گذاری یا جزئیات کارت اعتباری را به چت‌بات ندهید. این اسناد در صورت افشا شدن می‌توانند ابزاری برای کلاهبرداری مالی، اخاذی یا حملات مهندسی اجتماعی علیه شما و خانواده‌تان باشند.

اگر قبلا این کار را کرده‌اید، چه باید کرد؟

شاید نتوان آب ریخته را به جوی بازگرداند، اما می‌توان جلوی ضرر را گرفت. کارشناسان توصیه می‌کنند که تاریخچه چت‌های خود را پاک کنید تا در صورت هک شدن اکانت، اطلاعات قبلی لو نرود.

همچنین، نگاه خود را تغییر دهید؛ فضای چت با هوش مصنوعی را مثل یک «گروه خانوادگی» یا «محیط کاری» نیمه‌عمومی در نظر بگیرید، نه یک دفترچه خاطرات خصوصی. از تنظیمات حریم خصوصی چت‌بات‌ها استفاده کنید تا ذخیره تاریخچه را غیرفعال کرده و اجازه آموزش مدل با داده‌هایتان را لغو کنید.

 

منبع

مطالب مرتبط

دیدگاه‌تان را بنویسید