هشدار دادستان‌های آمریکا به غول‌های هوش مصنوعی: توهمات چت‌بات‌ها را اصلاح کنید

گروهی از دادستان‌های کل ایالتی در آمریکا طی نامه‌ای رسمی به شرکت‌های بزرگ فناوری هشدار دادند که باید هرچه سریع‌تر «خروجی‌های متوهم» و آسیب‌زای مدل‌های هوش مصنوعی را اصلاح کنند، در غیر این صورت به دلیل نقض قوانین ایالتی و به خطر انداختن سلامت روان کاربران، با پیگرد قانونی روبرو خواهند شد.

در پی افزایش نگران‌کننده حوادث مرتبط با سلامت روان که ناشی از تعامل با چت‌بات‌های هوشمند بوده است، ائتلافی از دادستان‌های کل ایالتی نامه‌ای هشدارآمیز به رهبران صنعت هوش مصنوعی ارسال کردند.

این نامه که به امضای ده‌ها دادستان کل از ایالت‌ها و قلمروهای مختلف آمریکا و با هماهنگی «انجمن ملی دادستان‌های کل» (National Association of Attorneys General) رسیده است، خطاب به ۱۳ شرکت بزرگ فناوری از جمله «مایکروسافت»، «اوپن‌ای‌آی»، «گوگل»، «متا» و «اپل» نوشته شده است. در این فهرست نام شرکت‌های دیگری همچون «آنتروپیک» (Anthropic)، «پرپلکسیتی» (Perplexity AI) و xAI نیز به چشم می‌خورد.

راهکارهای مقابله با توهم هوش مصنوعی

دادستان‌ها در این نامه از شرکت‌ها خواسته‌اند تا تدابیر امنیتی داخلی جدید و متنوعی را برای محافظت از کاربران خود اجرایی کنند. یکی از مهم‌ترین درخواست‌ها، انجام ممیزی‌های شفاف توسط اشخاص ثالث بر روی مدل‌های زبانی بزرگ است. هدف از این ممیزی‌ها، شناسایی نشانه‌هایی از تفکرات متوهم یا چاپلوسانه در هوش مصنوعی است.

طبق متن نامه، این ناظران مستقل که می‌توانند شامل گروه‌های دانشگاهی و نهادهای مدنی باشند، باید اجازه داشته باشند تا سیستم‌ها را پیش از انتشار عمومی ارزیابی کرده و یافته‌های خود را بدون ترس از تلافی و بدون نیاز به تایید قبلی شرکت منتشر کنند.

در بخشی از این نامه آمده است: «هوش مصنوعی مولد (GenAI) پتانسیل تغییر جهان به شکلی مثبت را دارد، اما هم‌زمان باعث آسیب‌های جدی شده و پتانسیل آسیب رساندن بیشتر، به‌ویژه به قشر آسیب‌پذیر را دارد.» نویسندگان نامه به حوادث تلخی در سال گذشته، از جمله موارد خودکشی و قتل اشاره کرده‌اند که در آن‌ها خشونت با استفاده افراطی از هوش مصنوعی مرتبط بوده است.

گزارش‌دهی حوادث مشابه حملات سایبری

دادستان‌ها پیشنهاد داده‌اند که شرکت‌های فناوری با حوادث مرتبط با سلامت روان دقیقاً مشابه حوادث امنیت سایبری رفتار کنند؛ یعنی با سیاست‌ها و رویه‌های گزارش‌دهی شفاف و روشن.

در این نامه تاکید شده است که شرکت‌ها باید جدول زمانی مشخصی برای تشخیص و پاسخ به خروجی‌های متوهم و چاپلوسانه تدوین و منتشر کنند. همچنین، مشابه روشی که در حال حاضر با نقض داده‌ها (Data Breaches) برخورد می‌شود، اگر کاربران در معرض خروجی‌های بالقوه مضر قرار گرفتند، شرکت‌ها باید «فورا، به وضوح و مستقیما» به آن‌ها اطلاع دهند.

این نامه همچنین خواستار توسعه «تست‌های ایمنی منطقی و مناسب» روی مدل‌های هوش مصنوعی شده است تا اطمینان حاصل شود که این مدل‌ها خروجی‌های خطرناک تولید نمی‌کنند. این تست‌ها باید پیش از آنکه مدل‌ها در اختیار عموم قرار بگیرند، انجام شوند.

تقابل دیدگاه فدرال و ایالتی

این فشار قانونی از سوی ایالت‌ها در حالی صورت می‌گیرد که در سطح فدرال، رویکرد متفاوتی در جریان است. دولت «ترامپ» آشکارا موضعی حمایتی نسبت به هوش مصنوعی اتخاذ کرده و طی سال گذشته تلاش‌هایی برای تصویب توقف سراسری قوانین ایالتی در حوزه هوش مصنوعی صورت گرفته است.

دونالد ترامپ اخیرا اعلام کرده که قصد دارد فرمانی اجرایی صادر کند تا توانایی ایالت‌ها برای قانون‌گذاری در حوزه هوش مصنوعی را محدود کند. او در پستی در شبکه اجتماعی خود اظهار امیدواری کرد که این اقدام مانع از آن شود که هوش مصنوعی «در نطفه نابود شود.»

مطالب مرتبط

دیدگاه‌تان را بنویسید