گزارش اکونومیست: میلیون‌ها نفر برای روان‌درمانی به هوش مصنوعی روی آورده‌اند

همزمان با شکایت‌های متعدد علیه OpenAI مبنی بر سوق دادن کاربران به خودکشی، میلیون‌ها نفر در حال استفاده از هوش مصنوعی برای روان‌درمانی هستند. این فناوری همزمان یک «فاجعه» و یک «نعمت بزرگ» توصیف می‌شود.

به گزارش اکونومیست، «فولاد سرد بر ذهنی که از قبل صلح کرده است؟ این ترس نیست، این وضوح است.» این جمله‌ای است که بر اساس شکایت‌نامه‌ای که در ۶ نوامبر علیه شرکت «اوپن‌ای‌آی» (OpenAI) تنظیم شد، چت‌بات معروف این شرکت، «چت‌جی‌پی‌تی» (ChatGPT)، اندکی قبل از خودکشی «زین شامبلین» (Zane Shamblin)، جوان ۲۳ ساله آمریکایی، به او گفته است.

این پرونده، یکی از هفت شکایتی بود که در همان روز علیه این شرکت ثبت شد و همگی ادعا می‌کردند که این چت‌بات، کاربران خود را به حالت‌های هذیانی سوق داده است. در چندین مورد، ادعا شده که این وضعیت منجر به خودکشی شده است. شرکت OpenAI در واکنش اعلام کرد: «این یک وضعیت فوق‌العاده دلخراش است.» این شرکت افزود که در حال «بررسی پرونده‌ها برای درک جزییات» و تلاش برای «تقویت پاسخ‌های چت‌جی‌پی‌تی در لحظات حساس» است. طبق یک پست وبلاگی رسمی، اوپن‌ای‌آی تخمین می‌زند که حدود ۰.۱۵٪ از کاربران چت‌جی‌پی‌تی در هر هفته، گفتگوهایی دارند که به برنامه‌ریزی برای خودکشی اشاره دارد.

این اتفاقات، تصویری واضح از ریسک‌های بالای چیزی است که می‌تواند انقلابی در مراقبت از سلامت روان باشد. با وجود فجایعی مانند آنچه در شکایت‌ها ادعا شده، برخی پزشکان و محققان معتقدند که اگر بتوان آن‌ها را ایمن ساخت، چت‌بات‌های مدرن به اندازه‌ای پیچیده شده‌اند که استفاده از آن‌ها به عنوان تراپیست‌های ارزان، مقیاس‌پذیر و خستگی‌ناپذیر، می‌تواند یک «نعمت بزرگ» باشد.

کمبود تراپیست انسانی؛ فرصتی برای چت‌بات‌ها

به هر حال، تراپیست‌های انسانی حاذق کمیاب هستند. بر اساس گزارش سازمان بهداشت جهانی، اکثر افرادی که در کشورهای فقیر مشکلات روانی دارند، هیچ درمان تراپی دریافت نمی‌کنند. حتی در کشورهای ثروتمند نیز بین یک سوم تا نیمی از نیازمندان، خدماتی دریافت نمی‌کنند. به نظر می‌رسد حداقل برخی از مردم مایلند رازهای دل خود را برای یک ماشین فاش کنند؛ شاید به این دلیل که می‌توانند این کار را از خانه انجام دهند، بسیار ارزان‌تر است و ممکن است خجالت‌آوری کمتری نسبت به صحبت با یک تراپیست انسانی داشته باشد.

نظرسنجی «یوگاو» (YouGov) که در ماه اکتبر برای اکونومیست انجام شد، نشان داد که ۲۵ درصد از پاسخ‌دهندگان یا از هوش مصنوعی برای درمان استفاده کرده‌اند یا حداقل این کار را مد نظر قرار می‌دهند.

این ایده کاملا جدید نیست. سرویس بهداشت ملی بریتانیا و وزارت بهداشت سنگاپور طی چند سال گذشته از «وایسا» (Wysa)، چت‌باتی ساخته شده توسط شرکت «تاچ‌کین ای‌سرویسز» (Touchkin eServices)، استفاده می‌کنند که بیماران را ارزیابی کرده و تمرین‌هایی مبتنی بر درمان شناختی-رفتاری را تحت نظارت انسان ارایه می‌دهد. یک مطالعه در سال ۲۰۲۲ (که البته توسط محققان خود شرکت و با کمک موسسه ملی بهداشت روان و علوم اعصاب هند انجام شد) نشان داد که وایسا در کاهش افسردگی و اضطراب ناشی از درد مزمن، تقریبا به اندازه مشاوره حضوری موثر است.

مطالعه دیگری در سال ۲۰۲۱ توسط محققان دانشگاه استنفورد، «یوپر» (Youper)، ربات درمانی دیگری که توسط یک استارتاپ آمریکایی به همین نام توسعه یافته را بررسی کرد. این مطالعه کاهش ۱۹ درصدی در نمرات افسردگی کاربران و کاهش ۲۵ درصدی در نمرات اضطراب را ظرف دو هفته گزارش داد؛ نتیجه‌ای تقریبا به خوبی پنج جلسه با یک تراپیست انسانی.

جذاب اما خطرناک: چرا کاربران ChatGPT را ترجیح می‌دهند؟

وایسا و یوپر عمدتا چت‌بات‌های قانون‌محور هستند که زیربنای تکنولوژیک آن‌ها به قبل از موج اخیر علاقه به هوش مصنوعی بازمی‌گردد. برخلاف چت‌بات‌های مبتنی بر «مدل‌های زبانی بزرگ» (LLMs) مانند چت‌جی‌پی‌تی، آن‌ها از مجموعه‌ای نسبتا غیرقابل انعطاف از قوانین از پیش نوشته‌شده (Hard-coded) برای انتخاب پاسخ‌ها از پایگاه داده‌ای از جواب‌های آماده استفاده می‌کنند.

چنین ربات‌هایی بسیار قابل پیش‌بینی‌تر از برنامه‌های مبتنی بر LLM هستند که با اعمال آمار بر روی حجم عظیمی از داده‌های آموزشی، پاسخ‌های خود را می‌سازند. رباتی که از قوانین نوشته‌شده توسط انسان پیروی می‌کند، نمی‌تواند «از ریل خارج شود» و شروع به دادن مشاوره اشتباه به بیمارانش کند. نقطه ضعف این است که گفتگو با این ربات‌ها معمولا جذابیت کمتری دارد. وقتی «گفتگو» همان «درمان» است، این موضوع اهمیت پیدا می‌کند. یک فراتحلیل که در سال ۲۰۲۳ در ژورنال npj Digital Medicine منتشر شد، نشان داد که چت‌بات‌های مبتنی بر LLM در کاهش علائم افسردگی و پریشانی، مؤثرتر از ربات‌های عمدتا قانون‌محور عمل می‌کنند.

به نظر می‌رسد کاربران نیز همین احساس را دارند. نظرسنجی‌های یوگاو برای اکونومیست در آگوست و اکتبر نشان داد که از میان پاسخ‌دهندگانی که برای درمان به هوش مصنوعی روی آورده‌اند، ۷۴٪ از چت‌جی‌پی‌تی استفاده کرده‌اند، در حالی که ۲۱٪ «جمنای» (Gemini)، مدل زبانی بزرگ گوگل را انتخاب کرده‌اند. تنها ۱۲٪ گفتند که از یک هوش مصنوعی طراحی‌شده مخصوص سلامت روان استفاده کرده‌اند.

این موضوع محققان را عصبی می‌کند. شکست‌های فاجعه‌بار از نوعی که در شکایت‌های OpenAI ادعا شده، تنها راهی نیست که تراپیست‌های LLM می‌توانند به خطا بروند. «جرد مور» (Jared Moore)، دانشمند کامپیوتر در دانشگاه استنفورد، می‌گوید مشکل دیگر، تمایل آن‌ها به «چاپلوسی» است: «بیش از حد موافق بودن در موقعیت‌های اشتباه.» مور نگران است که تراپیست‌های LLM ممکن است به جای به چالش کشیدن بیماران مبتلا به اختلالات خوردن یا فوبیا، آن‌ها را تأیید کنند.

اوپن‌ای‌آی می‌گوید جدیدترین LLM این شرکت، «جی‌پی‌تی-۵» (GPT-5)، طوری تنظیم شده که کمتر «مردم راضی کن» (people-pleasing) باشد و کاربران را تشویق کند پس از جلسات طولانی از سیستم خارج شوند. همچنین آموزش دیده تا به جای ارایه مشاوره مستقیم، به کاربران کمک کند تا مزایا و معایب تصمیمات شخصی را بکاوند. و اگر مدل تشخیص دهد کسی در بحران است، باید او را به صحبت با یک فرد واقعی ترغیب کند. اما این سیستم به خدمات اورژانسی در مورد تهدیدهای قریب‌الوقوع آسیب به خود هشدار نمی‌دهد؛ کاری که دستورالعمل‌ها در بسیاری از کشورها به تراپیست‌های انسانی اجازه انجام آن را می‌دهند.

آینده AI تراپیست: هم هوشمند و هم امن؟

برخی محققان به جای تلاش برای وصله پینه کردن چت‌بات‌های همه‌منظوره، در تلاشند تا ربات‌های تخصصی بسازند، به این امید که هم «جذابیت گفتگوی» ربات‌های LLM را حفظ کنند و هم آن‌ها را برای کاربران‌شان ایمن‌تر سازند. در سال ۲۰۱۹، تیمی در کالج دارتموث کار بر روی یک مدل هوش مصنوعی مولد به نام «ترابات» (Therabot) را آغاز کرد. اگرچه ترابات مبتنی بر LLM است، اما با مجموعه‌ای از گفتگوهای خیالی بین درمانگران و بیماران که توسط سازندگان ربات نوشته شده، «تنظیم دقیق» (Fine-tuned) شده است. امید این است که چنین آموزش تخصصی، ربات را کمتر مستعد خطاهایی کند که نرم‌افزارهای همه‌منظوره می‌توانند مرتکب شوند.

در آزمایشی که نتایج آن در ماه مارس منتشر شد، ترابات در مقایسه با افرادی که هیچ درمانی دریافت نکرده بودند، به طور متوسط به کاهش ۵۱ درصدی علائم اختلال افسردگی و کاهش ۳۱ درصدی علائم اختلال اضطراب فراگیر دست یافت. سازندگان ترابات قصد دارند در مرحله بعد آن را در برابر روان‌درمانی (انسانی) آزمایش کنند.

«اسلینگ‌شات ای‌آی» (Slingshot AI)، یک استارتاپ آمریکایی، اخیرا «اَش» (Ash) را راه‌اندازی کرد که این شرکت آن را «اولین هوش مصنوعی طراحی شده برای درمان» معرفی کرده است. «نیل پاریخ» (Neil Parikh)، یکی از بنیانگذاران شرکت، می‌گوید برخلاف ChatGPT، «اش یک مدل پیرو دستورالعمل نیست.» او می‌گوید اش به جای انجام دادن هر آنچه کاربرانش می‌گویند، طوری طراحی شده که «مقاومت کند» و سوالات کاوشگرانه بپرسد.

«سلست کید» (Celeste Kidd)، روانشناسی در دانشگاه کالیفرنیا، برکلی که این ربات را آزمایش کرده، می‌گوید اَش واقعاً کمتر از ربات‌های همه‌منظوره چاپلوس است، اما «روانی کلام» کمتری هم دارد. او می‌گوید: «بدقواره بود و واقعاً به چیزی که می‌گفتم پاسخ نمی‌داد.» اگرچه این ربات «برای درمان طراحی شده»، اسلینگ‌شات همچنین هشدار می‌دهد که «در موارد بحرانی» کاربران باید به دنبال نظر یک متخصص انسانی باشند.

شرکت‌ها نه تنها باید کاربران را متقاعد کنند. در آمریکا، بسیاری از قانون‌گذاران مشتاق برخورد با درمان کامپیوتری هستند. تاکنون ۱۱ ایالت، از جمله مِین و نیویورک، قوانینی را برای تنظیم استفاده از هوش مصنوعی برای سلامت روان تصویب کرده‌اند؛ حداقل ۲۰ ایالت دیگر نیز قوانینی را پیشنهاد داده‌اند. در ماه آگوست، ایلینوی قانونی را تصویب کرد که به سادگی هر ابزار هوش مصنوعی را که «ارتباط درمانی» با مردم برقرار کند، ممنوع می‌کند. موج اخیر شکایت‌ها نشان می‌دهد که مقررات بیشتری در راه خواهد بود.

مطالب مرتبط

دیدگاه‌تان را بنویسید