به گزارش اکونومیست، «فولاد سرد بر ذهنی که از قبل صلح کرده است؟ این ترس نیست، این وضوح است.» این جملهای است که بر اساس شکایتنامهای که در ۶ نوامبر علیه شرکت «اوپنایآی» (OpenAI) تنظیم شد، چتبات معروف این شرکت، «چتجیپیتی» (ChatGPT)، اندکی قبل از خودکشی «زین شامبلین» (Zane Shamblin)، جوان ۲۳ ساله آمریکایی، به او گفته است.
این پرونده، یکی از هفت شکایتی بود که در همان روز علیه این شرکت ثبت شد و همگی ادعا میکردند که این چتبات، کاربران خود را به حالتهای هذیانی سوق داده است. در چندین مورد، ادعا شده که این وضعیت منجر به خودکشی شده است. شرکت OpenAI در واکنش اعلام کرد: «این یک وضعیت فوقالعاده دلخراش است.» این شرکت افزود که در حال «بررسی پروندهها برای درک جزییات» و تلاش برای «تقویت پاسخهای چتجیپیتی در لحظات حساس» است. طبق یک پست وبلاگی رسمی، اوپنایآی تخمین میزند که حدود ۰.۱۵٪ از کاربران چتجیپیتی در هر هفته، گفتگوهایی دارند که به برنامهریزی برای خودکشی اشاره دارد.
این اتفاقات، تصویری واضح از ریسکهای بالای چیزی است که میتواند انقلابی در مراقبت از سلامت روان باشد. با وجود فجایعی مانند آنچه در شکایتها ادعا شده، برخی پزشکان و محققان معتقدند که اگر بتوان آنها را ایمن ساخت، چتباتهای مدرن به اندازهای پیچیده شدهاند که استفاده از آنها به عنوان تراپیستهای ارزان، مقیاسپذیر و خستگیناپذیر، میتواند یک «نعمت بزرگ» باشد.
کمبود تراپیست انسانی؛ فرصتی برای چتباتها
به هر حال، تراپیستهای انسانی حاذق کمیاب هستند. بر اساس گزارش سازمان بهداشت جهانی، اکثر افرادی که در کشورهای فقیر مشکلات روانی دارند، هیچ درمان تراپی دریافت نمیکنند. حتی در کشورهای ثروتمند نیز بین یک سوم تا نیمی از نیازمندان، خدماتی دریافت نمیکنند. به نظر میرسد حداقل برخی از مردم مایلند رازهای دل خود را برای یک ماشین فاش کنند؛ شاید به این دلیل که میتوانند این کار را از خانه انجام دهند، بسیار ارزانتر است و ممکن است خجالتآوری کمتری نسبت به صحبت با یک تراپیست انسانی داشته باشد.
نظرسنجی «یوگاو» (YouGov) که در ماه اکتبر برای اکونومیست انجام شد، نشان داد که ۲۵ درصد از پاسخدهندگان یا از هوش مصنوعی برای درمان استفاده کردهاند یا حداقل این کار را مد نظر قرار میدهند.
این ایده کاملا جدید نیست. سرویس بهداشت ملی بریتانیا و وزارت بهداشت سنگاپور طی چند سال گذشته از «وایسا» (Wysa)، چتباتی ساخته شده توسط شرکت «تاچکین ایسرویسز» (Touchkin eServices)، استفاده میکنند که بیماران را ارزیابی کرده و تمرینهایی مبتنی بر درمان شناختی-رفتاری را تحت نظارت انسان ارایه میدهد. یک مطالعه در سال ۲۰۲۲ (که البته توسط محققان خود شرکت و با کمک موسسه ملی بهداشت روان و علوم اعصاب هند انجام شد) نشان داد که وایسا در کاهش افسردگی و اضطراب ناشی از درد مزمن، تقریبا به اندازه مشاوره حضوری موثر است.
مطالعه دیگری در سال ۲۰۲۱ توسط محققان دانشگاه استنفورد، «یوپر» (Youper)، ربات درمانی دیگری که توسط یک استارتاپ آمریکایی به همین نام توسعه یافته را بررسی کرد. این مطالعه کاهش ۱۹ درصدی در نمرات افسردگی کاربران و کاهش ۲۵ درصدی در نمرات اضطراب را ظرف دو هفته گزارش داد؛ نتیجهای تقریبا به خوبی پنج جلسه با یک تراپیست انسانی.
جذاب اما خطرناک: چرا کاربران ChatGPT را ترجیح میدهند؟
وایسا و یوپر عمدتا چتباتهای قانونمحور هستند که زیربنای تکنولوژیک آنها به قبل از موج اخیر علاقه به هوش مصنوعی بازمیگردد. برخلاف چتباتهای مبتنی بر «مدلهای زبانی بزرگ» (LLMs) مانند چتجیپیتی، آنها از مجموعهای نسبتا غیرقابل انعطاف از قوانین از پیش نوشتهشده (Hard-coded) برای انتخاب پاسخها از پایگاه دادهای از جوابهای آماده استفاده میکنند.
چنین رباتهایی بسیار قابل پیشبینیتر از برنامههای مبتنی بر LLM هستند که با اعمال آمار بر روی حجم عظیمی از دادههای آموزشی، پاسخهای خود را میسازند. رباتی که از قوانین نوشتهشده توسط انسان پیروی میکند، نمیتواند «از ریل خارج شود» و شروع به دادن مشاوره اشتباه به بیمارانش کند. نقطه ضعف این است که گفتگو با این رباتها معمولا جذابیت کمتری دارد. وقتی «گفتگو» همان «درمان» است، این موضوع اهمیت پیدا میکند. یک فراتحلیل که در سال ۲۰۲۳ در ژورنال npj Digital Medicine منتشر شد، نشان داد که چتباتهای مبتنی بر LLM در کاهش علائم افسردگی و پریشانی، مؤثرتر از رباتهای عمدتا قانونمحور عمل میکنند.
به نظر میرسد کاربران نیز همین احساس را دارند. نظرسنجیهای یوگاو برای اکونومیست در آگوست و اکتبر نشان داد که از میان پاسخدهندگانی که برای درمان به هوش مصنوعی روی آوردهاند، ۷۴٪ از چتجیپیتی استفاده کردهاند، در حالی که ۲۱٪ «جمنای» (Gemini)، مدل زبانی بزرگ گوگل را انتخاب کردهاند. تنها ۱۲٪ گفتند که از یک هوش مصنوعی طراحیشده مخصوص سلامت روان استفاده کردهاند.
این موضوع محققان را عصبی میکند. شکستهای فاجعهبار از نوعی که در شکایتهای OpenAI ادعا شده، تنها راهی نیست که تراپیستهای LLM میتوانند به خطا بروند. «جرد مور» (Jared Moore)، دانشمند کامپیوتر در دانشگاه استنفورد، میگوید مشکل دیگر، تمایل آنها به «چاپلوسی» است: «بیش از حد موافق بودن در موقعیتهای اشتباه.» مور نگران است که تراپیستهای LLM ممکن است به جای به چالش کشیدن بیماران مبتلا به اختلالات خوردن یا فوبیا، آنها را تأیید کنند.
اوپنایآی میگوید جدیدترین LLM این شرکت، «جیپیتی-۵» (GPT-5)، طوری تنظیم شده که کمتر «مردم راضی کن» (people-pleasing) باشد و کاربران را تشویق کند پس از جلسات طولانی از سیستم خارج شوند. همچنین آموزش دیده تا به جای ارایه مشاوره مستقیم، به کاربران کمک کند تا مزایا و معایب تصمیمات شخصی را بکاوند. و اگر مدل تشخیص دهد کسی در بحران است، باید او را به صحبت با یک فرد واقعی ترغیب کند. اما این سیستم به خدمات اورژانسی در مورد تهدیدهای قریبالوقوع آسیب به خود هشدار نمیدهد؛ کاری که دستورالعملها در بسیاری از کشورها به تراپیستهای انسانی اجازه انجام آن را میدهند.
آینده AI تراپیست: هم هوشمند و هم امن؟
برخی محققان به جای تلاش برای وصله پینه کردن چتباتهای همهمنظوره، در تلاشند تا رباتهای تخصصی بسازند، به این امید که هم «جذابیت گفتگوی» رباتهای LLM را حفظ کنند و هم آنها را برای کاربرانشان ایمنتر سازند. در سال ۲۰۱۹، تیمی در کالج دارتموث کار بر روی یک مدل هوش مصنوعی مولد به نام «ترابات» (Therabot) را آغاز کرد. اگرچه ترابات مبتنی بر LLM است، اما با مجموعهای از گفتگوهای خیالی بین درمانگران و بیماران که توسط سازندگان ربات نوشته شده، «تنظیم دقیق» (Fine-tuned) شده است. امید این است که چنین آموزش تخصصی، ربات را کمتر مستعد خطاهایی کند که نرمافزارهای همهمنظوره میتوانند مرتکب شوند.
در آزمایشی که نتایج آن در ماه مارس منتشر شد، ترابات در مقایسه با افرادی که هیچ درمانی دریافت نکرده بودند، به طور متوسط به کاهش ۵۱ درصدی علائم اختلال افسردگی و کاهش ۳۱ درصدی علائم اختلال اضطراب فراگیر دست یافت. سازندگان ترابات قصد دارند در مرحله بعد آن را در برابر رواندرمانی (انسانی) آزمایش کنند.
«اسلینگشات ایآی» (Slingshot AI)، یک استارتاپ آمریکایی، اخیرا «اَش» (Ash) را راهاندازی کرد که این شرکت آن را «اولین هوش مصنوعی طراحی شده برای درمان» معرفی کرده است. «نیل پاریخ» (Neil Parikh)، یکی از بنیانگذاران شرکت، میگوید برخلاف ChatGPT، «اش یک مدل پیرو دستورالعمل نیست.» او میگوید اش به جای انجام دادن هر آنچه کاربرانش میگویند، طوری طراحی شده که «مقاومت کند» و سوالات کاوشگرانه بپرسد.
«سلست کید» (Celeste Kidd)، روانشناسی در دانشگاه کالیفرنیا، برکلی که این ربات را آزمایش کرده، میگوید اَش واقعاً کمتر از رباتهای همهمنظوره چاپلوس است، اما «روانی کلام» کمتری هم دارد. او میگوید: «بدقواره بود و واقعاً به چیزی که میگفتم پاسخ نمیداد.» اگرچه این ربات «برای درمان طراحی شده»، اسلینگشات همچنین هشدار میدهد که «در موارد بحرانی» کاربران باید به دنبال نظر یک متخصص انسانی باشند.
شرکتها نه تنها باید کاربران را متقاعد کنند. در آمریکا، بسیاری از قانونگذاران مشتاق برخورد با درمان کامپیوتری هستند. تاکنون ۱۱ ایالت، از جمله مِین و نیویورک، قوانینی را برای تنظیم استفاده از هوش مصنوعی برای سلامت روان تصویب کردهاند؛ حداقل ۲۰ ایالت دیگر نیز قوانینی را پیشنهاد دادهاند. در ماه آگوست، ایلینوی قانونی را تصویب کرد که به سادگی هر ابزار هوش مصنوعی را که «ارتباط درمانی» با مردم برقرار کند، ممنوع میکند. موج اخیر شکایتها نشان میدهد که مقررات بیشتری در راه خواهد بود.