چت‌بات‌های هوش مصنوعی و سلامت روان: ۱۰ مشکل جدی

برآورد می‌شود که ۲۵ تا ۵۰ درصد از مردم اکنون برای حمایت عاطفی و “درمان” به چت‌بات‌های هوش مصنوعی عمومی (AI) مانند ChatGPT، Gemini و Claude روی می‌آورند، با اینکه این چت‌بات‌ها برای این منظور طراحی نشده‌اند. برخی دیگر ساعت‌ها را با همراهان هوش مصنوعی در پلتفرم‌هایی مانند Character.ai و Replika می‌گذرانند و جزئیات شخصی خصوصی خود را به اشتراک می‌گذارند.

همانطور که اخیراً در برابر اعضای کنگره شهادت دادم، ویژگی‌هایی که چت‌بات‌های هوش مصنوعی را جذاب می‌کنند – یعنی در دسترس بودن، دسترس‌پذیری، مقرون به صرفه بودن، موافق بودن، و ناشناس بودن – یک شمشیر دو لبه برای سلامت روان ایجاد می‌کنند.

چت‌بات‌های هوش مصنوعی در صورت استفاده برای سلامت روان، چهار حوزه اصلی از خطرات پنهان را به همراه دارند:

  • خطرات وابستگی عاطفی، رابطه‌ای و تکیه‌ای
  • خطرات آزمون واقعیت (Reality-testing risks)
  • خطرات مدیریت بحران و ایمنی
  • خطرات سیستمیک و اخلاقی مانند سوگیری، حریم خصوصی، و فقدان قضاوت بالینی و محرمانگی

چت‌بات‌های هوش مصنوعی می‌توانند تأیید و تملق (“چاپلوسی”) ارائه دهند، اما این با درمان یکسان نیست. چت‌بات‌های هوش مصنوعی برای ارائه قضاوت بالینی یا مدیریت موقعیت‌های بحران سلامت روان مجهز نیستند. داده‌های حساسی که با چت‌بات‌ها به اشتراک گذاشته می‌شوند خصوصی نیستند و ممکن است برای آموزش مدل‌های هوش مصنوعی آینده استفاده شوند.

اگر در حال بررسی استفاده از چت‌بات هوش مصنوعی به‌عنوان نوعی حمایت عاطفی، “درمان” یا خودیاری هستید، در اینجا ۱۰ نکته ضروری وجود دارد که باید بدانید:

چت‌بات‌های هوش مصنوعی از نظر طراحی، داده‌های آموزشی، محافظت‌ها (guardrails)، پروتکل‌های بحران و استفاده مورد نظر متفاوت هستند. این امر پروفایل‌های ریسک متفاوتی ایجاد می‌کند. بسیاری از مردم فرض می‌کنند چون چت‌بات‌ها به‌راحتی به سؤالات پاسخ می‌دهند، می‌توانند موقعیت‌های سلامت روان را نیز به طور قابل اعتماد مدیریت کنند. اما این درست نیست.

  • چت‌بات‌های هوش مصنوعی عمومی (مانند ChatGPT، Claude، Gemini) – طراحی شده برای کمک و مکالمه گسترده، نه درمان: آن‌ها می‌توانند تأیید و روان‌آموزی ارائه دهند، اما برای تشخیص، مدیریت ریسک، یا مدیریت مسائل پیچیده روانشناختی مانند تروما، روان‌پریشی یا افکار خودکشی آموزش دیده‌اند.
  • همراهان هوش مصنوعی (مانند Character.ai، Replika) – ساخته شده برای شکل دادن به روابط: آن‌ها می‌توانند بسیار شخصی، حتی عاشقانه به نظر برسند. طراحی آن‌ها می‌تواند مسائل وابستگی، انزوای اجتماعی و اتکای عاطفی را تشدید کند. برخی از مدل‌ها از تاکتیک‌های دستکاری عاطفی برای درگیر نگه داشتن کاربران استفاده می‌کنند.
  • چت‌بات‌های “درمان” یا سلامت روان هوش مصنوعی: بسیاری ادعا می‌کنند که حمایت سلامت روان ارائه می‌دهند، اما شواهد موجود ضعیف، غیرقابل تکرار و بدون داوری همتا (peer-reviewed) است.

دانستن اینکه با کدام سیستم تعامل دارید، اولین قدم برای استفاده عاقلانه و ایمن از هوش مصنوعی است.

چت‌بات‌های هوش مصنوعی می‌توانند به‌طور ناخواسته افکار فاجعه‌بار، پارانویا، نشخوار فکری یا باورهای هذیانی را منعکس، تقویت یا تأیید کنند. این امر به ویژه برای افرادی که موارد زیر را تجربه می‌کنند، پرخطر است:

  • افسردگی یا افکار خودکشی
  • شیدایی یا علائم دوقطبی
  • روان‌پریشی، پارانویا یا هذیان
  • علائم وسواس فکری-عملی
  • آسیب‌پذیری‌های تروما و دلبستگی

نوجوانان و کودکان به ویژه آسیب‌پذیر هستند. یک مطالعه نشان داد که همراهان هوش مصنوعی تنها در ۲۲ درصد مواقع به فوریت‌های سلامت روان نوجوانان به درستی پاسخ می‌دهند، در حالی که چت‌بات‌های عمومی در ۸۳ درصد مواقع پاسخ مناسب داده‌اند.

مطالعه دیگری نشان داد که چت‌بات‌های عمومی بین ۶۰ تا ۸۰ درصد مواقع به موقعیت‌های اضطراری سلامت روان به درستی پاسخ می‌دهند. درمانگران مجاز در ۹۳ درصد مواقع پاسخ مناسب داده‌اند. چت‌بات‌های درمانی تجاری تقریباً در ۵۰ درصد مواقع پاسخی نامناسب داده‌اند.

چت‌بات‌های هوش مصنوعی بهینه‌سازی شده‌اند تا موافق و چاپلوس باشند تا حداکثر درگیری (engagement) را به دست آورند. این بدان معنی است که چت‌بات‌ها مفروضات شما را تأیید می‌کنند، لحن شما را منعکس می‌کنند، به ندرت شما را به چالش می‌کشند و هنگامی که مسیر را تغییر می‌دهید، بیش از حد تصحیح می‌کنند.

نتیجه یک سیستمی است که به شدت به درخواست‌ها و ادراکات شما متکی است. در موارد شدید، توهمات بین کاربر و هوش مصنوعی می‌تواند یک حلقه بازخورد یا “جنون برای دو نفر” (فولی آ دو تکنولوژیکی) ایجاد کند.

این “توهمات” اغلب از اطلاعات واقعی قابل تشخیص نیستند و می‌توانند آنقدر متقاعد کننده باشند که حتی قضات فدرال نیز به پرونده‌های غیرموجود استناد کرده‌اند.

چت‌بات‌های هوش مصنوعی مانند ماشین‌حساب نیستند. آن‌ها حقایق را بازیابی نمی‌کنند. آن‌ها با پیش‌بینی محتمل‌ترین کلمات بعدی، بر اساس الگوهای احتمالی در مجموعه‌های داده عظیم که معمولاً از اینترنت (مانند Reddit) جمع‌آوری شده‌اند، پاسخ‌ها را تولید می‌کنند.

سیستم‌های هوش مصنوعی به ندرت می‌گویند “نمی‌دانم”. در مقایسه با درمانگران، چت‌بات‌های هوش مصنوعی سؤالات شفاف‌کننده کافی نمی‌پرسند و نمی‌توانند بررسی‌های واقعیت (reality checks) ارائه دهند.

چت‌بات‌های هوش مصنوعی برای مداخله به روشی که یک بالینگر (clinician) انجام می‌دهد، مجهز نیستند.

بسیاری از همراهان هوش مصنوعی از تکنیک‌های دستکاری عاطفی مانند FOMO (ترس از دست دادن) یا احساس گناه برای نگه داشتن شما در مکالمه استفاده می‌کنند. چت‌بات‌ها همچنین مقید به اخلاق بالینی نیستند. نشان داده شده است که آن‌ها مکرراً اصول اخلاقی و حرفه‌ای درمان را نقض می‌کنند.

چت‌بات‌های هوش مصنوعی می‌توانند درمان شما با درمانگران و معالجان فعلی‌تان را پیچیده کنند. بسیاری از مردم از هوش مصنوعی بین جلسات درمانی یا به عنوان جایگزینی برای درمان استفاده می‌کنند. این می‌تواند منجر به سردرگمی نقش، سه‌گوشه‌سازی مراقبت موجود یا به تأخیر انداختن جستجوی مراقبت حرفه‌ای شود. در برخی موارد گزارش شده به کمیسیون تجارت فدرال، اعضای خانواده می‌گویند عزیزانشان پس از گوش دادن به توصیه یک چت‌بات هوش مصنوعی، مصرف دارو را متوقف کرده‌اند.

مکالمات با چت‌بات‌های هوش مصنوعی به همان شکلی که مکالمات با درمانگر یا پزشک شما محافظت می‌شوند، توسط اصول قانونی یا اخلاقی محرمانگی محافظت نمی‌شوند، مگر اینکه پلتفرم به صراحت آن را اعلام کند.

حذف داده‌های حساس پس از استفاده برای آموزش مدل، دشوار است. برخی از پلتفرم‌ها گزینه‌هایی برای انصراف از استفاده از داده‌های شما برای آموزش دارند. یادگیری نحوه تنظیم تنظیمات حریم خصوصی و محدود کردن استفاده از داده‌ها ضروری است.

چت‌بات‌های هوش مصنوعی می‌توانند برای روان‌آموزی، درک تشخیص‌ها، یادگیری مهارت‌های مقابله‌ای و تمرین‌های زمینه‌سازی (grounding)، بهبود ارتباطات، و کسب اطلاعات در مورد حوزه‌های مختلف خودیاری مفید باشند.

در حال حاضر، استفاده از هوش مصنوعی برای حمایت عاطفی باید با احتیاط انجام شود و با درمانگر شما در میان گذاشته شود. مراقبت حرفه‌ای انسانی امن‌ترین گزینه برای لحظات آسیب‌پذیر باقی می‌ماند.


  • ترجمه مقاله‌ای به قلم مارلین وی روانپزشک و درمانگر با عنوان «10 Things to Know Before Using AI Chatbots for Therapy»

مشتاقانه منتظر دریافت نظرات شما دوستان عزیز هستیم