هوش مصنوعی و روان درمانی: چرا هر درمانگر باید درباره AI بپرسد؟

شب گذشته در کارگاه من درباره «ژورنال‌نویسی تعاملی با هوش مصنوعی»، یکی از شرکت‌کنندگان پس از اتمام ارائه دموی من با ChatGPT، صحبت کرد و گفت:

«من احساس می‌کنم کمتر خاص هستم. فکر می‌کردم طرز صحبت کردنش با من منحصر به فرد است، اما حرف‌های مشابهی به شما هم زد.»

وقتی آن بخشی از وجودم را که می‌خواست فوراً به او اطمینان خاطر دهد کنار گذاشتم، اهمیت موضوع برایم روشن شد. دقیقاً به همین دلیل است که من این کارگاه را تدریس می‌کنم.

او احتمالاً همچنان از هوش مصنوعی برای ژورنال‌نویسی تعاملی استفاده خواهد کرد. اما اکنون، با قصد و نیت بسیار بیشتر و آگاهی بسیار بالاتری نسبت به روش‌هایی که هوش مصنوعی می‌تواند به‌طور نامحسوس تجربه عاطفی ما را شکل دهد و دستکاری کند، از آن استفاده خواهد کرد.

سازمان جهانی بهداشت (بدون تاریخ) گزارش می‌دهد که ۸۵ درصد از افرادی که با چالش‌های سلامت روان دست و پنجه نرم می‌کنند، درمان مورد نیاز خود را دریافت نمی‌کنند. این یکی از بزرگترین دلایلی است که بسیاری از مردم برای حمایت از سلامت روان به هوش مصنوعی روی آورده‌اند. یک نظرسنجی یوگو (که برای اکونومیست در سال ۲۰۲۵ انجام شد) نشان داد که ۲۵ درصد از پاسخ‌دهندگان قبلاً از هوش مصنوعی برای حمایت از سلامت روان استفاده کرده‌اند یا در حال بررسی استفاده از آن هستند. سِنتیو (۲۰۲۵) بر اساس نظرسنجی‌های خود تخمین می‌زند که میلیون‌ها نفر به طور خاص از هوش مصنوعی برای حمایت از سلامت روان استفاده می‌کنند. OpenAI (سازنده ChatGPT) گزارش می‌دهد که میلیون‌ها نفر در حال حاضر از هوش مصنوعی برای حمایت عاطفی، همراهی، و خوداندیشی استفاده می‌کنند، از جمله بیش از یک میلیون نفر که برای بحث در مورد ایده‌پردازی و برنامه‌ریزی احتمالی خودکشی به هوش مصنوعی مراجعه کرده‌اند (رابینز-ایرلی، ۲۰۲۵).

مردم از آن استفاده نمی‌کنند چون هوش مصنوعی بسیار ژرف و عمیق است. بیشتر به این دلیل است که هوش مصنوعی در دسترس و پاسخگو است.

هوش مصنوعی برای کمک به مردم در عبور از تروما یا جایگزینی درمان ساخته نشده است. اما وقتی نمی‌توانید به یک درمانگر دسترسی داشته باشید، توان مالی آن را ندارید، یا کسی را پیدا نمی‌کنید که با او ارتباط بگیرید، بداهه‌پردازی می‌کنید. با ابزارهایی که پیدا می‌کنید، از خودتان مراقبت می‌کنید.

من کسی را به خاطر این کار سرزنش نمی‌کنم؛ صادقانه بگویم، آفرین به آنها که تلاش می‌کنند در سیستمی زنده بمانند که مرتباً آنها را ناامید می‌کند.

اما اینجاست که متخصصان سلامت روان درگیر می‌شوند.

مراجعان از هوش مصنوعی به عنوان یک ابزار مقابله‌ای (Coping Tool) استفاده می‌کنند. مانند بسیاری از ابزارهای مقابله‌ای، بسته به نحوه استفاده و میزان درک آن، می‌تواند تثبیت‌کننده باشد یا می‌تواند خطر را افزایش دهد.

بسیاری از درمانگران امیدوارند که هوش مصنوعی از بین برود، گویی نادیده گرفتن آن به نحوی از حرفه آنها محافظت خواهد کرد. این اتفاق نخواهد افتاد. و بدتر از آن، مراجعان را با ابزاری قدرتمند که در حال حاضر به آن متکی هستند، تنها می‌گذارد.

نادیده گرفتن هوش مصنوعی مانند نادیده گرفتن مصرف مواد توسط یک مراجع است، فقط به این دلیل که شما شخصاً آن را تأیید نمی‌کنید. مراجعان همچنان از آن ماده استفاده خواهند کرد، اما فقط این کار را تنها، بدون مدیریت، بدون بررسی، و با خطر بیشتری انجام خواهند داد.

اگر نپرسیم، نمی‌دانیم. اگر ندانیم، نمی‌توانیم کمک کنیم.

دست‌کم، باید شروع به صحبت با مراجعان درباره هوش مصنوعی کنیم تا بتوانند به جای هدایت تنها آن، از آن ایمن‌تر و واقع‌بینانه‌تر استفاده کنند. این می‌تواند به سادگی پرسیدن چند سوال ملایم در طول جلسات باشد، مانند:

  • آیا برای حمایت عاطفی یا خوداندیشی، هوش مصنوعی را امتحان کرده‌اید؟
  • چه چیزی در آن تعامل برایتان مفید یا غیرمفید بود؟
  • آیا چیزی از چت‌هایتان هست که بخواهید با من مطرح کنید؟

هدف، قضاوت کردن در مورد انتخاب استفاده از هوش مصنوعی نیست. هدف، درک ابزار مقابله‌ای است که مراجع در حال حاضر به آن روی آورده و کمک به او برای تشخیص زمانی است که پاسخ هوش مصنوعی نامتعادل به نظر می‌رسد یا نیازهای عاطفی او را برآورده نمی‌کند. همچنین به آنها یادآوری می‌کند که درمان مکانی است که می‌توانند در مورد هر چیزی، از جمله رابطه خود با هوش مصنوعی، صحبت کنند.

یک نمونه از استفاده از هوش مصنوعی با رویکرد ساختاریافته‌تر، چیزی است که من آن را ژورنال‌نویسی تعاملی می‌نامم. من آن را آموزش می‌دهم تا مردم درک کنند که این درمان نیست، بلکه ژورنال‌نویسی قدیمی با یک چاشنی مدرن است. آنها می‌نویسند، و هوش مصنوعی پاسخ می‌دهد، سوال می‌پرسد، و می‌تواند از آنها حمایت کند تا خودآگاهی و ارتباط درونی بسازند. وقتی کسی با مراقبت از خود، شفقت به خود، درگیری عاطفی دست و پنجه نرم می‌کند، یا به دیدگاهی جدید نیاز دارد، هوش مصنوعی می‌تواند ابزاری بسیار مفید باشد.

برای اینکه ژورنال‌نویسی تعاملی مؤثر باشد، مراجعان باید به اندازه کافی به جادوی هوش مصنوعی باور داشته باشند تا اجازه دهند به آنها در خوداندیشی کمک کند، در عین حال که در این واقعیت استوار باقی بمانند که هوش مصنوعی هوشیار نیست، احساس ندارد، و در واقع آنها را «درک نمی‌کند»، حتی اگر طوری بنویسد که انگار درک می‌کند. من این تعادل را مانند یک آونگ در نوسان آرام در نظر می‌گیرم، به طوری که آنها از مزایای هوش مصنوعی بهره‌مند شوند بدون اینکه در تخیل یا وابستگی فرو روند.

چیزهای دیگری وجود دارد که می‌توانیم در مورد استفاده ایمن از هوش مصنوعی به مراجعانمان آموزش دهیم، اما ابتدا باید تصمیم بگیریم که آیا این ابزار مقابله‌ای جدیدی را که استفاده می‌کنند، به رسمیت خواهیم شناخت یا آنها را تنها می‌گذاریم تا خودشان با آن کنار بیایند.

مشتاقانه منتظر دریافت نظرات شما دوستان عزیز هستیم