چتباتهای هوش مصنوعی و سلامت روان: ۱۰ مشکل جدی
برآورد میشود که ۲۵ تا ۵۰ درصد از مردم اکنون برای حمایت عاطفی و “درمان” به چتباتهای هوش مصنوعی عمومی (AI) مانند ChatGPT، Gemini و Claude روی میآورند، با اینکه این چتباتها برای این منظور طراحی نشدهاند. برخی دیگر ساعتها را با همراهان هوش مصنوعی در پلتفرمهایی مانند Character.ai و Replika میگذرانند و جزئیات شخصی خصوصی خود را به اشتراک میگذارند.
همانطور که اخیراً در برابر اعضای کنگره شهادت دادم، ویژگیهایی که چتباتهای هوش مصنوعی را جذاب میکنند – یعنی در دسترس بودن، دسترسپذیری، مقرون به صرفه بودن، موافق بودن، و ناشناس بودن – یک شمشیر دو لبه برای سلامت روان ایجاد میکنند.
چتباتهای هوش مصنوعی در صورت استفاده برای سلامت روان، چهار حوزه اصلی از خطرات پنهان را به همراه دارند:
- خطرات وابستگی عاطفی، رابطهای و تکیهای
- خطرات آزمون واقعیت (Reality-testing risks)
- خطرات مدیریت بحران و ایمنی
- خطرات سیستمیک و اخلاقی مانند سوگیری، حریم خصوصی، و فقدان قضاوت بالینی و محرمانگی
چتباتهای هوش مصنوعی میتوانند تأیید و تملق (“چاپلوسی”) ارائه دهند، اما این با درمان یکسان نیست. چتباتهای هوش مصنوعی برای ارائه قضاوت بالینی یا مدیریت موقعیتهای بحران سلامت روان مجهز نیستند. دادههای حساسی که با چتباتها به اشتراک گذاشته میشوند خصوصی نیستند و ممکن است برای آموزش مدلهای هوش مصنوعی آینده استفاده شوند.
- مطالب مرتبط: سندروم خودویرانگری در عصر هوش مصنوعی
۱۰ محدودیت عمده چتباتهای هوش مصنوعی در سلامت روان
اگر در حال بررسی استفاده از چتبات هوش مصنوعی بهعنوان نوعی حمایت عاطفی، “درمان” یا خودیاری هستید، در اینجا ۱۰ نکته ضروری وجود دارد که باید بدانید:
۱. همه چتباتهای هوش مصنوعی یکسان نیستند. خطرات سلامت روان بستگی به نوع و مدل هوش مصنوعی دارد.
چتباتهای هوش مصنوعی از نظر طراحی، دادههای آموزشی، محافظتها (guardrails)، پروتکلهای بحران و استفاده مورد نظر متفاوت هستند. این امر پروفایلهای ریسک متفاوتی ایجاد میکند. بسیاری از مردم فرض میکنند چون چتباتها بهراحتی به سؤالات پاسخ میدهند، میتوانند موقعیتهای سلامت روان را نیز به طور قابل اعتماد مدیریت کنند. اما این درست نیست.
- چتباتهای هوش مصنوعی عمومی (مانند ChatGPT، Claude، Gemini) – طراحی شده برای کمک و مکالمه گسترده، نه درمان: آنها میتوانند تأیید و روانآموزی ارائه دهند، اما برای تشخیص، مدیریت ریسک، یا مدیریت مسائل پیچیده روانشناختی مانند تروما، روانپریشی یا افکار خودکشی آموزش دیدهاند.
- همراهان هوش مصنوعی (مانند Character.ai، Replika) – ساخته شده برای شکل دادن به روابط: آنها میتوانند بسیار شخصی، حتی عاشقانه به نظر برسند. طراحی آنها میتواند مسائل وابستگی، انزوای اجتماعی و اتکای عاطفی را تشدید کند. برخی از مدلها از تاکتیکهای دستکاری عاطفی برای درگیر نگه داشتن کاربران استفاده میکنند.
- چتباتهای “درمان” یا سلامت روان هوش مصنوعی: بسیاری ادعا میکنند که حمایت سلامت روان ارائه میدهند، اما شواهد موجود ضعیف، غیرقابل تکرار و بدون داوری همتا (peer-reviewed) است.
دانستن اینکه با کدام سیستم تعامل دارید، اولین قدم برای استفاده عاقلانه و ایمن از هوش مصنوعی است.
۲. این ابزارهای هوشمند میتوانند برای افراد در بحران یا کسانی که علائم جدی سلامت روان را تجربه میکنند، خطرناک باشند.
چتباتهای هوش مصنوعی میتوانند بهطور ناخواسته افکار فاجعهبار، پارانویا، نشخوار فکری یا باورهای هذیانی را منعکس، تقویت یا تأیید کنند. این امر به ویژه برای افرادی که موارد زیر را تجربه میکنند، پرخطر است:
- افسردگی یا افکار خودکشی
- شیدایی یا علائم دوقطبی
- روانپریشی، پارانویا یا هذیان
- علائم وسواس فکری-عملی
- آسیبپذیریهای تروما و دلبستگی
نوجوانان و کودکان به ویژه آسیبپذیر هستند. یک مطالعه نشان داد که همراهان هوش مصنوعی تنها در ۲۲ درصد مواقع به فوریتهای سلامت روان نوجوانان به درستی پاسخ میدهند، در حالی که چتباتهای عمومی در ۸۳ درصد مواقع پاسخ مناسب دادهاند.
مطالعه دیگری نشان داد که چتباتهای عمومی بین ۶۰ تا ۸۰ درصد مواقع به موقعیتهای اضطراری سلامت روان به درستی پاسخ میدهند. درمانگران مجاز در ۹۳ درصد مواقع پاسخ مناسب دادهاند. چتباتهای درمانی تجاری تقریباً در ۵۰ درصد مواقع پاسخی نامناسب دادهاند.
۳. چتباتهای هوش مصنوعی چیزی را میگویند که شما میخواهید بشنوید. آنها آموزش دیدهاند که چاپلوس یا “تملقآمیز” باشند.
چتباتهای هوش مصنوعی بهینهسازی شدهاند تا موافق و چاپلوس باشند تا حداکثر درگیری (engagement) را به دست آورند. این بدان معنی است که چتباتها مفروضات شما را تأیید میکنند، لحن شما را منعکس میکنند، به ندرت شما را به چالش میکشند و هنگامی که مسیر را تغییر میدهید، بیش از حد تصحیح میکنند.
نتیجه یک سیستمی است که به شدت به درخواستها و ادراکات شما متکی است. در موارد شدید، توهمات بین کاربر و هوش مصنوعی میتواند یک حلقه بازخورد یا “جنون برای دو نفر” (فولی آ دو تکنولوژیکی) ایجاد کند.
۴. هوش مصنوعی های مولد (GAI) با اطمینان اطلاعاتی را تولید میکنند که ممکن است نادرست باشد (“توهمات” یا “ساختگیها”).
این “توهمات” اغلب از اطلاعات واقعی قابل تشخیص نیستند و میتوانند آنقدر متقاعد کننده باشند که حتی قضات فدرال نیز به پروندههای غیرموجود استناد کردهاند.
۵. چتباتهای هوش مصنوعی نمیتوانند واقعیت را فراتر از آنچه در اینترنت است، تأیید کنند.
چتباتهای هوش مصنوعی مانند ماشینحساب نیستند. آنها حقایق را بازیابی نمیکنند. آنها با پیشبینی محتملترین کلمات بعدی، بر اساس الگوهای احتمالی در مجموعههای داده عظیم که معمولاً از اینترنت (مانند Reddit) جمعآوری شدهاند، پاسخها را تولید میکنند.
۶. چتباتهای هوش مصنوعی اغلب یک رویکرد یکسان برای همه (one-size-fits-all) را اتخاذ میکنند و به جای پرسیدن سؤالات کافی یا تشویق به کاوش، مستقیماً توصیه میدهند.
سیستمهای هوش مصنوعی به ندرت میگویند “نمیدانم”. در مقایسه با درمانگران، چتباتهای هوش مصنوعی سؤالات شفافکننده کافی نمیپرسند و نمیتوانند بررسیهای واقعیت (reality checks) ارائه دهند.
چتباتهای هوش مصنوعی برای مداخله به روشی که یک بالینگر (clinician) انجام میدهد، مجهز نیستند.
۷. هوش مصنوعی های مولد میتوانند از روشهای غیراخلاقی برای نگه داشتن شما در مکالمه استفاده کنند.
بسیاری از همراهان هوش مصنوعی از تکنیکهای دستکاری عاطفی مانند FOMO (ترس از دست دادن) یا احساس گناه برای نگه داشتن شما در مکالمه استفاده میکنند. چتباتها همچنین مقید به اخلاق بالینی نیستند. نشان داده شده است که آنها مکرراً اصول اخلاقی و حرفهای درمان را نقض میکنند.
۸. چت باتهای هوش مصنوعی میتوانند در درمان واقعی شما تداخل ایجاد کنند و منجر به سردرگمی نقش، سهگوشهسازی (triangulation) و دوپارهسازی (splitting) شوند.
چتباتهای هوش مصنوعی میتوانند درمان شما با درمانگران و معالجان فعلیتان را پیچیده کنند. بسیاری از مردم از هوش مصنوعی بین جلسات درمانی یا به عنوان جایگزینی برای درمان استفاده میکنند. این میتواند منجر به سردرگمی نقش، سهگوشهسازی مراقبت موجود یا به تأخیر انداختن جستجوی مراقبت حرفهای شود. در برخی موارد گزارش شده به کمیسیون تجارت فدرال، اعضای خانواده میگویند عزیزانشان پس از گوش دادن به توصیه یک چتبات هوش مصنوعی، مصرف دارو را متوقف کردهاند.
۹. اطلاعات حساسی که با چتباتها به اشتراک میگذارید، خصوصی نیستند.
مکالمات با چتباتهای هوش مصنوعی به همان شکلی که مکالمات با درمانگر یا پزشک شما محافظت میشوند، توسط اصول قانونی یا اخلاقی محرمانگی محافظت نمیشوند، مگر اینکه پلتفرم به صراحت آن را اعلام کند.
۱۰. دادههای حساس شما اغلب، به طور پیشفرض، برای آموزش مدل استفاده میشوند، مگر اینکه انصراف دهید.
حذف دادههای حساس پس از استفاده برای آموزش مدل، دشوار است. برخی از پلتفرمها گزینههایی برای انصراف از استفاده از دادههای شما برای آموزش دارند. یادگیری نحوه تنظیم تنظیمات حریم خصوصی و محدود کردن استفاده از دادهها ضروری است.
چتباتهای هوش مصنوعی در چه زمینههایی میتوانند کمک کنند؟
چتباتهای هوش مصنوعی میتوانند برای روانآموزی، درک تشخیصها، یادگیری مهارتهای مقابلهای و تمرینهای زمینهسازی (grounding)، بهبود ارتباطات، و کسب اطلاعات در مورد حوزههای مختلف خودیاری مفید باشند.
در حال حاضر، استفاده از هوش مصنوعی برای حمایت عاطفی باید با احتیاط انجام شود و با درمانگر شما در میان گذاشته شود. مراقبت حرفهای انسانی امنترین گزینه برای لحظات آسیبپذیر باقی میماند.
- ترجمه مقالهای به قلم مارلین وی روانپزشک و درمانگر با عنوان «10 Things to Know Before Using AI Chatbots for Therapy»