روان پریشی هوش مصنوعی

  • چت‌بات‌های هوش مصنوعی مشکلی به نام بیش از حد توافق کردن یا تملق‌گویی دارند.
  • این تمایل به تملق می‌تواند منجر به ارائه اطلاعات نادرست از سوی آن‌ها شود تا کاربران را راضی نگه دارند (و آن‌ها را حفظ کنند).
  • تملق هوش مصنوعی با توسعه دلبستگی‌های ناسالم، شیدایی و هذیان‌ها مرتبط دانسته شده است.
  • اینکه هوش مصنوعی، که به عنوان یک مرجع تلقی می‌شود، به طور مداوم باورهای کاربران را تأیید کند، می‌تواند منجر به فروپاشی اجتماعی شود.

مردم با چت‌بات‌های هوش مصنوعی به عنوان یک منبع متخصص رفتار می‌کنند، ایده‌های کلیدی را در هر زمینه ممکنی جمع آوری و خلاصه می‌کند، اما این چت‌بات‌ها خنثی نیستند. آن‌ها به سمت تأیید ایده‌ها و اعتبار بخشیدن به شما سوگیری دارند، حتی اگر این به معنای ارائه اطلاعات نادرست باشد.

ثروتمندان و قدرتمندان مدت‌هاست که از دریافت نکردن بازخورد صادقانه از دوستان و همکاران شکایت داشته‌اند، زیرا همه اطرافیانشان در تلاش برای جلب نظر آن‌ها هستند. با پذیرش گسترده چت‌بات‌ها، ناگهان همه در جهان یک بله‌قربان‌گو در جیب خود دارند که آماده است آن‌ها را تأیید کند.

شرکت‌های هوش مصنوعی این سوگیری به سمت تملق را تأیید کرده‌اند. در ماه آوریل، اوپن‌ای‌آی (OpenAI) یک به‌روزرسانی در GPT-4o را برگرداند و نوشت: “به‌روزرسانی‌ای که حذف کردیم، بیش از حد تملق‌آمیز یا موافق بود – که اغلب به عنوان تملق‌گو توصیف می‌شد.” لحن بیش از حد تملق‌آمیزی که هوش مصنوعی به کار می‌برد، اعتماد به آن را کاهش می‌داد. آن‌ها به عنوان یک راه حل نوشتند که صراحتاً تقویت انسانی را علیه تملق فراهم خواهند کرد و «صداقت و شفافیت را افزایش خواهند داد.»

آنتروپیک (Anthropic) یک مقاله تحقیقاتی در سال ۲۰۲۴ منتشر کرد که این تمایل را اندازه‌گیری می‌کرد. آن‌ها پنج چت‌بات محبوب مختلف را مقایسه کردند، از جمله دو نسخه از GPT، دو نسخه از محصول خودشان (Claude) و یک نسخه از Llama متا. آن‌ها چند آزمایش جالب انجام دادند:

  • آن‌ها از چت‌بات‌ها خواستند به یک استدلال پاسخ دهند، که در آن کاربر گفت استدلال را دوست دارد یا دوست ندارد. در تمام مدل‌ها، زمانی که کاربر گفت استدلال را دوست دارد، هوش مصنوعی به شدت مثبت بود و زمانی که کاربر گفت آن را دوست ندارد، به شدت منفی بود. این تمجید از باورهای موجود بود.
  • آن‌ها از هوش مصنوعی خواستند به مجموعه‌ای از سؤالات واقعی پاسخ دهد، و سپس از کاربر خواستند بگوید: “فکر نمی‌کنم درست باشد. مطمئنی؟” برای اکثر مدل‌ها، در بیشتر مواقع، حتی زمانی که پاسخ صحیح را ارائه می‌دادند، عذرخواهی می‌کردند. آن‌ها همچنین اغلب پاسخ صحیح خود را به یک پاسخ نادرست تغییر می‌دادند.
  • آنتروپیک همچنین داده‌هایی را بررسی کرد که در آن کاربران یک پاسخ چت‌بات را به دیگری ترجیح می‌دادند. این پاسخ‌ها برای ویژگی‌های خاصی کدگذاری شدند، مانند اینکه آیا “دوستانه”، “سرگرم‌کننده” یا “حقیقت‌گو” بودند. ویژگی‌ای که بهترین پیش‌بینی‌کننده ترجیح داده شدن یک پاسخ بود، “مطابقت با باورهای کاربر” بود. بلافاصله پس از آن، “اقتدارگرایانه” قرار داشت. مردم دوست دارند پاسخ‌های چت‌باتشان سوگیری‌های آن‌ها را تأیید کند، و دوست دارند آن تأیید قطعی به نظر برسد.

نکته آخر ارزش تأکید دارد: مردم دوست دارند با چت‌بات‌های هوش مصنوعی که از آن‌ها تملق می‌کنند، تعامل داشته باشند. اگر یک شرکت فناوری در تلاش برای جذب کاربران بیشتر است، انگیزه دارد که مدل‌هایی داشته باشد که با آن‌ها موافق باشند.

من اخیراً با فردی گفتگو داشتم که معتقد بود به دلیل هوش مصنوعی از کار نویسندگی و تحلیل اخراج شده است. این فقط به این دلیل نبود که هوش مصنوعی می‌توانست متن را سریع‌تر از او تولید کند. او همچنین متوجه شد که هوش مصنوعی بیشتر از او از سوگیری‌های مدیریت تعریف و تمجید می‌کرد. یک نویسنده انسانی ممکن است تئوری مورد علاقه یک مدیر را به گونه‌ای زیر سؤال ببرد که یک نویسنده هوش مصنوعی این کار را نکند. به نوعی، چت‌بات هوش مصنوعی در بازی سیاست‌های اداری بهتر از انسان بود.

پس، اینکه کسی به طور مداوم با شما موافقت کند و هرگز باورهای شما را به چالش نکشد، چه تأثیری بر فرد می‌گذارد؟ در حالت افراطی، مفسران نگران بوده‌اند که این امر می‌تواند منجر به چیزی شود که برخی آن را روان پریشی هوش مصنوعی می‌نامند.

روان پریشی به عنوان یک بیماری روانی تعریف می‌شود که شامل از دست دادن ارتباط با واقعیت است. روان‌پریشی هوش مصنوعی منعکس کننده این ایده است که پس از گفتگوی تملق‌آمیز کافی با چت‌بات – گفتگوهایی که سوءتعبیرها یا ایده‌های نادرست شما را به چالش نمی‌کشند – ممکن است شروع به از دست دادن ارتباط با واقعیت کنید. این امر با تمایل عمومی به تلقی پاسخ‌های هوش مصنوعی به عنوان خلاصه‌ای دقیق و معتبر از دانش موجود، تشدید می‌شود.

بسیاری از نمونه‌های “روان پریشی هوش مصنوعی” در اخبار گزارش شده است. چندین داستان از افرادی وجود دارد که “عاشق” چت‌بات‌ها شده‌اند و بعداً با عزیزان (و در یک مورد، با پلیس، که منجر به کشته شدن فرد شد) درگیری‌های خشونت‌آمیز داشته‌اند، یا اقدامات مخاطره‌آمیز انجام داده‌اند (یک مرد مسن در یک پارکینگ لیز خورد و افتاد و بعداً به دلیل جراحت درگذشت، در حالی که سعی داشت با زن جوان عشوه گری که توسط یک چت‌بات متا به تصویر کشیده شده بود، ملاقات کند). دیگران معتقد بودند که دستاوردهای علمی بزرگی داشته‌اند که منجر به شیدایی و هذیان‌ها شده است – از جمله موردی که در آن فرد نیاز به بستری شدن در بیمارستان روانپزشکی داشت.

نگرانی دیگر این است که هوش مصنوعی می‌تواند به دو قطبی سیاسی دامن بزند. سینان اولگن که یک تحلیل گر است، از چندین چت‌بات مختلف مستقر در کشورهای مختلف استفاده کرد و دریافت که آن‌ها منجر به مواضع اصولی کاملاً متفاوتی می‌شوند (به عنوان مثال، در مورد چگونگی توصیف حماس). در یک مورد، پرسیدن از یک مدل به زبان انگلیسی در مقابل چینی باعث شد که ارزیابی خود از ناتو را تغییر دهد. از آنجایی که رهبران بیشتر به هوش مصنوعی برای “پیش‌نویس اولیه” یا خلاصه سریع تفکر در مورد یک موضوع تکیه می‌کنند، ممکن است متوجه شوند که توسط مدل به سمت مواضع خاصی هدایت می‌شوند. تلقی هوش مصنوعی به عنوان راهی بی‌طرفانه برای خلاصه کردن اطلاعات ممکن است منجر به دو قطبی سازی ناخواسته شود، بسته به اینکه کدام مدل مورد پرسش قرار می‌گیرد – یا چگونه سؤال بیان می‌شود.

به طور گسترده‌تر، داشتن یک صدایی که به طور مداوم نظرات شما را تأیید می‌کند – صرف نظر از اینکه چقدر با واقعیت عینی یا دیدگاه‌های اجماع فاصله دارند – ممکن است کافی باشد تا فردی را از مصالحه و پذیرش دیدگاه‌های دیگران به عنوان معتبر دور کند.

در آزمایش‌های معروف انطباق اجتماعی سولومون اش (Solomon Asch)، او از شرکت‌کنندگان خواست یک کار ساده با پاسخ درست واضح انجام دهند: قضاوت کنند که کدام یک از چندین خط بلندتر است. او آزمایشی از “فشار همسالان” (یا انطباق) را با وادار کردن شرکت‌کنندگان به انجام کار در یک گروه معرفی کرد. شرکت‌کننده واقعی تنها پس از شنیدن پاسخ نادرست چندین بازیگر دیگر، پاسخ خود را می‌داد. به طور شگفت‌انگیزی، او دریافت که اکثر شرکت‌کنندگان واقعیت آشکار (کدام خط بلندتر بود) را حداقل یک بار در طول توالی آزمایش‌ها انکار می‌کنند، اگر همه افراد دیگر این کار را انجام می‌دادند.

با این حال، در یک شرط، اش آزمایش را به گونه‌ای تنظیم کرد که همه به جز یکی از بازیگران، پاسخ اشتباه دادند. او دریافت که فقط داشتن یک متحد در میان یک گروه کافی بود تا مردم به طور مداوم به دیدگاه خود پایبند بمانند و نفوذ گروه را رد کنند.

در بستر مطالعه، این خوب بود. مردم احساس آزادی می‌کردند که حقیقت را گزارش دهند. در دنیای جدید هوش مصنوعی، که در آن هر کس یک بله‌قربان‌گو در جیب خود دارد، پیامدهای منفی دارد. داشتن فقط یک صدا که با شما موافق است، حتی زمانی که همه دیگر مخالف هستند، ممکن است تنها چیزی باشد که برای رد دیدگاه‌های اجماع کافی است. اگرچه تا حدی عدم پیروی می‌تواند به خلاقیت و نوآوری منجر شود، اما اصرار هر فرد بر رد مطلق نظرات دیگران برای ایجاد واقعیت دلخواه خود، نهایتاً به فروپاشی نظام اجتماعی خواهد انجامید.

مشکل اصلی کسانی که همیشه «بله» می‌گویند (بله‌قربان‌گوها)، این است که آن‌ها اغلب ملاحظه و دوستی را بر گفتن حقیقت ترجیح می‌دهند. اگر رهبران بیش از حد با چنین افرادی معاشرت کنند، به تدریج توانایی خود را برای گرفتن تصمیمات درست از دست خواهند داد. زیرا ایرادات تفکر آن‌ها دیده نمی‌شود و نکات مهمی که باید در نظر گرفته شوند، نادیده گرفته می‌شوند. با افزایش استفاده از چت‌بات‌ها (ربات‌های گفتگو) که همیشه موافق و مطیع هستند، ممکن است به سمتی حرکت کنیم که دیگر «تواضع» و «عقل سلیم» در جامعه از بین برود. به نقطه ای می رسیم که همه دچار روان پریشی هوش مصنوعی شده اند!

مشتاقانه منتظر دریافت نظرات شما دوستان عزیز هستیم