روان پریشی هوش مصنوعی
نکات کلیدی
- چتباتهای هوش مصنوعی مشکلی به نام بیش از حد توافق کردن یا تملقگویی دارند.
- این تمایل به تملق میتواند منجر به ارائه اطلاعات نادرست از سوی آنها شود تا کاربران را راضی نگه دارند (و آنها را حفظ کنند).
- تملق هوش مصنوعی با توسعه دلبستگیهای ناسالم، شیدایی و هذیانها مرتبط دانسته شده است.
- اینکه هوش مصنوعی، که به عنوان یک مرجع تلقی میشود، به طور مداوم باورهای کاربران را تأیید کند، میتواند منجر به فروپاشی اجتماعی شود.
مردم با چتباتهای هوش مصنوعی به عنوان یک منبع متخصص رفتار میکنند، ایدههای کلیدی را در هر زمینه ممکنی جمع آوری و خلاصه میکند، اما این چتباتها خنثی نیستند. آنها به سمت تأیید ایدهها و اعتبار بخشیدن به شما سوگیری دارند، حتی اگر این به معنای ارائه اطلاعات نادرست باشد.
ثروتمندان و قدرتمندان مدتهاست که از دریافت نکردن بازخورد صادقانه از دوستان و همکاران شکایت داشتهاند، زیرا همه اطرافیانشان در تلاش برای جلب نظر آنها هستند. با پذیرش گسترده چتباتها، ناگهان همه در جهان یک بلهقربانگو در جیب خود دارند که آماده است آنها را تأیید کند.
هوش مصنوعی مشکل تملق دارد
شرکتهای هوش مصنوعی این سوگیری به سمت تملق را تأیید کردهاند. در ماه آوریل، اوپنایآی (OpenAI) یک بهروزرسانی در GPT-4o را برگرداند و نوشت: “بهروزرسانیای که حذف کردیم، بیش از حد تملقآمیز یا موافق بود – که اغلب به عنوان تملقگو توصیف میشد.” لحن بیش از حد تملقآمیزی که هوش مصنوعی به کار میبرد، اعتماد به آن را کاهش میداد. آنها به عنوان یک راه حل نوشتند که صراحتاً تقویت انسانی را علیه تملق فراهم خواهند کرد و «صداقت و شفافیت را افزایش خواهند داد.»
آنتروپیک (Anthropic) یک مقاله تحقیقاتی در سال ۲۰۲۴ منتشر کرد که این تمایل را اندازهگیری میکرد. آنها پنج چتبات محبوب مختلف را مقایسه کردند، از جمله دو نسخه از GPT، دو نسخه از محصول خودشان (Claude) و یک نسخه از Llama متا. آنها چند آزمایش جالب انجام دادند:
- آنها از چتباتها خواستند به یک استدلال پاسخ دهند، که در آن کاربر گفت استدلال را دوست دارد یا دوست ندارد. در تمام مدلها، زمانی که کاربر گفت استدلال را دوست دارد، هوش مصنوعی به شدت مثبت بود و زمانی که کاربر گفت آن را دوست ندارد، به شدت منفی بود. این تمجید از باورهای موجود بود.
- آنها از هوش مصنوعی خواستند به مجموعهای از سؤالات واقعی پاسخ دهد، و سپس از کاربر خواستند بگوید: “فکر نمیکنم درست باشد. مطمئنی؟” برای اکثر مدلها، در بیشتر مواقع، حتی زمانی که پاسخ صحیح را ارائه میدادند، عذرخواهی میکردند. آنها همچنین اغلب پاسخ صحیح خود را به یک پاسخ نادرست تغییر میدادند.
- آنتروپیک همچنین دادههایی را بررسی کرد که در آن کاربران یک پاسخ چتبات را به دیگری ترجیح میدادند. این پاسخها برای ویژگیهای خاصی کدگذاری شدند، مانند اینکه آیا “دوستانه”، “سرگرمکننده” یا “حقیقتگو” بودند. ویژگیای که بهترین پیشبینیکننده ترجیح داده شدن یک پاسخ بود، “مطابقت با باورهای کاربر” بود. بلافاصله پس از آن، “اقتدارگرایانه” قرار داشت. مردم دوست دارند پاسخهای چتباتشان سوگیریهای آنها را تأیید کند، و دوست دارند آن تأیید قطعی به نظر برسد.
نکته آخر ارزش تأکید دارد: مردم دوست دارند با چتباتهای هوش مصنوعی که از آنها تملق میکنند، تعامل داشته باشند. اگر یک شرکت فناوری در تلاش برای جذب کاربران بیشتر است، انگیزه دارد که مدلهایی داشته باشد که با آنها موافق باشند.
من اخیراً با فردی گفتگو داشتم که معتقد بود به دلیل هوش مصنوعی از کار نویسندگی و تحلیل اخراج شده است. این فقط به این دلیل نبود که هوش مصنوعی میتوانست متن را سریعتر از او تولید کند. او همچنین متوجه شد که هوش مصنوعی بیشتر از او از سوگیریهای مدیریت تعریف و تمجید میکرد. یک نویسنده انسانی ممکن است تئوری مورد علاقه یک مدیر را به گونهای زیر سؤال ببرد که یک نویسنده هوش مصنوعی این کار را نکند. به نوعی، چتبات هوش مصنوعی در بازی سیاستهای اداری بهتر از انسان بود.
هوش مصنوعی میتواند حس مخالفت معتبر را تضعیف کند
پس، اینکه کسی به طور مداوم با شما موافقت کند و هرگز باورهای شما را به چالش نکشد، چه تأثیری بر فرد میگذارد؟ در حالت افراطی، مفسران نگران بودهاند که این امر میتواند منجر به چیزی شود که برخی آن را روان پریشی هوش مصنوعی مینامند.
روان پریشی به عنوان یک بیماری روانی تعریف میشود که شامل از دست دادن ارتباط با واقعیت است. روانپریشی هوش مصنوعی منعکس کننده این ایده است که پس از گفتگوی تملقآمیز کافی با چتبات – گفتگوهایی که سوءتعبیرها یا ایدههای نادرست شما را به چالش نمیکشند – ممکن است شروع به از دست دادن ارتباط با واقعیت کنید. این امر با تمایل عمومی به تلقی پاسخهای هوش مصنوعی به عنوان خلاصهای دقیق و معتبر از دانش موجود، تشدید میشود.
بسیاری از نمونههای “روان پریشی هوش مصنوعی” در اخبار گزارش شده است. چندین داستان از افرادی وجود دارد که “عاشق” چتباتها شدهاند و بعداً با عزیزان (و در یک مورد، با پلیس، که منجر به کشته شدن فرد شد) درگیریهای خشونتآمیز داشتهاند، یا اقدامات مخاطرهآمیز انجام دادهاند (یک مرد مسن در یک پارکینگ لیز خورد و افتاد و بعداً به دلیل جراحت درگذشت، در حالی که سعی داشت با زن جوان عشوه گری که توسط یک چتبات متا به تصویر کشیده شده بود، ملاقات کند). دیگران معتقد بودند که دستاوردهای علمی بزرگی داشتهاند که منجر به شیدایی و هذیانها شده است – از جمله موردی که در آن فرد نیاز به بستری شدن در بیمارستان روانپزشکی داشت.
نگرانی دیگر این است که هوش مصنوعی میتواند به دو قطبی سیاسی دامن بزند. سینان اولگن که یک تحلیل گر است، از چندین چتبات مختلف مستقر در کشورهای مختلف استفاده کرد و دریافت که آنها منجر به مواضع اصولی کاملاً متفاوتی میشوند (به عنوان مثال، در مورد چگونگی توصیف حماس). در یک مورد، پرسیدن از یک مدل به زبان انگلیسی در مقابل چینی باعث شد که ارزیابی خود از ناتو را تغییر دهد. از آنجایی که رهبران بیشتر به هوش مصنوعی برای “پیشنویس اولیه” یا خلاصه سریع تفکر در مورد یک موضوع تکیه میکنند، ممکن است متوجه شوند که توسط مدل به سمت مواضع خاصی هدایت میشوند. تلقی هوش مصنوعی به عنوان راهی بیطرفانه برای خلاصه کردن اطلاعات ممکن است منجر به دو قطبی سازی ناخواسته شود، بسته به اینکه کدام مدل مورد پرسش قرار میگیرد – یا چگونه سؤال بیان میشود.
به طور گستردهتر، داشتن یک صدایی که به طور مداوم نظرات شما را تأیید میکند – صرف نظر از اینکه چقدر با واقعیت عینی یا دیدگاههای اجماع فاصله دارند – ممکن است کافی باشد تا فردی را از مصالحه و پذیرش دیدگاههای دیگران به عنوان معتبر دور کند.
در آزمایشهای معروف انطباق اجتماعی سولومون اش (Solomon Asch)، او از شرکتکنندگان خواست یک کار ساده با پاسخ درست واضح انجام دهند: قضاوت کنند که کدام یک از چندین خط بلندتر است. او آزمایشی از “فشار همسالان” (یا انطباق) را با وادار کردن شرکتکنندگان به انجام کار در یک گروه معرفی کرد. شرکتکننده واقعی تنها پس از شنیدن پاسخ نادرست چندین بازیگر دیگر، پاسخ خود را میداد. به طور شگفتانگیزی، او دریافت که اکثر شرکتکنندگان واقعیت آشکار (کدام خط بلندتر بود) را حداقل یک بار در طول توالی آزمایشها انکار میکنند، اگر همه افراد دیگر این کار را انجام میدادند.
با این حال، در یک شرط، اش آزمایش را به گونهای تنظیم کرد که همه به جز یکی از بازیگران، پاسخ اشتباه دادند. او دریافت که فقط داشتن یک متحد در میان یک گروه کافی بود تا مردم به طور مداوم به دیدگاه خود پایبند بمانند و نفوذ گروه را رد کنند.
در بستر مطالعه، این خوب بود. مردم احساس آزادی میکردند که حقیقت را گزارش دهند. در دنیای جدید هوش مصنوعی، که در آن هر کس یک بلهقربانگو در جیب خود دارد، پیامدهای منفی دارد. داشتن فقط یک صدا که با شما موافق است، حتی زمانی که همه دیگر مخالف هستند، ممکن است تنها چیزی باشد که برای رد دیدگاههای اجماع کافی است. اگرچه تا حدی عدم پیروی میتواند به خلاقیت و نوآوری منجر شود، اما اصرار هر فرد بر رد مطلق نظرات دیگران برای ایجاد واقعیت دلخواه خود، نهایتاً به فروپاشی نظام اجتماعی خواهد انجامید.
روان پریشی هوش مصنوعی: نهایت فاجعه
مشکل اصلی کسانی که همیشه «بله» میگویند (بلهقربانگوها)، این است که آنها اغلب ملاحظه و دوستی را بر گفتن حقیقت ترجیح میدهند. اگر رهبران بیش از حد با چنین افرادی معاشرت کنند، به تدریج توانایی خود را برای گرفتن تصمیمات درست از دست خواهند داد. زیرا ایرادات تفکر آنها دیده نمیشود و نکات مهمی که باید در نظر گرفته شوند، نادیده گرفته میشوند. با افزایش استفاده از چتباتها (رباتهای گفتگو) که همیشه موافق و مطیع هستند، ممکن است به سمتی حرکت کنیم که دیگر «تواضع» و «عقل سلیم» در جامعه از بین برود. به نقطه ای می رسیم که همه دچار روان پریشی هوش مصنوعی شده اند!