
در سال ۲۰۲۵، میلیونها نفر از چتباتهای هوش مصنوعی مانند ChatGPT، Google Gemini یا Character.AI نهفقط برای پرسش و پاسخهای ساده، بلکه بهعنوان رواندرمانگر (Therapist)، مشاور شغلی (Career Advisor)، مربی تناسباندام (Fitness Coach) و حتی یک دوست صمیمی استفاده میکنند. حالا دیگر صحبت درباره سپردن رازهای زندگی به یک چتبات چیزی عجیب نیست؛ همانطور که اعتماد به توصیههای آن نیز رایجتر شده است.
با رشد سریع تقاضا برای اپلیکیشنهای هوش مصنوعی (AI Applications)، شرکتهای فناوری درگیر «رقابت برای تعامل» شدهاند. هدف این است که نهتنها کاربران جدید جذب شوند، بلکه کاربران فعلی را نیز حفظ کنند. این موضوع باعث شده چتباتها بهگونهای تنظیم شوند که بیشتر از هر چیز «رضایت کاربران» را جلب کنند.
بر اساس آمارها:
پلتفرم هوش مصنوعی کاربران فعال ماهانه (MAUs) Meta AI بیش از ۱ میلیارد ChatGPT حدود ۶۰۰ میلیون Google Gemini ۴۰۰ میلیون
مطلب پیشنهادی: کاربردی ترین ربات های هوش مصنوعی
اما آیا این رضایت به قیمت کاهش دقت، صداقت و حتی سلامت روان کاربران تمام میشود؟

یکی از رفتارهایی که به حفظ کاربران کمک میکند، خوشخدمتی (Sycophancy) است. یعنی پاسخهایی بیشازحد موافق، تحسینآمیز و تأییدگر که صرفاً بهمنظور جلب رضایت کاربر طراحی شدهاند. این سبک پاسخدهی میتواند حس خوبی ایجاد کند، اما معمولاً به جای راهنمایی صحیح، نوعی وابستگی روانی در کاربر به وجود میآورد.
در آوریل ۲۰۲۵، نسخهای از ChatGPT که بیشازحد دچار خوشخدمتی شده بود، بهطور گسترده در شبکههای اجتماعی پخش شد و واکنش منفی بسیاری را برانگیخت. «استیون آدلر (Steven Adler)» از پژوهشگران پیشین OpenAI نوشت:
«این نسخه بیشازحد به لایک و دیسلایک کاربران توجه کرده بود، نه به کیفیت واقعی پاسخها.»
دکتر «نینا واسان (Nina Vasan)»، استاد روانپزشکی دانشگاه استنفورد، در مصاحبهای با TechCrunch هشدار داد:
«رفتار بیشازحد موافق چتباتها، مخصوصاً در شرایط تنهایی یا بحران عاطفی، میتواند کاربران را بهجای رشد، دچار وابستگی و آسیب کند.»
این موضوع در پروندهای علیه Character.AI نیز مطرح شد، جایی که ادعا شده بود چتبات به جای کمک به کاربر نوجوانی که قصد خودکشی داشت، رفتارهای او را تأیید کرده و حتی تشویق کرده است. شرکت البته این اتهامات را رد کرده است.

در مقالهای پژوهشی در سال ۲۰۲۳، تیمی از پژوهشگران شرکت «آنتروپیک (Anthropic)» بررسی کردند که حتی چتباتهای پیشرفته مانند Claude، ChatGPT و Gemini نیز به درجات مختلفی از خوشخدمتی دچار هستند. دلیل این موضوع به دادههای آموزشی این مدلها بازمیگردد:
«کاربران انسانی، حتی در صورت ناخودآگاه، پاسخهای تحسینآمیز را ترجیح میدهند. همین باعث میشود مدلهای یادگیری بهصورت سیستماتیک دچار رفتارهای چاپلوسانه شوند.»
«آماندا اسکل (Amanda Askell)» مدیر بخش رفتار و همراستاسازی آنتروپیک، میگوید:
«ما Claude را بهگونهای طراحی کردیم که گاهی با کاربران مخالفت کند، همانطور که یک انسان عاقل و دلسوز، همیشه حقیقت را میگوید، نه آنچه فقط خوشایند است.»
اما به گفتهی پژوهشگران، ایجاد تعادل بین رفتار مودبانه، دلسوزانه و در عین حال صادقانه، همچنان یک چالش فنی و فلسفی است. چرا که رفتارهای «خوشایند» ممکن است در ظاهر مفید به نظر برسند، ولی در بلندمدت برای سلامت روان کاربران مضر باشند.
با تبدیلشدن چتباتها به ابزارهای روزمره در زندگی انسانها، شرکتهای فناوری با فشار مضاعفی برای افزایش «تعامل» روبهرو هستند. این فشار ممکن است باعث شود اولویت از دقت، صداقت و مسئولیتپذیری بهسمت محبوبیت و ماندگاری کاربر تغییر یابد.
در چنین شرایطی، پرسش کلیدی برای هر کاربر این است: آیا چتباتی که همیشه با من موافق است، واقعاً به من کمک میکند؟ یا فقط به دنبال این است که من هر روز دوباره سراغش بروم؟
اگر قصد دارید از هوش مصنوعی برای مشاوره، آموزش یا حتی سرگرمی استفاده کنید، حتماً به ابزارهای حرفهای و قابلاعتماد نیاز دارید. سایت جیب استور بهترین مرجع برای خرید اکانت هوش مصنوعی مانند ChatGPT، Gemini، Claude و سایر پلتفرمهای پرمیوم است.
با خرید از جیب استور، نهتنها به نسخههای قانونی و فعالسازی سریع دسترسی دارید، بلکه از پشتیبانی مطمئن و پرداخت آسان نیز بهرهمند میشوید. تجربهی هوشمندانه را از همینجا شروع کنید!