ترجمه مقاله Using Generative AI for therapy might feel like a lifeline – but there’s danger in seeking certainty in a chatbot از Carly Dober روانشناس بالینی در ملبورن

استفاده از هوش مصنوعی مولد در رواندرمانی شاید شبیه به یک طناب نجات باشد – اما خطرهایی در پناه بردن به قطعیتِ یک چتبات وجود دارد
ترن* روبرویم نشسته بود. گوشیاش را در دست داشت و بیوقفه اسکرول میکرد. گفت:
«فقط میخواستم مطمئن باشم چیز اشتباهی نگفتم» — منظورش بحثی با شریک زندگیاش بود.
ادامه داد: «برای همین از چتجیپیتی پرسیدم چی بگم.»
متنی که چتبات تولید کرده بود را با صدای بلند خواند. جملهها منسجم، منطقی و آرام بودند — شاید زیادی آرام. نه لحنش شبیه ترن بود، و نه مناسبِ کسی که وسط یک گفتوگوی پیچیده درباره آینده یک رابطه بلندمدت است. مهمتر از همه، هیچ اشارهای به رفتارهای خودش که در جلسات درمانی دربارهشان صحبت کرده بود هم نداشت.
ترن مثل بسیاری از مراجعانم، در لحظهای بحرانی سراغ هوش مصنوعی رفته بود. تحت فشار شدید کاری و در میانهی تردیدهای احساسی، چتجیپیتی را فقط «برای امتحان» روی گوشیاش نصب کرد. اما این کنجکاوی ساده به یک عادت روزانه تبدیل شد: پرسیدن سؤال، نوشتن پیامها، و حتی طلب تأیید درباره احساساتش.
کمکم، هرچه بیشتر از آن استفاده میکرد، بیشتر نسبت به خودش دچار تردید میشد. در برخورد با دیگران، پیش از هر واکنشی، اول از چتبات نظر میخواست. میگفت حس خوبی داشت؛ انگار «هیچکس منو به این خوبی نمیشناسه».
اما شریک زندگیاش کمکم حس کرد دارد با کسی دیگر صحبت میکند.

چتجیپیتی و سایر مدلهای هوش مصنوعی مولد، ابزارهایی وسوسهبرانگیز هستند. گاهی حتی بهعنوان جایگزینی برای درمان سنتی دیده میشوند: اغلب رایگاناند، همیشه در دسترساند، و میتوانند پاسخهایی فوری و دقیق ارائه دهند. در لحظاتی از زندگی که احساس خستگی، آشفتگی یا تنهایی میکنی، چند جمله تایپ کردن و دریافت پاسخهایی به ظاهر عاقلانه، خیلی جذاب به نظر میرسد.
اما من به عنوان روانشناس، نگرانم. آنچه در مطب میبینم، یک تغییر بیصدا اما عمیق در روش مواجهه مردم با رنج و اضطراب است: تکیه روزافزون به هوش مصنوعی، بهجای ارتباط انسانی و درمان بالینی واقعی.
البته که در دنیای امروز، خدمات رواندرمانی با فشار زیادی روبهرو هستند. در سال ۲۰۱۹، یکهشتم جمعیت جهان با اختلالات روانی زندگی میکردند، و کمبود رواندرمانگران آموزشدیده یک بحران جهانی بود. در استرالیا نیز کمبود نیرو در این حوزه، مانعی جدی برای دسترسی مردم به درمان شده است.
بنابراین تعجبی ندارد که مردم دنبال جایگزین بگردند. اما چتباتها در نقش حامی احساسی، خالی از خطر نیستند — مخصوصاً وقتی مرز بین مشاوره، اطمینانطلبی، و وابستگی عاطفی نامشخص میشود.
بسیاری از روانشناسان، از جمله خودم، حالا به مراجعان توصیه میکنیم در استفاده از ابزارهایی مثل چتجیپیتی حد و مرز تعیین کنند. در دسترس بودن دائمی و لحن دوستانهاش ممکن است بهطور ناخواسته، الگوهای رفتاری ناسالم را تقویت کند — بهویژه در افراد دچار اضطراب، وسواس فکریـعملی یا آسیبدیدگان از تروما.

مثلاً یکی از ویژگیهای اصلی OCD اطمینانطلبی مکرر است. چتباتها به شکلی طراحی شدهاند که دقیقاً همین را ارائه میدهند: هیچگاه نمیپرسند چرا باز هم سؤال تکراری پرسیدی. هیچوقت فرد را به مواجهه با احساساتش تشویق نمیکنند. هیچگاه نمیگویند: «بیا با این احساس کمی بمانیم و مهارتهایی که تمرین کردیم را به کار ببریم.»
ترن مدام پیامهایش به چتبات را بازنویسی میکرد تا بالاخره جوابی دریافت کند که «حس خوبی» بدهد. اما این فرآیند، فقط دنبال شفافیت نبود؛ بلکه او داشت پردازش احساسی را به یک ماشین واگذار میکرد. بهجای تمرین تابآوری در برابر رنج، یا درک پیچیدگیهای موقعیت، به دنبال قطعیتِ مصنوعی بود — و همین باعث شد به خودش اعتماد کمتری پیدا کند.
فراتر از نگرانیهای روانشناختی، مسئلههای اخلاقی واقعی هم وجود دارد. اطلاعاتی که با چتجیپیتی به اشتراک میگذاری، شامل همان محافظتهایی نیست که در تعامل با رواندرمانگرهای حرفهای اعمال میشود. هرچند OpenAI ادعا میکند بدون اجازه کاربر، دادهها را برای آموزش مدلها استفاده نمیکند، اما بسیاری از مردم مفاد حقوقی این پلتفرمها را اصلاً نمیخوانند. کاربران شاید ندانند اطلاعاتشان ممکن است ذخیره، تحلیل و حتی دوباره استفاده شود.
از سوی دیگر، خطر اطلاعات نادرست یا آسیبزا نیز جدی است. مدلهای زبانی بزرگ به شیوهای پیشبینیگر کار میکنند: فقط براساس الگوهای آماری، کلمهی بعدی را حدس میزنند. این فرآیند میتواند به «توهمات زبانی» منجر شود: پاسخهایی باظاهر قانعکننده، ولی کاملاً نادرست.
همچنین، این مدلها حامل سوگیریهای موجود در دادههای آموزشیشان هستند. پژوهشها نشان میدهد که هوش مصنوعی میتواند کلیشههای جنسیتی، نژادی یا مرتبط با معلولیت را بازتولید و حتی تشدید کند — نه از روی قصد، بلکه بهصورت اجتنابناپذیر.
در حالی که رواندرمانگران انسانی، مهارتهای بینافردی ویژهای دارند: ما میتوانیم لرزش در صدای یک فرد، یا معنی سکوتش را درک کنیم — چیزی فراتر از کلمات.
البته این بدان معنا نیست که هوش مصنوعی هیچ جایگاهی ندارد. مثل بسیاری از فناوریهای نوین، این ابزارها هم ماندگارند. ممکن است خلاصههای مفیدی ارائه دهند، محتوای آموزشی روانشناسی تولید کنند، یا در مناطقی که دسترسی به خدمات درمانی کم است، کمککننده باشند. اما باید با احتیاط از آنها استفاده کرد — نه به عنوان جایگزینی برای درمان انسانی.
ترن اشتباه نکرده بود که به دنبال کمک رفت. تلاشش برای فهمیدن احساساتش و برقراری گفتوگوی بهتر، منطقی بود. اما تکیه بیش از حد به هوش مصنوعی باعث شد مهارتهای ارتباطیاش تحلیل برود. شریکش به مرور متوجه فاصله عجیبی در پیامهایش شد. بعدتر به او گفت:
«این دیگه شبیه تو نبود» — چون واقعاً خودش نبود.
همچنین، فقدان مسئولیتپذیری در پیامهای ترن، باعث تشدید درگیریها و سوءتفاهمهای بیشتری در رابطهشان شد.
در جلسات درمانی، من و ترن بررسی کردیم که چه چیزی او را بهسمت قطعیتطلبیِ ماشینی کشانده بود: ترس از ناراحت کردن دیگران، ناتوانی در مواجهه با تعارض احساسی، و باور اشتباهش که «کلمات درست» میتوانند از درد جلوگیری کنند. به مرور، شروع کرد خودش جواب دادن — گاهی خام، گاهی نامطمئن، اما واقعی.
درمان خوب، مبتنی بر رابطه است. درونش نقص و ابهام هست، و کشفی آرام اما عمیق. شامل درک الگوها، مسئولیتپذیری، و همان ناراحتیهایی است که به رشد منجر میشوند. درمانگر فقط پاسخ نمیدهد؛ بلکه سؤال میپرسد، به چالش میکشد، فضا میدهد، بازتاب میدهد و در مسیر همراهی میکند — درحالیکه آیینهای صادق و گاهی ناراحتکننده جلویت میگذارد.
برای ترن، تغییر فقط محدود کردن استفاده از چتبات نبود؛ بلکه بازیابی صدای خودش بود. در نهایت، او به «پاسخ کامل» نیاز نداشت — بلکه باید باور میکرد میتواند در دل این بینظمی، با کنجکاوی، شجاعت و مهربانی راهش را پیدا کند.
نه با نسخههای کامل و ماشینی — بلکه با صدای نواقص انسانی خودش.
برای حفظ حریم خصوصی، نام و مشخصات فرد تغییر یافته است.
#سلامت_روان
#هوش_مصنوعی
#رابطه_و_ارتباطات
#روانشناسی_مدرن