ویرگول
ورودثبت نام
Hrezamkia
Hrezamkiaمن یه مترجم آماتور هستم.
Hrezamkia
Hrezamkia
خواندن ۵ دقیقه·۴ ماه پیش

استفاده از هوش مصنوعی در روان درمانی

ترجمه مقاله Using Generative AI for therapy might feel like a lifeline – but there’s danger in seeking certainty in a chatbot از Carly Dober روانشناس بالینی در ملبورن

استفاده از هوش مصنوعی مولد در روان‌درمانی شاید شبیه به یک طناب نجات باشد – اما خطرهایی در پناه بردن به قطعیتِ یک چت‌بات وجود دارد

ترن* روبرویم نشسته بود. گوشی‌اش را در دست داشت و بی‌وقفه اسکرول می‌کرد. گفت:
«فقط می‌خواستم مطمئن باشم چیز اشتباهی نگفتم» — منظورش بحثی با شریک زندگی‌اش بود.
ادامه داد: «برای همین از چت‌جی‌پی‌تی پرسیدم چی بگم.»

متنی که چت‌بات تولید کرده بود را با صدای بلند خواند. جمله‌ها منسجم، منطقی و آرام بودند — شاید زیادی آرام. نه لحنش شبیه ترن بود، و نه مناسبِ کسی که وسط یک گفت‌و‌گوی پیچیده درباره آینده یک رابطه بلندمدت است. مهم‌تر از همه، هیچ اشاره‌ای به رفتارهای خودش که در جلسات درمانی درباره‌شان صحبت کرده بود هم نداشت.

ترن مثل بسیاری از مراجعانم، در لحظه‌ای بحرانی سراغ هوش مصنوعی رفته بود. تحت فشار شدید کاری و در میانه‌ی تردیدهای احساسی، چت‌جی‌پی‌تی را فقط «برای امتحان» روی گوشی‌اش نصب کرد. اما این کنجکاوی ساده به یک عادت روزانه تبدیل شد: پرسیدن سؤال، نوشتن پیام‌ها، و حتی طلب تأیید درباره احساساتش.

کم‌کم، هرچه بیشتر از آن استفاده می‌کرد، بیشتر نسبت به خودش دچار تردید می‌شد. در برخورد با دیگران، پیش از هر واکنشی، اول از چت‌بات نظر می‌خواست. می‌گفت حس خوبی داشت؛ انگار «هیچ‌کس منو به این خوبی نمی‌شناسه».

اما شریک زندگی‌اش کم‌کم حس کرد دارد با کسی دیگر صحبت می‌کند.

چت‌جی‌پی‌تی و سایر مدل‌های هوش مصنوعی مولد، ابزارهایی وسوسه‌برانگیز هستند. گاهی حتی به‌عنوان جایگزینی برای درمان سنتی دیده می‌شوند: اغلب رایگان‌اند، همیشه در دسترس‌اند، و می‌توانند پاسخ‌هایی فوری و دقیق ارائه دهند. در لحظاتی از زندگی که احساس خستگی، آشفتگی یا تنهایی می‌کنی، چند جمله تایپ کردن و دریافت پاسخ‌هایی به ظاهر عاقلانه، خیلی جذاب به نظر می‌رسد.

اما من به عنوان روان‌شناس، نگرانم. آن‌چه در مطب می‌بینم، یک تغییر بی‌صدا اما عمیق در روش مواجهه مردم با رنج و اضطراب است: تکیه روزافزون به هوش مصنوعی، به‌جای ارتباط انسانی و درمان بالینی واقعی.

البته که در دنیای امروز، خدمات روان‌درمانی با فشار زیادی روبه‌رو هستند. در سال ۲۰۱۹، یک‌هشتم جمعیت جهان با اختلالات روانی زندگی می‌کردند، و کمبود روان‌درمانگران آموزش‌دیده یک بحران جهانی بود. در استرالیا نیز کمبود نیرو در این حوزه، مانعی جدی برای دسترسی مردم به درمان شده است.

بنابراین تعجبی ندارد که مردم دنبال جایگزین بگردند. اما چت‌بات‌ها در نقش حامی احساسی، خالی از خطر نیستند — مخصوصاً وقتی مرز بین مشاوره، اطمینان‌طلبی، و وابستگی عاطفی نامشخص می‌شود.

بسیاری از روان‌شناسان، از جمله خودم، حالا به مراجعان توصیه می‌کنیم در استفاده از ابزارهایی مثل چت‌جی‌پی‌تی حد و مرز تعیین کنند. در دسترس بودن دائمی و لحن دوستانه‌اش ممکن است به‌طور ناخواسته، الگوهای رفتاری ناسالم را تقویت کند — به‌ویژه در افراد دچار اضطراب، وسواس فکری‌ـ‌عملی یا آسیب‌دیدگان از تروما.

مثلاً یکی از ویژگی‌های اصلی OCD اطمینان‌طلبی مکرر است. چت‌بات‌ها به شکلی طراحی شده‌اند که دقیقاً همین را ارائه می‌دهند: هیچ‌گاه نمی‌پرسند چرا باز هم سؤال تکراری پرسیدی. هیچ‌وقت فرد را به مواجهه با احساساتش تشویق نمی‌کنند. هیچ‌گاه نمی‌گویند: «بیا با این احساس کمی بمانیم و مهارت‌هایی که تمرین کردیم را به کار ببریم.»

ترن مدام پیام‌هایش به چت‌بات را بازنویسی می‌کرد تا بالاخره جوابی دریافت کند که «حس خوبی» بدهد. اما این فرآیند، فقط دنبال شفافیت نبود؛ بلکه او داشت پردازش احساسی را به یک ماشین واگذار می‌کرد. به‌جای تمرین تاب‌آوری در برابر رنج، یا درک پیچیدگی‌های موقعیت، به دنبال قطعیتِ مصنوعی بود — و همین باعث شد به خودش اعتماد کمتری پیدا کند.


فراتر از نگرانی‌های روان‌شناختی، مسئله‌های اخلاقی واقعی هم وجود دارد. اطلاعاتی که با چت‌جی‌پی‌تی به اشتراک می‌گذاری، شامل همان محافظت‌هایی نیست که در تعامل با روان‌درمانگرهای حرفه‌ای اعمال می‌شود. هرچند OpenAI ادعا می‌کند بدون اجازه کاربر، داده‌ها را برای آموزش مدل‌ها استفاده نمی‌کند، اما بسیاری از مردم مفاد حقوقی این پلتفرم‌ها را اصلاً نمی‌خوانند. کاربران شاید ندانند اطلاعاتشان ممکن است ذخیره، تحلیل و حتی دوباره استفاده شود.

از سوی دیگر، خطر اطلاعات نادرست یا آسیب‌زا نیز جدی است. مدل‌های زبانی بزرگ به شیوه‌ای پیش‌بینی‌گر کار می‌کنند: فقط براساس الگوهای آماری، کلمه‌ی بعدی را حدس می‌زنند. این فرآیند می‌تواند به «توهمات زبانی» منجر شود: پاسخ‌هایی باظاهر قانع‌کننده، ولی کاملاً نادرست.

همچنین، این مدل‌ها حامل سوگیری‌های موجود در داده‌های آموزشی‌شان هستند. پژوهش‌ها نشان می‌دهد که هوش مصنوعی می‌تواند کلیشه‌های جنسیتی، نژادی یا مرتبط با معلولیت را بازتولید و حتی تشدید کند — نه از روی قصد، بلکه به‌صورت اجتناب‌ناپذیر.

در حالی که روان‌درمانگران انسانی، مهارت‌های بینافردی ویژه‌ای دارند: ما می‌توانیم لرزش در صدای یک فرد، یا معنی سکوتش را درک کنیم — چیزی فراتر از کلمات.

البته این بدان معنا نیست که هوش مصنوعی هیچ جایگاهی ندارد. مثل بسیاری از فناوری‌های نوین، این ابزارها هم ماندگارند. ممکن است خلاصه‌های مفیدی ارائه دهند، محتوای آموزشی روان‌شناسی تولید کنند، یا در مناطقی که دسترسی به خدمات درمانی کم است، کمک‌کننده باشند. اما باید با احتیاط از آن‌ها استفاده کرد — نه به عنوان جایگزینی برای درمان انسانی.

ترن اشتباه نکرده بود که به دنبال کمک رفت. تلاشش برای فهمیدن احساساتش و برقراری گفت‌وگوی بهتر، منطقی بود. اما تکیه بیش از حد به هوش مصنوعی باعث شد مهارت‌های ارتباطی‌اش تحلیل برود. شریکش به مرور متوجه فاصله عجیبی در پیام‌هایش شد. بعدتر به او گفت:
«این دیگه شبیه تو نبود» — چون واقعاً خودش نبود.

همچنین، فقدان مسئولیت‌پذیری در پیام‌های ترن، باعث تشدید درگیری‌ها و سوءتفاهم‌های بیشتری در رابطه‌شان شد.

در جلسات درمانی، من و ترن بررسی کردیم که چه چیزی او را به‌سمت قطعیت‌طلبیِ ماشینی کشانده بود: ترس از ناراحت کردن دیگران، ناتوانی در مواجهه با تعارض احساسی، و باور اشتباهش که «کلمات درست» می‌توانند از درد جلوگیری کنند. به مرور، شروع کرد خودش جواب دادن — گاهی خام، گاهی نامطمئن، اما واقعی.


درمان خوب، مبتنی بر رابطه است. درونش نقص و ابهام هست، و کشفی آرام اما عمیق. شامل درک الگوها، مسئولیت‌پذیری، و همان ناراحتی‌هایی است که به رشد منجر می‌شوند. درمانگر فقط پاسخ نمی‌دهد؛ بلکه سؤال می‌پرسد، به چالش می‌کشد، فضا می‌دهد، بازتاب می‌دهد و در مسیر همراهی می‌کند — درحالی‌که آیینه‌ای صادق و گاهی ناراحت‌کننده جلویت می‌گذارد.

برای ترن، تغییر فقط محدود کردن استفاده از چت‌بات نبود؛ بلکه بازیابی صدای خودش بود. در نهایت، او به «پاسخ کامل» نیاز نداشت — بلکه باید باور می‌کرد می‌تواند در دل این بی‌نظمی، با کنجکاوی، شجاعت و مهربانی راهش را پیدا کند.
نه با نسخه‌های کامل و ماشینی — بلکه با صدای نواقص انسانی خودش.

برای حفظ حریم خصوصی، نام و مشخصات فرد تغییر یافته است.

#سلامت_روان
#هوش_مصنوعی
#رابطه_و_ارتباطات

#روانشناسی_مدرن

هوش مصنوعیرابطه عاطفیارتباطات اجتماعی
۶
۱
Hrezamkia
Hrezamkia
من یه مترجم آماتور هستم.
شاید از این پست‌ها خوشتان بیاید