مرکز تحقیقات هوش مصنوعی پارت
مرکز تحقیقات هوش مصنوعی پارت
خواندن ۸ دقیقه·۳ سال پیش

روان درمانی و خودکارسازی جلسات ؛ به کامپیوترتان مراجعه کنید!

متخصصان معتقدند کاربرد هوش مصنوعی در حوزه‌های روانپزشکی و روان درمانی به سرعت در حال رشد است. این فناوری به درمانگران اجازه می‌دهد بیماری‌های روانی را زودتر تشخیص داده و خدمات درمانی بهتری برای آن‌ها فراهم آورد. اما آیا این فناوری‌ها کارآمد، و البته اخلاقی، هستند؟

دنیل بارون بر این باور است که در آینده‌ای بسیار نزدیک، جلسات روانپزشکی شکل کاملاً متفاوتی به خود خواهند گرفت؛ به نحوی که پزشکان برای تجزیه و تحلیل تعاملاتی که با مراجعان برقرار و ثبت کرده‌اند (برای مثال تشخیص تغییراتی نهان که در رفتار یا گفتار آن‌ها رخ داده است) از کامپیوترها کمک خواهند گرفت.

بارون به عنوان روانپزشک در سیاتل مشغول به کار است؛ وی اخیراً کتاب «ذهن‌خوانی: ظهور کلان‌داده‌ها در حوزه‌ی روانپزشکی» را به رشته تحریر در آورده است. بارون می‌گوید: «اگر از منابعی همچون مکالمات بین پزشک و مراجع، حالات چهره، تغییرات تن صدا و لحن گفتار بیمار و مواردی از این دست، داده‌های کیفی بیشتری به دست آوریم می‌توانیم تعاملات بالینی را وارد بُعد دیگری کنیم که در حال حاضر ناشناخته و غیرقابل تصور است.»

بارون و سایرین معتقدند استفاده از هوش مصنوعی، به خصوص نرم‌افزارهای تشخیص چهره و تحلیل متن، در حوزه‌ی روان درمانی و روانپزشکی رشد گسترده‌ای خواهد داشت. با تکیه بر این فناوری‌ها، بالینگران قادر خواهند بود بیماری‌های روانی را زودتر از گذشته تشخیص داده و خدمات درمانی مناسب را در اختیار بیماران قرار دهند. اما قبل از هرچیز، کارآمدی این فناوری‌ها باید اثبات شود؛ علاوه بر کارآمدی، برخی از متخصصان در مورد سوگیری و مسائل اخلاقی بالقوه‌ی سیستم‌های هوش مصنوعی نیز ابراز نگرانی کرده‌اند.

جان توروس، مدیر بخش روانپزشکی دیجیتال مرکز Beth Israel Deaconess در بوستون، معتقد است: «طی چند دهه‌ی گذشته، ابزارهای پزشکی دیجیتال و از راه دور از محبوبیت بیشتری به دست آورده‌اند؛ اما به نظر من، همه‌گیری کووید نقش بسیار پررنگی در این مسئله ایفا و آن را تسریع کرده است.»

طبق گفته‌های بارون، در حال حاضر کارآمدی این فناوری‌های در حال توسعه اثبات شده است. به عنوان مثال، الگوریتم‌هایی وجود دارند که می‌توانند در مورد تغییرات غیرملموس حالات چهره یا تغییر سرعت تکلم افراد به پزشکان هشدار دهند؛ چنین علائمی می‌توانند حاکی از شیدایی یا افسردگی بیماران باشد. بارون معتقد است به کمک این فناوری‌ها، پزشکان می‌توانند علائمی از این دست را زودتر از گذشته تشخیص دهند.

نرم‌افزارها/الگوریتم‌ها این داده‌ها را جمع‌آوری و سازماندهی می‌کنند. در فاصله‌ی بین جلسات، دکتر می‌تواند داده‌ها را غربال کرده و روی مواردی تمرکز کند که نشان از مسئله‌ی خاصی هستند. اطلاعاتی که خارج از مطب جمع‌آوری می‌شوند هم می‌توانند در میان این داده‌ها قرار گرفته و به پزشکان کمک بیشتری برسانند.

کالین دپ، از روانپزشکان دانشگاه کالیفرنیا، سن‌دیگو، می‌گوید: «از منابع گوناگون همچون اصوات، دستگاه‌های پوشیدنی و غیره می‌توان داده‌های فراوانی تولید کرد که به ردگیری ما و کارهایمان کمک می‌کنند؛ با کاربرد این داده‌ها در مداخلات درمانی، می‌توان کارآمدی و موفقیت این جلسات را مورد ارزیابی قرار داد.»

به عنوان مثال، اگر داده‌های حاصل از برنامه‌ها و دستگاه‌ها نشان دهند کمیت یا کیفیت خواب فرد و یا وزن او کاهش یافته است یا هشدار دهند پست‌های او در شبکه‌های اجتماعی، مضمون افسردگی دارند، روانشناس راحت‌تر و با آگاهی بیشتری می‌تواند تشخیص‌گذاری را انجام دهد.

دپ به عنوان یک نمونه از کاربردهای بالقوه‌ی هوش مصنوعی در حوزه‌ی روان درمانی، به پروژه‌ی «امور کهنه سربازان» اشاره می‌کند که سوابق بالینی افرادی که خودکشی کرده‌اند را بررسی می‌کند. الگوریتم‌ها با بررسی داده‌های پزشکی ثبت‌شده‌ برای این افراد، عوامل پرتکرار (با فراوانی بالا) را تشخیص می‌دهند؛ این عوامل می‌توانند وضعیت استخدامی، وضعیت تأهل، بیماری‌های مزمن، نسخه‌هایی از داروهای اعتیادآور و موارد دیگری از این دست را در برگیرند. محققان معتقدند به کمک این الگوریتم، می‌توان افرادی که در معرض خطر هستند یا دیگر از مراقبت‌های درمانی استفاده نمی‌کنند را، قبل از این‌که اتفاقی بیفتد، تشخیص داد.

تحقیقات سال‌های اخیر نشان داده‌اند افسردگی و سایر بیماری‌های روانی را می‌توان از روی پست‌هایی که افراد در فیسبوک و توییتر به اشتراک می‌گذارند، پیش‌بینی کرد؛ بدین منظور باید به دنبال کلماتی بود که با رایج‌ترین نشانه‌های افسردگی (همچون ناراحتی، تنهایی، خشم، نشخوار فکری و …) در ارتباط هستند. تغییر الگوی رفتاری افراد در فضای مجازی، در مورد مشکلات احتمالی به بالینگران هشدار می‌دهد.

در این راستا می‌توان به الگوریتمی اشاره کرد که فیسبوک در سال ۲۰۱۷ ارائه داد؛ این الگوریتم با جستجو در میان پست‌های انگلیسی‌زبان، به دنبال متونی با مضمون افکار خودکشی می‌گشت. در صورت مشاهده‌ی چنین موردی، پلیس در جریان گذاشته می‌شد. این جنبش با اعتراضات فراوانی روبرو شد؛ این انتقادات به ویژه مربوط به این بودند که شرکت فیسبوک بدون هیچ نظارتی، وارد حوزه‌ی کاری روان درمانی شده بود.

جوهانس ایکستد، از روانشناسان دانشگاه استنفورد، معتقد است: «نرخ تشخیص‌گذاری بیماری‌های روانی تقریباً نصف آن چیزی است که واقعاً وجود دارد. هوش مصنوعی می‌تواند به عنوان سیستمی برای غربال و هشدار زودهنگام به این مسئله کمک کند. اما کارآمدی سیستم‌های تشخیص‌گر موجود اثبات نشده است. اگر این سیستم‌ها را بر مبنای استانداردهای بالینی ارزیابی کنیم، همه‌ی آن‌ها، از جمله سیستمی که خودم ساخته‌ام، در بهترین حالت به دقتی متوسط دست می‌یابند.»

ایکستد به الگوریتم‌های هوش مصنوعی موجود، نمره‌ی C می‌دهد و معتقد است این برنامه‌ها هنوز نتوانسته‌اند جای پرسشنامه‌های مدادکاغذی را بگیرند.

به گفته‌ی وی: «الگوریتم‌ها تنها به دنبال این هستند که یک توالی از حالات چهره یا کلمات را پیدا کنند، در حالی‌که این داده ها اطلاعات کم و مبهمی از حالات درونی فرد فراهم می‌آورند. مثل این که پزشک علائم بیرونی و ظاهری را تشخیص دهد اما نتواند بیماری اصلی را بفهمد.»

کیت کرافورد، از محققان دانشگاه کالیفرنیای جنوبی و نویسنده‌ی کتاب «اطلس هوش مصنوعی»، خاطرنشان می‌کند: «بعضی از طرفداران این الگوریتم‌ها بیش از حد به توانایی هوش مصنوعی در تفسیر رفتار انسان‌ها امیدوار هستند.» او به عنوان مثال به رسوایی اخیر Lemonade اشاره می‌کند، شرکت بیمه‌ای که ادعا داشت می‌تواند تصاویر ویدئویی ضبط‌شده از مشتریانش هنگام ادعای احتساب را با استفاده از هوش مصنوعی تجزیه و تحلیل کند تا صداقت یا عدم صداقت آن‌ها را تشخیص دهد.

کرافورد در ایمیلی به Recode گفته است: «مواردی از این دست نشان می‌دهند که گاهی اوقات، شرکت‌ها به طرقی از هوش مصنوعی استفاده می‌کنند که از نظر علمی اثبات نشده‌اند‌ و می‌توانند آسیب‌زا باشند؛ مثلاً سودمندی سرنخ‌ها و نشانه‌های غیرکلامی موجود در تصاویر ویدئویی تأیید نشده است.» (البته، شرکت Lemonade طی بیانیه‌ای به Recode اعلام کرد که این فناوری باعث می‌شود مشتریان بر اساس ظاهر، ناتوانی یا هر خصوصیت شخصی دیگری مورد تبعیض قرار نگیرند. این شرکت مدعی است هوش مصنوعی برای رد خودکار ادعای احتساب مشتریان به کار نرفته و نخواهد رفت.)

کرافورد به یک پژوهش مروری سیستماتیک اشاره می‌کند که در سال ۲۰۱۹، به سرپرستی لیزا فلدمن برت، روانشناس و متخصص علوم اعصاب، انجام شد. این پژوهش نشان داد در صورتی که داده‌ها به بهترین نحو ممکن ثبت شده باشند، هوش مصنوعی قادر خواهد بود برخی از حالات چهره از قبیل اخم، لبخند یا چشم‌غره را تشخیص دهد؛ با این حال، الگوریتم‌ها نمی‌توانند با اطمینان کامل حالت عاطفی درونی افراد را از روی این نشانه‌ها استنباط کنند. برای مثال، افراد تنها در ۳۰% از مواقعی که خشمگین هستند، چشم‌غره می‌روند و ممکن است به دلایل دیگری که هیچ ارتباطی با خشم ندارد (مثلاً وقتی سردرگم شده، روی موضوعی تمرکز کرده یا جوک بدی شنیده‌اند) این کار را انجام دهند.

برت معتقد است: «تحقیقات هوش مصنوعی پس از انتشار این پژوهش، پیشرفت چندانی نداشته‌اند. بر اساس شواهد موجود، من هم نسبت به این موضوع خوش‌بین نیستم.» با این حال، وی اضافه می‌کند: «شاید یک رویکرد شخصی‌تر به نتایج بهتری دست یابد.» نباید فرض کنیم مردم تمام جهان از یک مجموعه حالت عاطفی مشترک پیروی می‌کنند؛ بلکه بهتر است الگوریتم‌ها را روی یک یا چند تا از جلسات خود مراجع آموزش داد. بدین طریق می‌توان داده‌های حاصل از منابع مختلف همچون حالات چهره، صدا، یا معیارهای فیزیولوژیک همچون ضربان قلب را با توجه به بافت مدنظر قرار داد. در این صورت، احتمال این‌که بتوان هوش مصنوعی معتبر و قابل‌اطمینان‌تری برای هر فرد ساخت، افزایش می‌یابد.

با این حال، حتی با افزایش کارآمدی سیستم‌های هوش مصنوعی، نگرانی در مورد جنبه‌ی اخلاقی آن‌ها همچنان باقی است. توروس، دپ و همکارانشان در مقاله‌ای جدید بیان کرده‌اند: «درست است که هوش مصنوعی به تشخیص‌گذاری عینی بیماری‌ها و مشکلات روانی کمک کرده و حتی در مسیر خوددرمانی، بیماران را راهنمایی می‌کند، اما قبل از هر چیز باید پاسخگوی مسائلی همچون سوگیری باشد.»

وقتی برای آموزش الگوریتم‌های هوش مصنوعی به منظور تشخیص الگوهای نهفته در داده‌ها، از دیتابیس‌هایی بزرگ استفاده می‌کنیم، مشاهده می‌شود مردان سفید پوست، جوان‌ها و افرادی که در آمد بالا دارند بیشتر از سایرین در این دیتابیس‌ها حضور دارند. در نتیجه‌ی این عدم توازن، ممکن است الگوریتم‌ها نتوانند یک ویژگی یا لهجه خاص و کمیاب را به درستی تفسیر کنند.

یکی از پژوهش‌های اخیر، الگوریتم‌های متن‌محوری که فیسبوک و سایر شرکت‌ها به منظور سنجش سلامت روان به کار برده‌اند را مورد مطالعه قرار داد و متوجه سوگیری‌هایی چشمگیر (از نظر مذهب، جنسیت، نژاد، ملیت، جهت‌گیری جنسی و سن) در این الگوریتم‌ها شد. این محققان معتقدند بهتر است این الگوریتم‌ها را به کمک بالینگرانی ساخت که ویژگی‌های دموگرافیکی شبیه به همه‌ی بیماران دارند و از نظرات (هرچند سوگیرانه‌) آن‌ها در برچسب‌زنی و تفسیر استفاده کرد.

کاربرد الگوریتم‌ها در این حوزه‌ها از نظر حریم خصوصی هم مورد نقد قرار گرفته‌اند. حتی افرادی که صفحاتشان برای عموم قابل مشاهده است هم ممکن است دوست نداشته باشند آن‌چه به اشتراک می‌گذارند تجزیه و تحلیل شود. علاوه بر این، داده‌هایی که از جلسات روان درمانی به دست می‌آیند، در معرض خطر هک شدن یا باج‌افزارها قرار می‌گیرند.

بدون شک، افرادی هستند که نسبت به غلبه‌ی کلی هوش مصنوعی بر انسان‌ها و نقش آن در حوزه‌ی بهداشت و سلامت روان نظر مثبتی نداشته باشند. اما، به گفته‌ی دپ، تنها بخشی از روانپزشکی علم است و نباید فراموش کرد که بخش دیگر آن شهود است؛ به همین دلیل، هوش مصنوعی هرگز جایگزین روان‌درمانگرها نخواهد شد، بلکه تنها می‌تواند مکمل کار آن‌ها باشد.

دپ معتقد است: «همکاری بین ارائه‌دهندگان و دریافت‌کنندگان این خدمات از اهمیت بسیار بالایی برخوردار است و می‌تواند از قوی‌ترین پیش‌بین‌های موفقیت این مسیر باشد. این همکاری را به هیچ قیمتی از دست نخواهیم داد، فناوری‌ها هم برای کمک به این مسئله به کار خواهند رفت.»

با توجه به پیشرفت‌ها و توسعه‌ی فناوری، این مسئله را دیگر نمی‌توان محدود به حوزه‌ی آکادمیک درنظر گرفت.

سؤالی که باید از خود بپرسیم این است که آیا هوش مصنوعی، یا به بیان کلی‌تر ابزارهای دیجیتالی، می‌توانند به ما کمک کنند داده‌های دقیق‌تری جمع‌آوری کرده و بدین ترتیب خدمات بالینی کارآمدتری ارائه دهیم؟

انواع کاربردهای هوش مصنوعی در صنایع مختلف را در هوشیو بخوانید

منبع: هوشیو

روان درمانیخودکارسازیخودکارسازی جلساتکاربردهای هوش مصنوعیروانپزشکی
هوشمندسازی فرآیندهای زندگی https://partdp.ai/
شاید از این پست‌ها خوشتان بیاید