متخصصان معتقدند کاربرد هوش مصنوعی در حوزههای روانپزشکی و روان درمانی به سرعت در حال رشد است. این فناوری به درمانگران اجازه میدهد بیماریهای روانی را زودتر تشخیص داده و خدمات درمانی بهتری برای آنها فراهم آورد. اما آیا این فناوریها کارآمد، و البته اخلاقی، هستند؟
دنیل بارون بر این باور است که در آیندهای بسیار نزدیک، جلسات روانپزشکی شکل کاملاً متفاوتی به خود خواهند گرفت؛ به نحوی که پزشکان برای تجزیه و تحلیل تعاملاتی که با مراجعان برقرار و ثبت کردهاند (برای مثال تشخیص تغییراتی نهان که در رفتار یا گفتار آنها رخ داده است) از کامپیوترها کمک خواهند گرفت.
بارون به عنوان روانپزشک در سیاتل مشغول به کار است؛ وی اخیراً کتاب «ذهنخوانی: ظهور کلاندادهها در حوزهی روانپزشکی» را به رشته تحریر در آورده است. بارون میگوید: «اگر از منابعی همچون مکالمات بین پزشک و مراجع، حالات چهره، تغییرات تن صدا و لحن گفتار بیمار و مواردی از این دست، دادههای کیفی بیشتری به دست آوریم میتوانیم تعاملات بالینی را وارد بُعد دیگری کنیم که در حال حاضر ناشناخته و غیرقابل تصور است.»
بارون و سایرین معتقدند استفاده از هوش مصنوعی، به خصوص نرمافزارهای تشخیص چهره و تحلیل متن، در حوزهی روان درمانی و روانپزشکی رشد گستردهای خواهد داشت. با تکیه بر این فناوریها، بالینگران قادر خواهند بود بیماریهای روانی را زودتر از گذشته تشخیص داده و خدمات درمانی مناسب را در اختیار بیماران قرار دهند. اما قبل از هرچیز، کارآمدی این فناوریها باید اثبات شود؛ علاوه بر کارآمدی، برخی از متخصصان در مورد سوگیری و مسائل اخلاقی بالقوهی سیستمهای هوش مصنوعی نیز ابراز نگرانی کردهاند.
جان توروس، مدیر بخش روانپزشکی دیجیتال مرکز Beth Israel Deaconess در بوستون، معتقد است: «طی چند دههی گذشته، ابزارهای پزشکی دیجیتال و از راه دور از محبوبیت بیشتری به دست آوردهاند؛ اما به نظر من، همهگیری کووید نقش بسیار پررنگی در این مسئله ایفا و آن را تسریع کرده است.»
طبق گفتههای بارون، در حال حاضر کارآمدی این فناوریهای در حال توسعه اثبات شده است. به عنوان مثال، الگوریتمهایی وجود دارند که میتوانند در مورد تغییرات غیرملموس حالات چهره یا تغییر سرعت تکلم افراد به پزشکان هشدار دهند؛ چنین علائمی میتوانند حاکی از شیدایی یا افسردگی بیماران باشد. بارون معتقد است به کمک این فناوریها، پزشکان میتوانند علائمی از این دست را زودتر از گذشته تشخیص دهند.
نرمافزارها/الگوریتمها این دادهها را جمعآوری و سازماندهی میکنند. در فاصلهی بین جلسات، دکتر میتواند دادهها را غربال کرده و روی مواردی تمرکز کند که نشان از مسئلهی خاصی هستند. اطلاعاتی که خارج از مطب جمعآوری میشوند هم میتوانند در میان این دادهها قرار گرفته و به پزشکان کمک بیشتری برسانند.
کالین دپ، از روانپزشکان دانشگاه کالیفرنیا، سندیگو، میگوید: «از منابع گوناگون همچون اصوات، دستگاههای پوشیدنی و غیره میتوان دادههای فراوانی تولید کرد که به ردگیری ما و کارهایمان کمک میکنند؛ با کاربرد این دادهها در مداخلات درمانی، میتوان کارآمدی و موفقیت این جلسات را مورد ارزیابی قرار داد.»
به عنوان مثال، اگر دادههای حاصل از برنامهها و دستگاهها نشان دهند کمیت یا کیفیت خواب فرد و یا وزن او کاهش یافته است یا هشدار دهند پستهای او در شبکههای اجتماعی، مضمون افسردگی دارند، روانشناس راحتتر و با آگاهی بیشتری میتواند تشخیصگذاری را انجام دهد.
دپ به عنوان یک نمونه از کاربردهای بالقوهی هوش مصنوعی در حوزهی روان درمانی، به پروژهی «امور کهنه سربازان» اشاره میکند که سوابق بالینی افرادی که خودکشی کردهاند را بررسی میکند. الگوریتمها با بررسی دادههای پزشکی ثبتشده برای این افراد، عوامل پرتکرار (با فراوانی بالا) را تشخیص میدهند؛ این عوامل میتوانند وضعیت استخدامی، وضعیت تأهل، بیماریهای مزمن، نسخههایی از داروهای اعتیادآور و موارد دیگری از این دست را در برگیرند. محققان معتقدند به کمک این الگوریتم، میتوان افرادی که در معرض خطر هستند یا دیگر از مراقبتهای درمانی استفاده نمیکنند را، قبل از اینکه اتفاقی بیفتد، تشخیص داد.
تحقیقات سالهای اخیر نشان دادهاند افسردگی و سایر بیماریهای روانی را میتوان از روی پستهایی که افراد در فیسبوک و توییتر به اشتراک میگذارند، پیشبینی کرد؛ بدین منظور باید به دنبال کلماتی بود که با رایجترین نشانههای افسردگی (همچون ناراحتی، تنهایی، خشم، نشخوار فکری و …) در ارتباط هستند. تغییر الگوی رفتاری افراد در فضای مجازی، در مورد مشکلات احتمالی به بالینگران هشدار میدهد.
در این راستا میتوان به الگوریتمی اشاره کرد که فیسبوک در سال ۲۰۱۷ ارائه داد؛ این الگوریتم با جستجو در میان پستهای انگلیسیزبان، به دنبال متونی با مضمون افکار خودکشی میگشت. در صورت مشاهدهی چنین موردی، پلیس در جریان گذاشته میشد. این جنبش با اعتراضات فراوانی روبرو شد؛ این انتقادات به ویژه مربوط به این بودند که شرکت فیسبوک بدون هیچ نظارتی، وارد حوزهی کاری روان درمانی شده بود.
جوهانس ایکستد، از روانشناسان دانشگاه استنفورد، معتقد است: «نرخ تشخیصگذاری بیماریهای روانی تقریباً نصف آن چیزی است که واقعاً وجود دارد. هوش مصنوعی میتواند به عنوان سیستمی برای غربال و هشدار زودهنگام به این مسئله کمک کند. اما کارآمدی سیستمهای تشخیصگر موجود اثبات نشده است. اگر این سیستمها را بر مبنای استانداردهای بالینی ارزیابی کنیم، همهی آنها، از جمله سیستمی که خودم ساختهام، در بهترین حالت به دقتی متوسط دست مییابند.»
ایکستد به الگوریتمهای هوش مصنوعی موجود، نمرهی C میدهد و معتقد است این برنامهها هنوز نتوانستهاند جای پرسشنامههای مدادکاغذی را بگیرند.
به گفتهی وی: «الگوریتمها تنها به دنبال این هستند که یک توالی از حالات چهره یا کلمات را پیدا کنند، در حالیکه این داده ها اطلاعات کم و مبهمی از حالات درونی فرد فراهم میآورند. مثل این که پزشک علائم بیرونی و ظاهری را تشخیص دهد اما نتواند بیماری اصلی را بفهمد.»
کیت کرافورد، از محققان دانشگاه کالیفرنیای جنوبی و نویسندهی کتاب «اطلس هوش مصنوعی»، خاطرنشان میکند: «بعضی از طرفداران این الگوریتمها بیش از حد به توانایی هوش مصنوعی در تفسیر رفتار انسانها امیدوار هستند.» او به عنوان مثال به رسوایی اخیر Lemonade اشاره میکند، شرکت بیمهای که ادعا داشت میتواند تصاویر ویدئویی ضبطشده از مشتریانش هنگام ادعای احتساب را با استفاده از هوش مصنوعی تجزیه و تحلیل کند تا صداقت یا عدم صداقت آنها را تشخیص دهد.
کرافورد در ایمیلی به Recode گفته است: «مواردی از این دست نشان میدهند که گاهی اوقات، شرکتها به طرقی از هوش مصنوعی استفاده میکنند که از نظر علمی اثبات نشدهاند و میتوانند آسیبزا باشند؛ مثلاً سودمندی سرنخها و نشانههای غیرکلامی موجود در تصاویر ویدئویی تأیید نشده است.» (البته، شرکت Lemonade طی بیانیهای به Recode اعلام کرد که این فناوری باعث میشود مشتریان بر اساس ظاهر، ناتوانی یا هر خصوصیت شخصی دیگری مورد تبعیض قرار نگیرند. این شرکت مدعی است هوش مصنوعی برای رد خودکار ادعای احتساب مشتریان به کار نرفته و نخواهد رفت.)
کرافورد به یک پژوهش مروری سیستماتیک اشاره میکند که در سال ۲۰۱۹، به سرپرستی لیزا فلدمن برت، روانشناس و متخصص علوم اعصاب، انجام شد. این پژوهش نشان داد در صورتی که دادهها به بهترین نحو ممکن ثبت شده باشند، هوش مصنوعی قادر خواهد بود برخی از حالات چهره از قبیل اخم، لبخند یا چشمغره را تشخیص دهد؛ با این حال، الگوریتمها نمیتوانند با اطمینان کامل حالت عاطفی درونی افراد را از روی این نشانهها استنباط کنند. برای مثال، افراد تنها در ۳۰% از مواقعی که خشمگین هستند، چشمغره میروند و ممکن است به دلایل دیگری که هیچ ارتباطی با خشم ندارد (مثلاً وقتی سردرگم شده، روی موضوعی تمرکز کرده یا جوک بدی شنیدهاند) این کار را انجام دهند.
برت معتقد است: «تحقیقات هوش مصنوعی پس از انتشار این پژوهش، پیشرفت چندانی نداشتهاند. بر اساس شواهد موجود، من هم نسبت به این موضوع خوشبین نیستم.» با این حال، وی اضافه میکند: «شاید یک رویکرد شخصیتر به نتایج بهتری دست یابد.» نباید فرض کنیم مردم تمام جهان از یک مجموعه حالت عاطفی مشترک پیروی میکنند؛ بلکه بهتر است الگوریتمها را روی یک یا چند تا از جلسات خود مراجع آموزش داد. بدین طریق میتوان دادههای حاصل از منابع مختلف همچون حالات چهره، صدا، یا معیارهای فیزیولوژیک همچون ضربان قلب را با توجه به بافت مدنظر قرار داد. در این صورت، احتمال اینکه بتوان هوش مصنوعی معتبر و قابلاطمینانتری برای هر فرد ساخت، افزایش مییابد.
با این حال، حتی با افزایش کارآمدی سیستمهای هوش مصنوعی، نگرانی در مورد جنبهی اخلاقی آنها همچنان باقی است. توروس، دپ و همکارانشان در مقالهای جدید بیان کردهاند: «درست است که هوش مصنوعی به تشخیصگذاری عینی بیماریها و مشکلات روانی کمک کرده و حتی در مسیر خوددرمانی، بیماران را راهنمایی میکند، اما قبل از هر چیز باید پاسخگوی مسائلی همچون سوگیری باشد.»
وقتی برای آموزش الگوریتمهای هوش مصنوعی به منظور تشخیص الگوهای نهفته در دادهها، از دیتابیسهایی بزرگ استفاده میکنیم، مشاهده میشود مردان سفید پوست، جوانها و افرادی که در آمد بالا دارند بیشتر از سایرین در این دیتابیسها حضور دارند. در نتیجهی این عدم توازن، ممکن است الگوریتمها نتوانند یک ویژگی یا لهجه خاص و کمیاب را به درستی تفسیر کنند.
یکی از پژوهشهای اخیر، الگوریتمهای متنمحوری که فیسبوک و سایر شرکتها به منظور سنجش سلامت روان به کار بردهاند را مورد مطالعه قرار داد و متوجه سوگیریهایی چشمگیر (از نظر مذهب، جنسیت، نژاد، ملیت، جهتگیری جنسی و سن) در این الگوریتمها شد. این محققان معتقدند بهتر است این الگوریتمها را به کمک بالینگرانی ساخت که ویژگیهای دموگرافیکی شبیه به همهی بیماران دارند و از نظرات (هرچند سوگیرانه) آنها در برچسبزنی و تفسیر استفاده کرد.
کاربرد الگوریتمها در این حوزهها از نظر حریم خصوصی هم مورد نقد قرار گرفتهاند. حتی افرادی که صفحاتشان برای عموم قابل مشاهده است هم ممکن است دوست نداشته باشند آنچه به اشتراک میگذارند تجزیه و تحلیل شود. علاوه بر این، دادههایی که از جلسات روان درمانی به دست میآیند، در معرض خطر هک شدن یا باجافزارها قرار میگیرند.
بدون شک، افرادی هستند که نسبت به غلبهی کلی هوش مصنوعی بر انسانها و نقش آن در حوزهی بهداشت و سلامت روان نظر مثبتی نداشته باشند. اما، به گفتهی دپ، تنها بخشی از روانپزشکی علم است و نباید فراموش کرد که بخش دیگر آن شهود است؛ به همین دلیل، هوش مصنوعی هرگز جایگزین رواندرمانگرها نخواهد شد، بلکه تنها میتواند مکمل کار آنها باشد.
دپ معتقد است: «همکاری بین ارائهدهندگان و دریافتکنندگان این خدمات از اهمیت بسیار بالایی برخوردار است و میتواند از قویترین پیشبینهای موفقیت این مسیر باشد. این همکاری را به هیچ قیمتی از دست نخواهیم داد، فناوریها هم برای کمک به این مسئله به کار خواهند رفت.»
با توجه به پیشرفتها و توسعهی فناوری، این مسئله را دیگر نمیتوان محدود به حوزهی آکادمیک درنظر گرفت.
سؤالی که باید از خود بپرسیم این است که آیا هوش مصنوعی، یا به بیان کلیتر ابزارهای دیجیتالی، میتوانند به ما کمک کنند دادههای دقیقتری جمعآوری کرده و بدین ترتیب خدمات بالینی کارآمدتری ارائه دهیم؟
انواع کاربردهای هوش مصنوعی در صنایع مختلف را در هوشیو بخوانید
منبع: هوشیو