چرا کسب‌وکار شما به هوش افزوده نیاز دارد

منتشرشده در مجله Forbes به تاریخ ۱۹ اکتبر ۲۰۲۰
لینک مقاله اصلی: Go Beyond Artificial Intelligence: Why Your Business Needs Augmented Intelligence

تست بینی کووید۱۹ مستلزم این است که پرستاری یک سوآب به طول ۶ اینچ را در راه بینی شما قرار دهد. پرستار این سوآب دسته بلند را به داخل بینی شما وارد می‌کند و آن را به مدت ۱۵ ثانیه حرکت می‌دهد.

حالا تصور کنید که پرستار شما یک روبات است.

چند ماه پیش، یک روبات سوآب بینی توسط Brain Navi، یک استارت‌آپ تایوانی، ساخته شد. هدف شرکت به حداقل رساندن گسترش عفونت از طریق کاهش تماس پرسنل و بیماران بود. بنابراین، در اینجا ما یک روبات داریم که به طور خودکار مسیر یابی پروب را در گلوی شما انجام می‌دهد و با دقت از کانال‌هایی که به چشم‌ها منتهی می‌شوند اجتناب می‌کند.

قرار است این ربات ایمن باشد. اما بسیاری از بیماران به طور قابل درکی ترسیده‌اند.

امروزه هوش مصنوعی قابلیت‌های قابل‌توجهی پیدا کرده‌است. این فناوری در وظایفی مانند تشخیص صدا و تصویر، در رشته‌های مختلف از آوانویسی گرفته تا بازی‌ها، بهتر از انسان‌ها است.

اما آیا این به این معنی است که ما باید به سادگی لگام را به دست ماشین‌ها بدهیم و خودمان کاری نکنیم؟ نه کاملا.

کسب‌وکار شما به هوش افزوده نیاز دارد

شما برای موثرتر، قابل‌قبول‌تر و انسانی‌تر کردن راه‌حل‌های هوش مصنوعی برای کاربران، به انسان‌ها نیاز دارید. در این زمان است که آن‌ها به کار گرفته شده و باعث ایجاد بازگشت سرمایه (ROI) برای سازمان شما می‌شوند. وقتی هوش مصنوعی و انسان‌ها ترکیب می‌شوند، کل می‌تواند بزرگ‌تر از مجموع اجزا باشد.

این چیزی است که هوش افزوده (Augmented Intelligence) نامیده می‌شود.

در اینجا به چهار دلیل اشاره می‌کنیم که چرا کسب و کار شما برای تغییر به هوش افزوده نیاز دارد:

۱.عملکرد:

یک تولیدکننده بزرگ کامپیوتر می‌خواست بداند چه چیزی مشتریان را خوشحال می‌کند. گرامنر، شرکتی که راه‌حل‌های علم داده ارایه می‌دهد ده‌ها هزار نظر از نظرسنجی دو سالانه مشتری (WC) را تحلیل کرده‌است. یک گام کلیدی در این فرآیند تجزیه و تحلیل متن، یافتن چیزی بود که مشتریان در مورد آن صحبت می‌کردند. آن‌ها نگران صدور صورتحساب بودند یا خدمات پس از فروش؟

این تیم از مدل‌های زبان هوش مصنوعی برای طبقه‌بندی نظرات به دسته‌های درست استفاده کرد. الگوریتم میانگین دقت بیش از ۹۰٪ را ارائه داد، اما کاربران این کسب‌وکار خوشحال نبودند. در حالی که الگوریتم در اکثر گروه‌ها بسیار خوب عمل می‌کرد، اما در تعداد کمی از گروه‌ها خطا می‌کرد و دقتی حدود ۶۰ درصد داشت. این امر منجر به تصمیمات ضعیف در آن بخش‌ها شد.

الگوریتم ها زمانی که بر روی حجم زیادی از داده‌ها، با انواع مختلفی از سناریوها آموزش می‌بینند، بهترین عملکرد را دارند. دسته‌هایی با دقت پایین در این پروژه هیچ کدام از آن‌ها را نداشتند. تیم پروژه با وارد کردن انسان برای رسیدگی به آن دسته‌هایی که در آن‌ها اعتماد به مدل پایین بود، آزمایش انجام داد.

با یک تلاش انسانی اندک، دقت کلی راه‌حل افزایش یافت. این کار منجر به بهبود ۲ درصدی امتیاز در شبکه ارتقای امتیاز مشتری شد.

۲. انعطاف‌پذیری:

الگوریتم‌ها با مطالعه عواملی مانند رفتار مصرف‌کننده و الگوهای خرید تاریخی تقلب‌های آنلاین را کشف می‌کنند. آن‌ها از مثال‌های گذشته یاد می‌گیرند تا مشخص کنند چه چیزی طبیعی است و چه چیزی نیست. با شروع پاندمی، این الگوریتم‌ها دچار افت شدند.

در «حالت عادی جدید» امروزی، مصرف‌کنندگان از راه دور ارتباط برقرار می‌کنند. آن‌ها زمان بیشتری را آنلاین سپری می‌کنند، و الگوهای هزینه به شکل غیر منتظره‌ای تغییر کرده‌اند. ناگهان، هر چیزی که این الگوریتم‌ها یاد گرفته‌اند، بی‌معنی شده‌است. کووید۱۹ برای آن‌ها غیرمنتظره بود.

الگوریتم‌ها تنها در سناریوهایی که برایشان آموزش دیده‌اند کار می‌کنند. در شرایط کاملا جدید، انسان‌ها باید وارد عمل شوند. سازمان‌هایی که انسان‌ها را در این حلقه نگه داشته‌اند می‌توانند در چنین شرایطی به سرعت کنترل را به آن‌ها منتقل کنند. انسان‌ها می‌توانند با اطمینان از این که سیستم‌ها در برابر تغییرات انعطاف‌پذیر هستند، آن‌ها را به راحتی سر پا نگه دارند.

در عین حال، الگوریتم‌ها می‌توانند به کلاس باز گردند تا موارد گذشته را فراموش کنند، دوباره یاد بگیرند و کمی باهوش‌تر برگردند. برای مثال، یک مطالعه اخیر NIST نشان داد که استفاده از ماسک‌های صورت، الگوریتم‌های تشخیص چهره، مثل آن‌هایی که در گذرگاه‌های مرزی استفاده می‌شوند را به‌هم می‌ریزد. اغلب سیستم‌ها تا ۵۰٪ خطا داشتند و نیاز به مداخله دستی و انسانی داشتند. الگوریتم‌ها برای استفاده از نواحی قابل‌مشاهده در اطراف چشم‌ها مجددا آموزش می‌بینند.

۳. پاسخگویی:

در ۱۸ مارس ۲۰۱۸، الین هرزبرگ در حال دوچرخه‌سواری در خیابان میل بود. حدود ساعت ۱۰ بعد از ظهر به وقت تمپه، آریزونا بود. او چند لاین ترافیک را رد کرد تا اینکه با یک ولوو برخورد کرد.

اما این ولوو نبود. بلکه یک ماشین خودران بود که توسط اوبر تست می‌شد.

به این خودرو آموزش داده شده بود تا افرادی که در حال عبور از خط عابر بودند را شناسایی کند. اما هرزبرگ از وسط جاده در حال عبور بود، بنابراین هوش مصنوعی موفق به شناسایی او نشد.

این حادثه غم‌انگیز اولین مرگ یک عابر پیاده توسط یک خودروی خودران بود. این موضوع چند سوال برانگیخت. زمانی که هوش مصنوعی اشتباه می‌کند، چه کسی باید مسئول باشد؟ این ماشین ساز (ولوو)، سازنده سیستم هوش مصنوعی (اوبر)، راننده ماشین (رافایل واسکوئز)، یا عابر پیاده (الین هرزبرگ)؟

گاهی اوقات، حتی در سناریوهای آشنا نیز الگوریتم‌های با دقت بالا دچار مشکل می‌شوند. به جای برگرداندن پیشرفت‌های ایجاد شده در اتوماسیون، ما باید تلاش‌هایی برای بهبود پاسخگویی انجام دهیم. ماه گذشته، کمیسیون اروپا توصیه‌هایی را از یک گزارش کارشناسی مستقل برای اتومبیل‌های شخصی منتشر کرد.

متخصصان خواستار شناسایی مالکیت همه طرفین و ایجاد روش‌هایی برای نسبت دادن مسئولیت در سناریوها هستند. این گزارش بهبود تعاملات انسان و ماشین را توصیه می‌کند تا هوش مصنوعی و رانندگان بتوانند بهتر ارتباط برقرار کنند و محدودیت‌های یکدیگر را درک کنند.

۴. عدالت:

آیا Siri، الکسا یا دستیار گوگل علیه شما تبعیض قائل می‌شوند؟ اوایل امسال محققان دانشگاه استنفورد تلاش کردند تا با مطالعه سیستم‌های برتر تشخیص صدا در جهان به این سوال پاسخ دهند. آن‌ها دریافتند که این ابزارهای محبوب در درک افراد سیاه‌پوست بیشتر از سفیدپوست‌ها دچار مشکل می‌شوند. آن‌ها ۳۵ درصد از کلماتی را که توسط کاربران سیاه‌پوست گفته می‌شد را درک نکردند، که این عدد برای افراد سفیدپوست تنها ۱۹ درصد بود.

تعصب یک مساله دشوار در هوش مصنوعی است. اما باید به خاطر داشته باشیم که الگوریتم‌ها به اندازه داده‌های مورد استفاده برای آموزش آن‌ها خوب عمل می‌کنند. دنیای ما چیزی جز کمال نیست. وقتی الگوریتم‌ها از داده‌های ما یاد می‌گیرند، از این نواقص تقلید کرده و جهت گیری را بزرگ می‌کنند. تحقیقات مداومی در هوش مصنوعی برای بهبود عدالت و اخلاق وجود دارد. با این حال، هیچ مقداری از مهندسی مدل وجود ندارد که الگوریتم‌ها را کامل کند.

در دنیای واقعی، اگر ما در مورد مبارزه با تعصب جدی باشیم، از قضاوت خود استفاده می‌کنیم. ما قوانین را جامع‌تر می‌کنیم و اقداماتی را برای تقویت صداهای سرکوب‌شده اتخاذ می‌کنیم. همین رویکرد در راه‌حل‌های هوش مصنوعی نیز مورد نیاز است. مداخله انسانی را باید طوری طراحی کنید که سناریوهای بالقوه تبعیض را بررسی کرده و اصلاح کند. از قضاوت انسانی برای مبارزه با تعصب آموخته‌شده یک ماشین استفاده کنید.

هوش تقویت‌شده نیاز به طراحی متفکرانه دارد

ما اغلب پیشرفت هوش مصنوعی را با مقایسه توانایی‌های هوش مصنوعی با توانایی‌های انسان اندازه‌گیری می‌کنیم.

با اینکه این یک تمرین الگوبرداری مفید است، اما استفاده از این رویکرد در حین طراحی راه‌حل‌های هوش مصنوعی اشتباه است. سازمان‌ها اغلب هوش مصنوعی را علیه انسان‌ها به کار می‌برند. این موضوع برای هیچ‌کدام عادلانه نیست. این امر منجر به عملکرد غیر بهینه، راه‌حل‌های شکننده، کاربردهای غیرقابل‌اعتماد و تصمیمات ناعادلانه می‌شود.

هوش افزوده، قدرت انسان‌ها را با قدرت هوش مصنوعی ترکیب می‌کند. این سیستم، سرعت، منطق و ثبات ماشین‌ها را با عقل سلیم، هوش هیجانی و همدلی انسان‌ها ترکیب می‌کند.

برای رسیدن به هوش افزوده، شما به حضور انسان‌ها در حلقه نیاز دارید. این موضوع باید از قبل برنامه‌ریزی شده‌باشد. افزودن صرف فرایندها یا مسئولیت‌های جدید به یک راه‌حل فن‌آوری موجود منجر به نتایج ضعیف می‌شود. شما باید جریان کار راه‌حل را (مجددا)طراحی کنید و تصمیم بگیرید که کدام حوزه‌ها به بهترین شکل توسط الگوریتم ها اداره می‌شوند. شما باید تعریف کنید که انسان‌ها باید تصمیم بگیرند یا باید تصمیمات گرفته‌شده توسط ماشین را بررسی کنند.

ساختن هوش افزوده یک سفر در حال انجام است. با تکامل در قابلیت‌های ماشین و تغییر در سطح راحتی و اعتماد کاربر، شما باید به طور مداوم طراحی را بهبود بخشید.

این کار باعث می‌شود سیستم‌های هوش مصنوعی که رویه‌های پزشکی تهاجمی را انجام می‌دهند و یا تصمیمات مالی پر مخاطره می‌گیرند، برای کاربران شما قابل‌اعتمادتر و دلسوزتر شوند.

این متن با استفاده از ربات ترجمه مقالات هوش مصنوعی ترجمه شده و به صورت محدود مورد بازبینی انسانی قرار گرفته است.در نتیجه می‌تواند دارای برخی اشکالات ترجمه باشد.