ابزارهای هوش مصنوعی از نظر بسیاری به عنوان یک موهبت برای تحقیقات، از پروژه های کاری گرفته تا کار مدرسه و علم. به عنوان مثال، به جای اینکه ساعت ها صرف بررسی دقیق وب سایت ها کنید، می توانید فقط یک سوال از ChatGPT بپرسید و پاسخی به ظاهر قانع کننده به شما خواهد داد. با این حال، سوال این است که آیا می توانید به این نتایج اعتماد کنید؟ تجربه نشان می دهد که پاسخ اغلب «نه» است. هوش مصنوعی تنها زمانی خوب عمل می کند که انسان ها بیشتر درگیر باشند، آن را هدایت و نظارت کنند، سپس نتایجی را که تولید می کند در برابر دنیای واقعی بررسی کنند. اما با رشد سریع بخش هوش مصنوعی مولد و ابزارهای جدید که به طور مداوم منتشر می شوند، درک و پذیرش نقشی که باید هنگام کار با ابزارهای هوش مصنوعی ایفا کنند برای مصرف کنندگان می تواند چالش برانگیز باشد.
📷
بخش هوش مصنوعی بسیار بزرگ است و تنها در حال بزرگتر شدن است و کارشناسان میگویند که ارزش آن تا سال ۲۰۳۰ به بیش از یک تریلیون دلار خواهد رسید. مایکروسافت و بسیاری دیگر – در حال انتشار نسخه خود از فناوری هوش مصنوعی و به ویژه محصولات پیشرفته هوش مصنوعی مولد هستند.
با توجه به چنین ریسکهایی، جای تعجب نیست که شرکتها با بیشترین سرعت ممکن برای انتشار ویژگیهای جدیدی کار میکنند که به آنها پا در رقابت میدهد. این در واقع یک مسابقه تسلیحاتی است که شرکتها در پی آن هستند که تا حد امکان کاربران را در اکوسیستم خود ببندند. شرکتها امیدوارند که ویژگیهایی که به کاربران امکان میدهد از سیستمهای هوش مصنوعی به سادهترین روش ممکن استفاده کنند – مانند اینکه بتوانند تمام اطلاعات مورد نیاز یک پروژه تحقیقاتی را فقط با پرسیدن یک سوال از یک چت ربات هوش مصنوعی مولد به دست آورند – مشتریان بیشتری را برای آنها به ارمغان آورد. با اضافه شدن ویژگی های جدید به طور منظم با محصول یا برند باقی بمانید.
اما گاهی اوقات، شرکتها در رقابت خود برای اولین بودن، ویژگیهایی را منتشر میکنند که ممکن است به درستی بررسی نشده باشند، یا محدودیتهای آنها به خوبی درک یا تعریف نشده باشد. در حالی که شرکتها در گذشته برای سهم بازار در بسیاری از فنآوریها و برنامههای کاربردی رقابت کردهاند، به نظر میرسد که رقابت تسلیحاتی کنونی شرکتهای بیشتری را به عرضه محصولات «نیمهپخت» بیشتر از همیشه سوق میدهد – با نتایج نیمهپخت حاصل. تکیه بر چنین نتایجی برای مقاصد تحقیقاتی – اعم از تجاری، شخصی، پزشکی، دانشگاهی یا موارد دیگر – می تواند منجر به نتایج نامطلوب از جمله آسیب به شهرت، زیان کسب و کار یا حتی خطر جانی شود.
حوادث ناگوار هوش مصنوعی باعث زیان های قابل توجهی برای چندین کسب و کار شده است. شرکتی به نام iTutor در سال ۲۰۲۳ به دلیل اینکه الگوریتم هوش مصنوعی ده ها متقاضی کار را به دلیل سن آنها رد کرد، ۳۶۵۰۰۰ دلار جریمه شد. بازار املاک و مستغلات Zillow در سال ۲۰۲۱ به دلیل پیشبینی نادرست قیمتگذاری توسط سیستم هوش مصنوعی خود صدها میلیون دلار از دست داد. کاربرانی که برای مشاوره پزشکی به هوش مصنوعی متکی بودند نیز در معرض خطر قرار داشتند. به عنوان مثال، Chat GPT اطلاعات نادرستی در مورد تعامل بین داروی کاهش دهنده فشار خون وراپامیل و Paxlovid، قرص ضد ویروسی فایزر برای کووید-19 – و اینکه آیا بیمار میتواند آن داروها را همزمان مصرف کند یا خیر، به کاربران ارائه کرد. کسانی که به توصیه های نادرست سیستم مبنی بر عدم وجود تعامل بین این دو تکیه می کنند، می توانند خود را در معرض خطر قرار دهند.
در حالی که این حوادث در سرفصل خبرها قرار گرفتند، بسیاری دیگر از شعورهای هوش مصنوعی چنین نیستند – اما می توانند به همان اندازه برای مشاغل و شهرت کشنده باشند. برای مثال، یک مدیر بازاریابی مضطرب که به دنبال میانبری برای تهیه گزارشها میگردد ممکن است وسوسه شود که از یک ابزار هوش مصنوعی برای تولید آن استفاده کند – و اگر آن ابزار اطلاعاتی را ارائه دهد که صحیح نیست، ممکن است خود را به دنبال شغل دیگری بیابند. دانشجویی که از ChatGPT برای نوشتن گزارش استفاده می کند – و استادش به اندازه کافی زرنگ است که منبع آن گزارش را دریابد – ممکن است برای ترم با F روبرو باشد. و وکیلی که دستیارش از ابزارهای هوش مصنوعی برای کارهای حقوقی استفاده می کند، در صورتی که پرونده ای که ارائه می دهد به دلیل داده های بد مخدوش شود، ممکن است جریمه یا حتی محروم شود.
تقریباً می توان از همه این موقعیت ها جلوگیری کرد – اگر انسان ها هوش مصنوعی را هدایت کنند و شفافیت بیشتری در حلقه تحقیقات داشته باشند. هوش مصنوعی باید به عنوان مشارکتی بین انسان و ماشین در نظر گرفته شود. این یک همکاری واقعی است – و این ارزش برجسته آن است.
در حالی که ویژگیهای جستجو، قالببندی و تجزیه و تحلیل قدرتمندتر مورد استقبال قرار میگیرد، سازندگان محصولات هوش مصنوعی نیز باید مکانیسمهایی را در نظر بگیرند که امکان این همکاری را فراهم میکند. سیستمها باید شامل ابزارهای راستیآزمایی باشند که کاربران را قادر میسازد نتایج گزارشهای ابزارهایی مانند ChatGPT را بررسی کنند و به کاربران اجازه دهد منابع اصلی نقاط داده یا قطعات خاص را ببینند. این هم تحقیقات برتر را تولید می کند و هم اعتماد را به خودمان باز می گرداند. ما میتوانیم گزارشی ارائه کنیم، یا خطمشی را با اطمینان بر اساس حقایقی که به آن اعتماد داریم و درک میکنیم، توصیه کنیم.
کاربران همچنین باید هنگام تکیه بر هوش مصنوعی برای تولید تحقیق، آنچه را که در خطر است تشخیص داده و وزن کنند. آنها باید سطح خسته کننده بودن را با اهمیت نتیجه سنجید. برای مثال، انسانها احتمالاً میتوانند هنگام استفاده از هوش مصنوعی برای مقایسه رستورانهای محلی کمتر درگیر باشند. اما هنگام انجام تحقیقاتی که به تصمیمات تجاری با ارزش یا طراحی هواپیما یا تجهیزات پزشکی میپردازد، برای مثال، کاربران باید در هر مرحله از فرآیند تحقیقات مبتنی بر هوش مصنوعی مشارکت بیشتری داشته باشند. هر چه تصمیم مهمتر باشد، مهمتر است که انسانها بخشی از آن باشند. تحقیقات برای تصمیمات نسبتاً کوچک احتمالاً می تواند کاملاً به هوش مصنوعی سپرده شود.
هوش مصنوعی همیشه در حال بهتر شدن است – حتی بدون کمک انسان . این امکان وجود دارد، اگر نه محتمل، ابزارهای هوش مصنوعی که قادر به بررسی خود هستند و نتایج خود را در برابر دنیای واقعی به همان روشی که انسان می خواهد بررسی می کند – یا دنیا را به مکانی بسیار بهتر تبدیل می کند یا آن را نابود می کند . اما ابزارهای هوش مصنوعی ممکن است به محض اینکه بسیاری معتقد باشند ، به آن سطح نرسند . این بدان معناست که عامل انسانی همچنان در هر پروژه تحقیقاتی ضروری است. همانطور که ابزارهای هوش مصنوعی در کشف داده ها و سازماندهی اطلاعات خوب هستند، نمی توان به آنها برای ارزیابی زمینه و استفاده از آن اطلاعات به گونه ای که ما به عنوان انسان به آن نیاز داریم اعتماد کرد. برای آینده قابل پیشبینی، مهم است که محققان ابزارهای هوش مصنوعی را به همان شکلی که هستند ببینند. ابزارهایی برای کمک به انجام کار، به جای چیزی که جایگزین انسان و مغز انسان در کار شود.