آموزش chatgpt و LLM ها
آموزش chatgpt و LLM ها
خواندن ۶ دقیقه·۴ ماه پیش

چگونه انسان ها می توانند در راستای مسابقه تسلیحاتی هوش مصنوعی حرکت کنند

ابزارهای هوش مصنوعی از نظر بسیاری به عنوان یک موهبت برای تحقیقات، از پروژه های کاری گرفته تا کار مدرسه و علم. به عنوان مثال، به جای اینکه ساعت ها صرف بررسی دقیق وب سایت ها کنید، می توانید فقط یک سوال از ChatGPT بپرسید و پاسخی به ظاهر قانع کننده به شما خواهد داد. با این حال، سوال این است که آیا می توانید به این نتایج اعتماد کنید؟ تجربه نشان می دهد که پاسخ اغلب «نه» است. هوش مصنوعی تنها زمانی خوب عمل می کند که انسان ها بیشتر درگیر باشند، آن را هدایت و نظارت کنند، سپس نتایجی را که تولید می کند در برابر دنیای واقعی بررسی کنند. اما با رشد سریع بخش هوش مصنوعی مولد و ابزارهای جدید که به طور مداوم منتشر می شوند، درک و پذیرش نقشی که باید هنگام کار با ابزارهای هوش مصنوعی ایفا کنند برای مصرف کنندگان می تواند چالش برانگیز باشد.

📷

بخش هوش مصنوعی بسیار بزرگ است و تنها در حال بزرگ‌تر شدن است و کارشناسان می‌گویند که ارزش آن   تا سال ۲۰۳۰ به بیش از یک تریلیون دلار خواهد رسید. مایکروسافت و بسیاری دیگر – در حال انتشار نسخه خود از فناوری هوش مصنوعی و به ویژه محصولات پیشرفته هوش مصنوعی مولد هستند.

با توجه به چنین ریسک‌هایی، جای تعجب نیست که شرکت‌ها  با بیشترین سرعت ممکن برای  انتشار ویژگی‌های جدیدی کار می‌کنند که به آن‌ها پا در رقابت می‌دهد. این در واقع یک  مسابقه تسلیحاتی است که شرکت‌ها در پی آن هستند که تا حد امکان کاربران را در اکوسیستم خود ببندند. شرکت‌ها امیدوارند که ویژگی‌هایی که به کاربران امکان می‌دهد از سیستم‌های هوش مصنوعی به ساده‌ترین روش ممکن استفاده کنند – مانند اینکه بتوانند تمام اطلاعات مورد نیاز یک پروژه تحقیقاتی را فقط با پرسیدن یک سوال از یک چت ربات هوش مصنوعی مولد به دست آورند – مشتریان بیشتری را برای آنها به ارمغان آورد. با اضافه شدن ویژگی های جدید به طور منظم با محصول یا برند باقی بمانید.

اما گاهی اوقات، شرکت‌ها در رقابت خود برای اولین بودن، ویژگی‌هایی را منتشر می‌کنند که ممکن است به درستی بررسی نشده باشند، یا محدودیت‌های آنها به خوبی درک یا تعریف نشده باشد. در حالی که شرکت‌ها در گذشته برای سهم بازار در بسیاری از فن‌آوری‌ها و برنامه‌های کاربردی رقابت کرده‌اند، به نظر می‌رسد که رقابت تسلیحاتی کنونی شرکت‌های بیشتری را به عرضه  محصولات «نیمه‌پخت» بیشتر از همیشه سوق می‌دهد  – با نتایج نیمه‌پخت حاصل. تکیه بر چنین نتایجی برای مقاصد تحقیقاتی – اعم از تجاری، شخصی، پزشکی، دانشگاهی یا موارد دیگر – می تواند منجر به نتایج نامطلوب از جمله آسیب به شهرت، زیان کسب و کار یا حتی خطر جانی شود.

حوادث ناگوار هوش مصنوعی باعث زیان های قابل توجهی برای چندین کسب و کار شده است. شرکتی به نام iTutor  در سال ۲۰۲۳ به دلیل اینکه الگوریتم هوش مصنوعی ده ها متقاضی کار را به دلیل سن آنها رد کرد، ۳۶۵۰۰۰ دلار جریمه شد.  بازار املاک و مستغلات Zillow  در سال ۲۰۲۱ به دلیل پیش‌بینی نادرست قیمت‌گذاری توسط سیستم هوش مصنوعی خود صدها میلیون دلار از دست داد. کاربرانی که برای مشاوره پزشکی به هوش مصنوعی متکی بودند نیز در معرض خطر قرار داشتند.  به عنوان مثال، Chat GPT   اطلاعات نادرستی در مورد تعامل بین داروی کاهش دهنده فشار خون وراپامیل و Paxlovid، قرص ضد ویروسی فایزر برای کووید-19 – و اینکه آیا بیمار می‌تواند آن داروها را همزمان مصرف کند یا خیر، به کاربران ارائه کرد. کسانی که به توصیه های نادرست سیستم مبنی بر عدم وجود تعامل بین این دو تکیه می کنند، می توانند خود را در معرض خطر قرار دهند.

در حالی که این حوادث در سرفصل خبرها قرار گرفتند، بسیاری دیگر از شعورهای هوش مصنوعی چنین نیستند – اما می توانند به همان اندازه برای مشاغل و شهرت کشنده باشند. برای مثال، یک مدیر بازاریابی مضطرب که به دنبال میانبری برای تهیه گزارش‌ها می‌گردد ممکن است وسوسه شود که از یک ابزار هوش مصنوعی برای تولید آن استفاده کند – و اگر آن ابزار اطلاعاتی را ارائه دهد که صحیح نیست، ممکن است خود را به دنبال شغل دیگری بیابند. دانشجویی که از ChatGPT برای نوشتن گزارش استفاده می کند – و استادش به اندازه کافی زرنگ است که منبع آن گزارش را دریابد – ممکن است برای ترم با F روبرو باشد. و وکیلی که دستیارش از ابزارهای هوش مصنوعی برای کارهای حقوقی استفاده می کند، در صورتی که پرونده ای که ارائه می دهد به دلیل داده های بد مخدوش شود، ممکن است جریمه یا حتی محروم شود.

تقریباً می توان از همه این موقعیت ها جلوگیری کرد – اگر انسان ها هوش مصنوعی را هدایت کنند و شفافیت بیشتری در حلقه تحقیقات داشته باشند. هوش مصنوعی باید به عنوان مشارکتی بین انسان و ماشین در نظر گرفته شود. این یک همکاری واقعی است – و این ارزش برجسته آن است.

در حالی که ویژگی‌های جستجو، قالب‌بندی و تجزیه و تحلیل قدرتمندتر مورد استقبال قرار می‌گیرد، سازندگان محصولات هوش مصنوعی نیز باید مکانیسم‌هایی را در نظر بگیرند که امکان این همکاری را فراهم می‌کند. سیستم‌ها باید شامل ابزارهای راستی‌آزمایی باشند که کاربران را قادر می‌سازد نتایج گزارش‌های ابزارهایی مانند ChatGPT را بررسی کنند و به کاربران اجازه دهد منابع اصلی نقاط داده یا قطعات خاص را ببینند. این هم تحقیقات برتر را تولید می کند و هم اعتماد را به خودمان باز می گرداند. ما می‌توانیم گزارشی ارائه کنیم، یا خط‌مشی را با اطمینان بر اساس حقایقی که به آن اعتماد داریم و درک می‌کنیم، توصیه کنیم.

کاربران همچنین باید هنگام تکیه بر هوش مصنوعی برای تولید تحقیق، آنچه را که در خطر است تشخیص داده و وزن کنند. آنها باید سطح خسته کننده بودن را با اهمیت نتیجه سنجید. برای مثال، انسان‌ها احتمالاً می‌توانند هنگام استفاده از هوش مصنوعی برای مقایسه رستوران‌های محلی کمتر درگیر باشند. اما هنگام انجام تحقیقاتی که به تصمیمات تجاری با ارزش یا طراحی هواپیما یا تجهیزات پزشکی می‌پردازد، برای مثال، کاربران باید در هر مرحله از فرآیند تحقیقات مبتنی بر هوش مصنوعی مشارکت بیشتری داشته باشند. هر چه تصمیم مهمتر باشد، مهمتر است که انسانها بخشی از آن باشند. تحقیقات برای تصمیمات نسبتاً کوچک احتمالاً می تواند کاملاً به هوش مصنوعی سپرده شود.

هوش مصنوعی همیشه در حال بهتر شدن است – حتی بدون کمک انسان . این امکان وجود دارد، اگر نه محتمل، ابزارهای هوش مصنوعی که قادر به بررسی خود هستند و نتایج خود را در برابر دنیای واقعی به همان روشی که انسان می خواهد بررسی می کند – یا دنیا را به  مکانی بسیار بهتر تبدیل می کند یا  آن را نابود می کند . اما ابزارهای هوش مصنوعی ممکن است به محض اینکه بسیاری معتقد باشند ،  به آن سطح نرسند  . این بدان معناست که عامل انسانی همچنان در هر پروژه تحقیقاتی ضروری است. همانطور که ابزارهای هوش مصنوعی در کشف داده ها و سازماندهی اطلاعات خوب هستند، نمی توان به آنها برای ارزیابی زمینه و استفاده از آن اطلاعات به گونه ای که ما به عنوان انسان به آن نیاز داریم اعتماد کرد. برای آینده قابل پیش‌بینی، مهم است که محققان ابزارهای هوش مصنوعی را به همان شکلی که هستند ببینند. ابزارهایی برای کمک به انجام کار، به جای چیزی که جایگزین انسان و مغز انسان در کار شود.

اینجا جدیدترین تکنیک های مربوط به آموزش chatgpt و LLM ها بهت یاد می دم https://aliayoubi.com
شاید از این پست‌ها خوشتان بیاید