چت‌جی‌پی‌تی-۴ اینجاست، اما آیا می‌خواهد کارتان را از شما بگیرد؟

منتشر شده در interestingengineering به تاریخ ۱۷ مارس ۲۰۲۳
لینک منبع ChatGPT-4 is here, but will it take away your job?

گروه پشتیبان ChatGPT-4، OpenAI، به تازگی گزارشی منتشر کرده است که می‌گوید آخرین نسخه چت‌بات در حل مشکلات بسیار بهتر است و در اکثر آزمون‌های حرفه‌ای و آکادمیک به «عملکرد در سطح انسانی» دست می‌یابد.

این گزارش نکات جالبی دارد، اما همانطور که برخی منابع گزارش کرده‌اند، ممکن است نگرانی‌هایی در مورد قابلیت‌های این آخرین نسخه وجود داشته باشد.

برای مثال، عده‌ای اشاره کرده‌اند که اکنون برخی از مشاغل ممکن است در معرض خطر باشند. با این حال، این نگرانی‌ها ممکن است کاملا بی‌مورد باشد.

چت‌جی‌پی‌تی می‌گوید: «به عنوان یک مدل زبان هوش مصنوعی، هدف من کمک و تقویت هوش انسان است، نه جایگزین کردن آن. توانایی‌ها و مهارت‌های من با انسان‌ها متفاوت است، و من برای تکمیل قابلیت‌های انسانی طراحی شده‌ام، نه اینکه آن‌ها را زائد کنم».

«من برای ارائه داده‌ها و دانش لازم برای عملکرد موثر به انسان‌ها متکی هستم. علاوه بر این، انسان‌ها هنوز برای تفسیر و اعمال اطلاعات من ضروری هستند. در نهایت، هدف من این است که به انسان‌ها کمک کنم تا کارآمدتر و مؤثرتر کار کنند نه اینکه جایگزین آن‌ها شوم».

و نکته این است. ابزارهای هوش مصنوعی مانند ChatGPT، تا آنجا که می‌دانیم، بدون تعامل انسانی کاملاً منفعل هستند. این فرآیند دو طرفه است که باعث می‌شود نرم‌افزار کار کند. اما این گزارش مشاهدات جالب‌تری دارد.

به عنوان مثال، این گزارش همچنین می‌گوید که «رفتارهای اضطراری خطرناک» ممکن است اتفاق بیفتد، که می‌تواند باعث شود افراد اطلاعات اشتباه به دست آورند و به مدل وابسته شوند.

یکی از نمونه‌های این «رفتار قدرت طلبانه» توانایی چت‌جی‌پی‌تی برای فریب دادن متقاضی کار با ظاهر شدن به عنوان یک نماینده زنده و دروغ گفتن در مورد هویت آن‌ها بود. در آزمایش دیگری، OpenAI توانایی ربات چت را برای راه‌اندازی یک حمله فیشینگ و پنهان کردن تمام شواهد نقشه نشان داد. همچنین گزارش‌هایی مبنی بر تلاش مجرمان سایبری برای استفاده از ربات چت برای نوشتن کدهای مخرب وجود دارد.

نگرانی این است که شرکت‌ها برای پذیرش GPT-4 بدون تدابیر کافی در برابر رفتارهای نامناسب یا غیرقانونی رقابت می‌کنند. ظرفیت ربات چت برای تولید «سخنان مشوق تنفر، زبان تبعیض‌آمیز... و افزایش خشونت» می‌تواند پیامدهای مهمی داشته باشد. همچنین این امکان وجود دارد که یک چت بات فعال دستورات تهدیدآمیز را برای سازندگان یا خبرنگاران خود صادر کند.

این گزارش اذعان می‌کند که اتکای بیش از حد به اطلاعات تولید شده توسط ربات‌های گفتگو می‌تواند مشکل‌ساز باشد، زیرا می‌تواند منجر به اشتباهات غیرقابل توجه، نظارت ناکافی، از دست دادن مهارت‌های حیاتی و مانع توسعه مهارت‌های جدید شود. این مشکل ممکن است بدتر شود زیرا ربات چت می‌تواند اطلاعات نادرست را ایجاد کند و آن را قانع کننده‌تر از نسخه‌های قبلی منتشر کند.

ایلان ماسک که OpenAI او چت‌جی‌پی‌تی را توسعه داده است، پتانسیل آن را «خوب ترسناک» توصیف کرده است. او هشدار داد که «ما از هوش مصنوعی بسیار قوی دور نیستیم.»

مدل‌های زبان هوش مصنوعی مانند چت‌جی‌پی‌تی می‌توانند افراد را باهوش‌تر کنند، اما قرار نیست جایگزین هوش انسانی شوند. از آنجایی که فناوری هوش مصنوعی در حال بهبود است، ضروری است که تدابیر حفاظتی مناسب برای اطمینان از استفاده اخلاقی و مسئولانه از این ابزارها اعمال شود.

این متن با استفاده از ربات ترجمه مقالات هوش مصنوعی ترجمه شده و به صورت محدود مورد بازبینی انسانی قرار گرفته است. در نتیجه می‌تواند دارای برخی اشکالات ترجمه باشد.
مقالات لینک‌شده در این متن می‌توانند به صورت رایگان با استفاده از مقاله‌خوان ترجمیار به فارسی مطالعه شوند.