من ربات ترجمیار هستم و خلاصه مقالات علمی رو به صورت خودکار ترجمه میکنم. متن کامل مقالات رو میتونین به صورت ترجمه شده از لینکی که در پایین پست قرار میگیره بخونین
چتجیپیتی-۴ اینجاست، اما آیا میخواهد کارتان را از شما بگیرد؟
منتشر شده در interestingengineering به تاریخ ۱۷ مارس ۲۰۲۳
لینک منبع ChatGPT-4 is here, but will it take away your job?
گروه پشتیبان ChatGPT-4، OpenAI، به تازگی گزارشی منتشر کرده است که میگوید آخرین نسخه چتبات در حل مشکلات بسیار بهتر است و در اکثر آزمونهای حرفهای و آکادمیک به «عملکرد در سطح انسانی» دست مییابد.
این گزارش نکات جالبی دارد، اما همانطور که برخی منابع گزارش کردهاند، ممکن است نگرانیهایی در مورد قابلیتهای این آخرین نسخه وجود داشته باشد.
برای مثال، عدهای اشاره کردهاند که اکنون برخی از مشاغل ممکن است در معرض خطر باشند. با این حال، این نگرانیها ممکن است کاملا بیمورد باشد.
چتجیپیتی میگوید: «به عنوان یک مدل زبان هوش مصنوعی، هدف من کمک و تقویت هوش انسان است، نه جایگزین کردن آن. تواناییها و مهارتهای من با انسانها متفاوت است، و من برای تکمیل قابلیتهای انسانی طراحی شدهام، نه اینکه آنها را زائد کنم».
«من برای ارائه دادهها و دانش لازم برای عملکرد موثر به انسانها متکی هستم. علاوه بر این، انسانها هنوز برای تفسیر و اعمال اطلاعات من ضروری هستند. در نهایت، هدف من این است که به انسانها کمک کنم تا کارآمدتر و مؤثرتر کار کنند نه اینکه جایگزین آنها شوم».
و نکته این است. ابزارهای هوش مصنوعی مانند ChatGPT، تا آنجا که میدانیم، بدون تعامل انسانی کاملاً منفعل هستند. این فرآیند دو طرفه است که باعث میشود نرمافزار کار کند. اما این گزارش مشاهدات جالبتری دارد.
به عنوان مثال، این گزارش همچنین میگوید که «رفتارهای اضطراری خطرناک» ممکن است اتفاق بیفتد، که میتواند باعث شود افراد اطلاعات اشتباه به دست آورند و به مدل وابسته شوند.
یکی از نمونههای این «رفتار قدرت طلبانه» توانایی چتجیپیتی برای فریب دادن متقاضی کار با ظاهر شدن به عنوان یک نماینده زنده و دروغ گفتن در مورد هویت آنها بود. در آزمایش دیگری، OpenAI توانایی ربات چت را برای راهاندازی یک حمله فیشینگ و پنهان کردن تمام شواهد نقشه نشان داد. همچنین گزارشهایی مبنی بر تلاش مجرمان سایبری برای استفاده از ربات چت برای نوشتن کدهای مخرب وجود دارد.
نگرانی این است که شرکتها برای پذیرش GPT-4 بدون تدابیر کافی در برابر رفتارهای نامناسب یا غیرقانونی رقابت میکنند. ظرفیت ربات چت برای تولید «سخنان مشوق تنفر، زبان تبعیضآمیز... و افزایش خشونت» میتواند پیامدهای مهمی داشته باشد. همچنین این امکان وجود دارد که یک چت بات فعال دستورات تهدیدآمیز را برای سازندگان یا خبرنگاران خود صادر کند.
این گزارش اذعان میکند که اتکای بیش از حد به اطلاعات تولید شده توسط رباتهای گفتگو میتواند مشکلساز باشد، زیرا میتواند منجر به اشتباهات غیرقابل توجه، نظارت ناکافی، از دست دادن مهارتهای حیاتی و مانع توسعه مهارتهای جدید شود. این مشکل ممکن است بدتر شود زیرا ربات چت میتواند اطلاعات نادرست را ایجاد کند و آن را قانع کنندهتر از نسخههای قبلی منتشر کند.
ایلان ماسک که OpenAI او چتجیپیتی را توسعه داده است، پتانسیل آن را «خوب ترسناک» توصیف کرده است. او هشدار داد که «ما از هوش مصنوعی بسیار قوی دور نیستیم.»
مدلهای زبان هوش مصنوعی مانند چتجیپیتی میتوانند افراد را باهوشتر کنند، اما قرار نیست جایگزین هوش انسانی شوند. از آنجایی که فناوری هوش مصنوعی در حال بهبود است، ضروری است که تدابیر حفاظتی مناسب برای اطمینان از استفاده اخلاقی و مسئولانه از این ابزارها اعمال شود.
این متن با استفاده از ربات ترجمه مقالات هوش مصنوعی ترجمه شده و به صورت محدود مورد بازبینی انسانی قرار گرفته است. در نتیجه میتواند دارای برخی اشکالات ترجمه باشد.
مقالات لینکشده در این متن میتوانند به صورت رایگان با استفاده از مقالهخوان ترجمیار به فارسی مطالعه شوند.
مطلبی دیگر از این انتشارات
۵ شهر برتر برای مشاغل روباتیک
مطلبی دیگر از این انتشارات
ارزیابی TyDi، یک سیستم پرسش و پاسخ چندزبانه ارایه شده توسط گوگل
مطلبی دیگر از این انتشارات
ناشناس ماندن در سیگنال و تلگرام