فلسفي
فلسفي
خواندن ۱۱ دقیقه·۲ سال پیش

ChatGPT و عنان‌گسيختگی اخبار جعلي

چرا اين نرم‌افزار كاربردي هوش مصنوعي براي حقيقت در روزنامه‌نگاری فاجعه‌ محسوب مي‌شود؟
چرا اين نرم‌افزار كاربردي هوش مصنوعي براي حقيقت در روزنامه‌نگاری فاجعه‌ محسوب مي‌شود؟

از زمان بهره‌مندي از چت‌جي‌پي‌تي[1] تا هویدا شدن اثرات مخربِ اين نرم‌افزار كاربردي هوش مصنوعي بر روزنامه‌نگاری، زماني بسيار كوتاه لازم بود. يك ستون نويس حوزه فناوري نیویورک‌تایمز نوشت كه يك دستيار سايبري هوشمند (چت‌بات) احساسات را بيان می‌کند[2](كه غيرممكن است). رسانه‌های ديگر نيز مملو از ارائه نمونه‌هایی[3]از عملكرد سيدني[4] بودند كه نتايج جست‌وجوی بينگ جديد[5]را كه مبتني بر هوش مصنوعي[6]است، سرشار از بی‌نزاكتی و قلدري بيان كرده بودند (كه اين هم غيرممكن است). بن تامپسون[7]مؤسس و نويسنده نشريه‌ای راهبردي كه درباره وجوه تجاريِ فناوري و رِسانه همچنين تأثیر فناوري بر جامعه تحليل ارائه می‌دهد، می‌گوید[8]كه كار با سيدني هیجان‌انگیزترین تجربه رایانه‌ای زندگی‌اش محسوب می‌شود. وي در ادامه نتیجه‌گیری كرد كه هوش مصنوعي شیوه‌های برانگيختن واکنش‌های احساسي را آموخته و به نظر می‌رسد در انجام اين مهم موفق هم عمل مي‌كند.

سكويي كه تقريرات انساني را غیر متعهدانه و مقلدانه بازآفريني می‌کند، عطیه‌ای به تبهكاران ديجيتالي است كه از اطلاعات نادرست عمدي منتفع می‌شوند. اكنون زمان آن است كه حدودوثغورِ بهره‌مندی از اين امكان مشخص شود
سكويي كه تقريرات انساني را غیر متعهدانه و مقلدانه بازآفريني می‌کند، عطیه‌ای به تبهكاران ديجيتالي است كه از اطلاعات نادرست عمدي منتفع می‌شوند. اكنون زمان آن است كه حدودوثغورِ بهره‌مندی از اين امكان مشخص شود

براي روشن‌تر شدن ابعاد موضوع ابتدا تصريح مي‌شود كه داراي احساسات بودن هوش مصنوعي همچون چت‌جي‌پي‌تي[9] و سيدني تا به اين لحظه امري غيرممكن است. ديگر این‌که چت‌جي‌پي‌تي و سيدني نمی‌توانند در رابطه با معنی‌دار يا منطقي بودن توليداتشان اعلام نظر كنند. آنچه اين مدل‌ها در انجام آن بسيار عالي عمل می‌کنند عبارت از تقليد نثر انسان و پیش‌بینی كلمات صحيح در كنار يكديگر است. اين مدل‌های بزرگ زبانيِ[10]نرم‌افزارهای كاربردي هوش مصنوعي مانند چت‌جي‌پي‌تي می‌توانند به اين امر مبادرت ورزند چراكه خوراك مناسبي شامل ميلياردها مقاله و مجموعه‌هایي از داده‌های منتشرشده در اينترنت در اختيارشان قرارگرفته و بر اين اساس آن‌ها قادر به پاسخگويي به انواع پرسش‌ها می‌شوند.

در چارچوب اهداف روزنامه‌نگاری، اين چت‌بات‌ها می‌توانند در كم‌ترین زمان ممكن حجمي عظيم از محتوا را شامل كلمات، عکس‌ها، اصوات و فیلم‌ها بسازند؛ اما مشكل اینجاست كه آن‌ها در ساخت محتوا به‌طور مطلق هيچ تعهدي به حقيقت ندارند. لحظه‌ای را تصور كنيد كه يك كاربر چت‌جي‌پي‌تي[11] با چه سرعتي می‌تواند اينترنت را از اخباري جعلي آكنده كند كه به نظر ‌رسد توسط انسان تقرير شده است.

با عنايت بدين اوصاف از نوامبر 2022 ميلادي كه نسخه آزمايشي چت‌جي‌پي‌تي توسط شركت هوش مصنوعي اُپن‌اِي‌آي[12] رونمايي شد و در اختيار عموم قرار گرفت، حواشي فراوان پيرامون اين نرم‌افزار كاربردي بر اساس مشكلات بالقوه آن شكل گرفت كه نگران‌کننده اما قابل پیش‌بینی بود. فضاي حاكم بر اين رويداد فناورانه همانند روزگار رونمايي از رسانه‌های اجتماعي با افزايش استقبال و حضور سرمایه‌گذاران و صاحبان شرکت‌ها همراه شده كه به‌نوبه خود موجبات بيان مواضع صريح را فراهم كرده است. كريستوفر منينگ[13]مدير آزمايشگاه هوش مصنوعي استنفورد در توئيتي اظهار كرد[14]: «از ابتداي سال 2023 ميلادي گروه‌های اخلاق‌گرا در حوزه هوش مصنوعي درباره نمونه‌های هوش مصنوعيِ تولیدشده كه براي استفاده از آن‌ها بیش‌ازحد تمايل وجود داشته و درعین‌حال غیرقابل‌اعتماد و خطرناک‌اند، به بيان موسع روایت‌هایی مشغول‌اند اما در پي طرح چنين مواضعي مردم علاقه‌مندند بدانند كه اين نمونه‌ها چگونه ظرفیت‌هایی جديد را براي تغيير در شيوه انجام امور، كسب اطلاعات و ايجاد سرگرمي برايشان فراهم می‌کنند.» من كه خود عضوي از اين جماعت اخلاق مدار محسوب مي‌شوم تصريح مي‌كنم كه اگر می‌خواهیم از خطاهاي وحشتناك 30 سال گذشته در حوزه فناوريِ مصرفي احتراز كنيم –از افشاي اطلاعات كاربران فیس‌بوک و نشر اطلاعات نادرست غيرعمدي[15]كه مخل در انتخابات است گرفته تا تحریک و دامن زدن به نسل‌كشي- بدون فوت وقت به استماع دغدغه‌ها و نگرانی‌های كارشناسان در مورد آسیب‌های احتمالي اين فناوري نيازمنديم.

نگران‌کننده‌ترین واقعيتي كه به‌طور مرتب بايد تكرار و يادآوري شود آن است كه چت‌جي‌پي‌تي هيچ تقيدي به حقيقت ندارد. همان‌طور كه در بخش بررسي فناوري ام‌آي‌تي آمده[16]چت‌بات‌هاي مدل بزرگ زباني، یاوه‌گویانی بدنام محسوب می‌شوند. بديهي است كه اطلاعات نادرست عمدي[17]، شيادي و جنايت نياز به التزام به حقيقت ندارد. اگر از اتاق‌های گفت‌وگوی تارنماي Black Hat World كه در حوزه تجارت غيرقانوني فعال بوده و ایده‌هایی براي كسب انتفاع از محتواي جعلي در آن ارائه می‌شود، بازديد كنيد؛ می‌بینید كه چت‌جي‌پي‌تي در مقام برگي برنده براي ساختن دیدگاه‌های باورپذيرترِ جعلي و همچنين نظرات و نمایه‌های متقاعدكننده معرفی مي‌شود.

اگر به موضوع چت‌بات‌هاي مدل بزرگ زباني از منظر روزنامه‌نگاری نيز توجه شود بايد گفت چند صباحي است كه بسياري از اتاق‌های خبر از هوش مصنوعي بهره می‌برند. اگر به‌تازگی دریافته‌اید كه براي كمك مالي به يك تارنما يا پرداخت هزينة خواندن يك مقاله به صفحه مالك تارنما هدایت‌شده‌اید يا اگر به هنگام وبگردي با تبليغاتي تجاري مواجه می‌شوید كه بیش‌ازپیش به ذائقه و سليقه‌تان نزديك است، می‌توانید نسبت به وجود رد و نشان هوش مصنوعي در آن گمانه‌زنی كنيد.

امروزه برخي ناشران و مديران رسانه تا مرحله‌اي كه از هوش مصنوعي براي نوشتن گزارش استفاده ‌کنند پيش رفته‌اند كه البته نتايجي متفاوت در پي داشته است. به‌طور مثال كاشف به‌عمل‌آمده كه نشریه Cnet كه در حوزه تجارت فناوري فعال است، با استفاده از مقالاتي كه از سوي نرم‌افزارهای كاربردي تقرير می‌شده، انتشار می‌یافت. اين امر زماني افشا شد كه يكي از كاركنان سابق اين نشريه در استعفانامه الكترونيكي خود[18]مدعي شد محتواي ساخته‌شده توسط هوش مصنوعيِ این نشریه‌ با انتشار اطلاعاتي غلط همچون يك خبرنامه سايبريِ امنيتي، می‌تواند به‌طور مستقيم به خوانندگانش خسران وارد كند.

فليکس سايمون[19] پژوهشگر ارتباطات در موسسه اينترنت آكسفورد درباره آينده هوش مصنوعي در اتاق‌های خبر، با بيش از 150 روزنامه‌نگار و صاحبان مؤسسات خبري مصاحبه كرد. او می‌گوید هوش مصنوعي ظرفيت لازم را دارد كه نگارش مصاحبه‌ها يا خواندن سريع مجموع اطلاعات جمع‌آوری‌شده را براي روزنامه‌نگاران بسيار تسهيل كند اما مشكلات ریشه‌دار پيشين مانند بررسي صحت، بی‌طرفی و آگاهي از منبع داده‌ها همچنان به‌شدت به قضاوت انساني وابسته است. چارلي بكت[20]كه مدير يك برنامه مرتبط با روزنامه‌نگاری و هوش مصنوعي در مدرسه علوم اقتصادی و سیاسی لندن است می‌گوید: حدود %90 بهره‌مندی از هوش مصنوعي در روزنامه‌نگاری در قالب كارهايي چون شخصی‌سازی تجميع اخبار يا ايجاد ديوارهاي پرداخت هوشمند براي مطالعه كاربران كه اموري به نسبت ملال‌آور محسوب می‌شوند، به كار گرفته می‌شود. وي می‌افزاید كه بلومبرگ سال‌هاست قسمت‌هایی فراوان از جمع‌بندی پوشش اخبار مالي خود را با اين امكان به‌طور خودكار انجام می‌دهد. بااین‌حال ايده استفاده از برنامه‌هایی چون چت‌جي‌بي‌تي براي ساختن محتوا بسيار نگران‌کننده است. بكت اظهار می‌کند: براي اتاق‌های خبري كه انتشار اخبار دروغ را غيراخلاقي می‌دانند، پیاده‌سازی طرح استفاده از چت‌جي‌پي‌تي بدون بهره‌مندي از ويراستاري انساني و راستی آزمایی محتوا امري به‌غایت دشوار است.

فارغ از مشكلات مبتلابه نرم‌افزارهایِ كاربردي هوش مصنوعي، موضوعات اخلاقي همواره ماهيت عملكرد شرکت‌های فناوري را تحت تأثیر خود قرار داده است. افشاگري تايم[21]نشان داد شركت اَپن‌اِي‌آی كه شركت پشتيبان چت‌جي‌پي‌تي است، به كارگراني كنيايي كمتر از دو دلار در ساعت دستمزد می‌داد تا محتواهايي مانند کودک‌آزاری، خودكشي، زناي با محارم و شكنجه را كه جزو محتواي مضر گرافيكي می‌دانسته، شناسايي كنند تا بتواند به چت‌جي‌پي‌تي آموزش دهد كه اين قبيل محتواها را موهن بداند. سايمون در اين رابطه می‌گوید: در مقام فردي كه از خدمات چت‌جي‌پي‌تي استفاده می‌کند تصريح می‌كنم كه شركت مذكور در رابطه با اين قبيل محتواها، كنترلي روي نرم‌افزار كاربرديِ هوش مصنوعي خود ندارد.

طي مطالعه‌ای[22] در سال 2021 ميلادي دانشگاهيان توجه خود را به مدل‌هایی از هوش مصنوعي مانند DALL-E[23] و Stable Diffusion[24] كه نوشته را به‌عکس بدل می‌کنند، معطوف كردند. آن‌ها دريافتند كه اين سامانه‌ها «کلیشه‌های جمعيت‌شناختي» را در مقياسي گسترده بازتوليد كرده، تعميم می‌دهند. به‌طور مثال وقتي از آنان خواسته شد تصويري از «شخصي كه در حال نظافت است» توليد كنند، تمام عكس‌هاي ساخته‌شده ناظر به زنان بود. پژوهشگران همچنين اظهار كردند كه وقتي از سامانه‌ها، توليد عكسِ يك فرد جذاب خواسته شد؛ همه چهره‌های بازتوليد شده، نمايشگر و ناظر به «سفیدپوست ایدئال» بود.

مرديت بروسارد[25]استاد دانشگاه نيويورك كه تحقیقاتش بر نقش هوش مصنوعی در روزنامه‌نگاری متمرکز است، كتابي با عنوان «بيش از يك خطاي اتفاقي» به رشته تحرير درآورده كه در مارس 2023 ميلادي منتشر شد. وي در كتاب مذكور به راه‌های مقابله با مواردي چون تبعيض نژادي و تعصب جنسيتي و شايستگي در فناوري پرداخته است. بروسارد می‌گوید همه آن چيزي كه تشکیل‌دهنده مدل‌های مولد كنوني مانند چت‌جي‌پي‌تي محسوب می‌شوند - از مجموعه داده‌ها تا منابع و سرمايه – همه و همه بازتاب‌دهنده عدم تنوع است. بروسارد می‌افزاید كه اين مسئله برگرفته از تك فرهنگي بودن ابر شرکت‌های فناوري است، بدين معني كه قريب به‌اتفاق محصولات فناورانه از توليدات اين ابر شرکت‌ها محسوب می‌شوند؛ لذا اتاق‌های خبر با تمسك به فناوري نمی‌توانند به‌راحتی از آن حذر كنند. امروزه اتاق‌های خبر در خدمت سرمایه‌گذاری‌های فناورانه از سوي ‌چنین شرکت‌هایی قرار دارند چراکه رسانه هیچ‌گاه سرمايه مالي مكفي براي رشد مستقل نداشته است.

در روزهاي آغازين سال 2023 ميلادي جونا پرتي[26]بنیان‌گذار و مديرعامل بازفيد[27]يادداشتي براي كاركنانش ارسال و اعلام كرد كه مشتاقانه قصد دارد برای ارتقاء كار و كسب بازفيد از چت‌جي‌پي‌تي استفاده کند. او در بخشي از يادداشت خود[28]نوشت: ما پیشرفت‌هایی را در حوزه هوش مصنوعي شاهديم كه دروازه عصري جديد از خلاقيت را با فرصت‌ها و برنامه‌های نامحدود براي هميشه به روي ما و ديگر رسانه‌های ديجيتال می‌گشاید. او در ادامه ‌اظهار كرد که محتوای الهام گرفته از هوش مصنوعی بازفید سال 2023 ميلادي راه‌اندازی می‌شود تا فهرست‌ها، تجربه آزمونك‌ها و ساير محتواهاي سرگرم‌کننده را تقویت، طوفان فکری ما را اطلاع‌رسانی و محتواهای ما را برای كاربران شخصی‌سازی ‌کند. اين يادداشت باعث شد بلافاصله ارزش سهام خاموش اين شرکت رسانه‌ای، خبری و اینترنتی در معاملات %150 افزایش‌یافته و به بیش از دو دلار به ازای هر سهم برسد. اتخاذ چنين راهبردي بسيار نگران‌کننده است چراكه اين امر به‌طورقطع و يقين به ساخت و انتشار انبوهي از محتواي نازل از سوي اين نرم‌افزار كاربردي هوش مصنوعي می‌انجامد. اين قبيل روایت‌های نظام‌مندِ جديد، نه يك مدل كار و كسب آرماني بلكه بايد بدترين نوع برنامه‌ریزی آينده‌نگرانه از سوي شرکت‌های رسانه‌ای تلقي شود. البته اين ميزان ذوق‌مندی نسبت به توليدات هوش مصنوعيِ مولد می‌تواند اين رويكرد مثبتِ فراگير را دچار تزلزل كند، مبني بر این‌که ممكن است اين نرم‌افزارهای كاربردي، خيلي هم خوب و كارآمد از آب درنيايند.

ما در مركز تحقيقاتي خود در دانشكده روزنامه‌نگاری دانشگاه كلمبيا درباره تلاش‌های انجام‌شده جهت تأمین منابع مالي شبکه‌های پول سياه از طريق بودجه‌های سياسي مطالعه می‌کنيم؛ شبکه‌هایی كه صدها هزار روايت از اخبار محلي جوامع را جهت منافع سياسي و تجاري هدف مي‌گيرند و از راهكنش (تاكتيك) تکرارشونده بهره می‌برند. مطالعات مركزمان نشان می‌دهد قابلیت‌های چت‌جي‌پي‌تي، اين قسم خبرسازی‌ها را افزايش داده، آن را بسيار آسان‌تر و در اختيار مخاطباني زيادتر قرار می‌دهد. همچنين در مقاله منتشرشده[29]طي سپتامبر 2022 ميلادي درباره اطلاعات نادرست عمدي و هوش مصنوعي گفته‌شده پژوهشگران دانشگاه استنفورد شبکه‌ای از نمایه‌های جعلي را با استفاده از هوش مصنوعي مولد در لينكدين شناسايي كرده‌اند. البته به نظر می‌رسد ردوبدل كردن متن گمراه‌کننده‌ با چت‌بات‌ها كه روزنامه‌نگاران آن را بسيار وسوسه‌انگیز می‌دانند در مقايسه با گفت‌وگو با كاربراني آسیب‌پذیر كه اطلاعات شخصي و جزئيات حساب بانكي خود را اعلان می‌کنند، از جذابيتي كمتر برخوردار است!

درباره ظرفيت فیلم‌ها و اصوات جعل عميق (ديپ‌فيك) - به ساخت تصاوير و اصوات واقع‌گرايانه بر پايه هوش مصنوعي گفته مي‌شود كه چهره‌ها و صداهاي افراد به‌خصوص افراد مشهور جعل مي‌شود. از مشهورترين نمونه‌هاي متأخر ساختن صدای جعلي «اما واتسون» در حال خواندن بخشی از کتاب نبرد منِ هيتلر است - مطالبي بسيار به رشته تحرير درآمده[30]اما با رونمايي از مدل‌های مولد كنوني به نظر می‌رسد خطر واقعي نمونه‌هایی مانند چت‌جي‌پي‌تي محسوب می‌شوند كه مرزهاي دنياي فريب آني مانند جعل ژرف را درنوردیده‌اند چراكه در مقايسه با اين نرم‌افزار كاربردي افراد را به‌راحتی می‌توان نسبت به خطرات جعل عميق آگاه كرد. چت‌جي‌پي‌تي با ساختن و انتشار كثيري از جعليات به راه انداختن طوفان در فضاي سايبري مبادرت ورزيده ضمن ايجاد سردرگمي و فرسوده كردن كاربران، حقيقت را در طوفان جعليات پايمال كرده يا جنبه‌های فكري ميانه و متعادل را به حاشيه می‌برد.

براي برخي چون من كه از دريچه اخلاق به فناوري می‌نگریم باورنكردني است كه از روند 20 سال گذشته و شيوه بسيار ضعيف مديريت و نظارت بر فناوری‌های رسانه‌های اجتماعي آن‌هم در دو دهه‌ای كه اين رسانه‌ها به‌سرعت در حال گسترش بودند درس نگرفتيم و كاهلي در اين امر سبب شد به‌جای بهبود شرايط، تشديد مشكلات اجتماعي و دموكراتيك را به نظاره بنشينيم. به نظر می‌رسد تاريخ در حال تكرار است و ما همچون دو دهه قبل توسط گروه‌هايي مشابه متشكل از شركت‌هاي همسو و متمول حوزه فناوري همچنين صندوق‌هايي مالي در زمينة سرمایه‌گذاری در توليداتي با ريسك بالا به سمت مسيرهايي به بوته آزمون سپرده نشده و فاقد مقررات رهنمون می‌شویم، با اين تفاوت كه اين بار خطر بزرگ‌تر و توجه به امنيت كاربران كمتر از گذشته است.

*اين نوشتار ترجمه آزاد مقاله‌اي است با عنوان

A fake news frenzy: why ChatGPT could be disastrous for truth in journalism

نوشته اميلي بل استاد دانشکده تحصیلات تکمیلی روزنامه‌نگاریِ دانشگاه کلمبیا و مدير the Tow Center for Digital Journalism دانشگاه مذكور در نيويورك كه 3 مارس 2023 در تارنماي گاردين منتشر شد

[1] Chat Generative Pre-trained Transformers (ChatGPT)

[2] www.nytimes.com/2023/02/16/technology/bing-chatbot-microsoft-chatgpt.html

[3] www.theverge.com/2023/2/15/23599072/microsoft-ai-bing-personality-conversations-spy-employees-webcams

[4] Sydney اسم رمز پروژة موتور جست‌وجوی جديد مايكروسافت

[5] The New Bing

[6] Artificial intelligence (AI)

[7] Ben Thompson

[8] https://stratechery.com/2023/from-bing-to-sydney-search-as-distraction-sentient-ai

[9] www.theguardian.com/technology/chatgpt

[10] LLMs

[11] www.theguardian.com/technology/chatgpt

[12] https://openai.com

[13] Christopher Manning

[14] https://twitter.com/chrmanning/status/1625178544010838019?s=20&t=IPLveAStaG6PI0B_EgYGFA

[15] Misinformation

[16] www.technologyreview.com/2023/02/14/1068498/why-you-shouldnt-trust-ai-search-engines

[17] Disinformation

[18] www.theverge.com/2023/1/19/23562966/cnet-ai-written-stories-red-ventures-seo-marketing

[19] Felix Simon

[20] Charlie Beckett

[21] https://time.com/6247678/openai-chatgpt-kenya-workers

[22] https://arxiv.org/pdf/2211.03759.pdf

[23] https://openai.com/research/dall-e

[24] https://stablediffusionweb.com

[25] Meredith Broussard

[26] Jonah Peretti

[27] www.buzzfeed.com

[28] www.wsj.com/articles/buzzfeed-to-use-chatgpt-creator-openai-to-help-create-some-of-its-content-11674752660

[29] https://misinforeview.hks.harvard.edu/article/research-note-this-salesperson-does-not-exist-how-tactics-from-political-influence-operations-on-social-media-are-deployed-for-commercial-lead-generation

[30] https://vrgl.ir/ZJIDI

هوش مصنوعیاخبار جعلیchatgptچت جي پي تيفيك نيوز
پژوهشگر
شاید از این پست‌ها خوشتان بیاید