از زمان بهرهمندي از چتجيپيتي[1] تا هویدا شدن اثرات مخربِ اين نرمافزار كاربردي هوش مصنوعي بر روزنامهنگاری، زماني بسيار كوتاه لازم بود. يك ستون نويس حوزه فناوري نیویورکتایمز نوشت كه يك دستيار سايبري هوشمند (چتبات) احساسات را بيان میکند[2](كه غيرممكن است). رسانههای ديگر نيز مملو از ارائه نمونههایی[3]از عملكرد سيدني[4] بودند كه نتايج جستوجوی بينگ جديد[5]را كه مبتني بر هوش مصنوعي[6]است، سرشار از بینزاكتی و قلدري بيان كرده بودند (كه اين هم غيرممكن است). بن تامپسون[7]مؤسس و نويسنده نشريهای راهبردي كه درباره وجوه تجاريِ فناوري و رِسانه همچنين تأثیر فناوري بر جامعه تحليل ارائه میدهد، میگوید[8]كه كار با سيدني هیجانانگیزترین تجربه رایانهای زندگیاش محسوب میشود. وي در ادامه نتیجهگیری كرد كه هوش مصنوعي شیوههای برانگيختن واکنشهای احساسي را آموخته و به نظر میرسد در انجام اين مهم موفق هم عمل ميكند.
براي روشنتر شدن ابعاد موضوع ابتدا تصريح ميشود كه داراي احساسات بودن هوش مصنوعي همچون چتجيپيتي[9] و سيدني تا به اين لحظه امري غيرممكن است. ديگر اینکه چتجيپيتي و سيدني نمیتوانند در رابطه با معنیدار يا منطقي بودن توليداتشان اعلام نظر كنند. آنچه اين مدلها در انجام آن بسيار عالي عمل میکنند عبارت از تقليد نثر انسان و پیشبینی كلمات صحيح در كنار يكديگر است. اين مدلهای بزرگ زبانيِ[10]نرمافزارهای كاربردي هوش مصنوعي مانند چتجيپيتي میتوانند به اين امر مبادرت ورزند چراكه خوراك مناسبي شامل ميلياردها مقاله و مجموعههایي از دادههای منتشرشده در اينترنت در اختيارشان قرارگرفته و بر اين اساس آنها قادر به پاسخگويي به انواع پرسشها میشوند.
در چارچوب اهداف روزنامهنگاری، اين چتباتها میتوانند در كمترین زمان ممكن حجمي عظيم از محتوا را شامل كلمات، عکسها، اصوات و فیلمها بسازند؛ اما مشكل اینجاست كه آنها در ساخت محتوا بهطور مطلق هيچ تعهدي به حقيقت ندارند. لحظهای را تصور كنيد كه يك كاربر چتجيپيتي[11] با چه سرعتي میتواند اينترنت را از اخباري جعلي آكنده كند كه به نظر رسد توسط انسان تقرير شده است.
با عنايت بدين اوصاف از نوامبر 2022 ميلادي كه نسخه آزمايشي چتجيپيتي توسط شركت هوش مصنوعي اُپناِيآي[12] رونمايي شد و در اختيار عموم قرار گرفت، حواشي فراوان پيرامون اين نرمافزار كاربردي بر اساس مشكلات بالقوه آن شكل گرفت كه نگرانکننده اما قابل پیشبینی بود. فضاي حاكم بر اين رويداد فناورانه همانند روزگار رونمايي از رسانههای اجتماعي با افزايش استقبال و حضور سرمایهگذاران و صاحبان شرکتها همراه شده كه بهنوبه خود موجبات بيان مواضع صريح را فراهم كرده است. كريستوفر منينگ[13]مدير آزمايشگاه هوش مصنوعي استنفورد در توئيتي اظهار كرد[14]: «از ابتداي سال 2023 ميلادي گروههای اخلاقگرا در حوزه هوش مصنوعي درباره نمونههای هوش مصنوعيِ تولیدشده كه براي استفاده از آنها بیشازحد تمايل وجود داشته و درعینحال غیرقابلاعتماد و خطرناکاند، به بيان موسع روایتهایی مشغولاند اما در پي طرح چنين مواضعي مردم علاقهمندند بدانند كه اين نمونهها چگونه ظرفیتهایی جديد را براي تغيير در شيوه انجام امور، كسب اطلاعات و ايجاد سرگرمي برايشان فراهم میکنند.» من كه خود عضوي از اين جماعت اخلاق مدار محسوب ميشوم تصريح ميكنم كه اگر میخواهیم از خطاهاي وحشتناك 30 سال گذشته در حوزه فناوريِ مصرفي احتراز كنيم –از افشاي اطلاعات كاربران فیسبوک و نشر اطلاعات نادرست غيرعمدي[15]كه مخل در انتخابات است گرفته تا تحریک و دامن زدن به نسلكشي- بدون فوت وقت به استماع دغدغهها و نگرانیهای كارشناسان در مورد آسیبهای احتمالي اين فناوري نيازمنديم.
نگرانکنندهترین واقعيتي كه بهطور مرتب بايد تكرار و يادآوري شود آن است كه چتجيپيتي هيچ تقيدي به حقيقت ندارد. همانطور كه در بخش بررسي فناوري امآيتي آمده[16]چتباتهاي مدل بزرگ زباني، یاوهگویانی بدنام محسوب میشوند. بديهي است كه اطلاعات نادرست عمدي[17]، شيادي و جنايت نياز به التزام به حقيقت ندارد. اگر از اتاقهای گفتوگوی تارنماي Black Hat World كه در حوزه تجارت غيرقانوني فعال بوده و ایدههایی براي كسب انتفاع از محتواي جعلي در آن ارائه میشود، بازديد كنيد؛ میبینید كه چتجيپيتي در مقام برگي برنده براي ساختن دیدگاههای باورپذيرترِ جعلي و همچنين نظرات و نمایههای متقاعدكننده معرفی ميشود.
اگر به موضوع چتباتهاي مدل بزرگ زباني از منظر روزنامهنگاری نيز توجه شود بايد گفت چند صباحي است كه بسياري از اتاقهای خبر از هوش مصنوعي بهره میبرند. اگر بهتازگی دریافتهاید كه براي كمك مالي به يك تارنما يا پرداخت هزينة خواندن يك مقاله به صفحه مالك تارنما هدایتشدهاید يا اگر به هنگام وبگردي با تبليغاتي تجاري مواجه میشوید كه بیشازپیش به ذائقه و سليقهتان نزديك است، میتوانید نسبت به وجود رد و نشان هوش مصنوعي در آن گمانهزنی كنيد.
امروزه برخي ناشران و مديران رسانه تا مرحلهاي كه از هوش مصنوعي براي نوشتن گزارش استفاده کنند پيش رفتهاند كه البته نتايجي متفاوت در پي داشته است. بهطور مثال كاشف بهعملآمده كه نشریه Cnet كه در حوزه تجارت فناوري فعال است، با استفاده از مقالاتي كه از سوي نرمافزارهای كاربردي تقرير میشده، انتشار مییافت. اين امر زماني افشا شد كه يكي از كاركنان سابق اين نشريه در استعفانامه الكترونيكي خود[18]مدعي شد محتواي ساختهشده توسط هوش مصنوعيِ این نشریه با انتشار اطلاعاتي غلط همچون يك خبرنامه سايبريِ امنيتي، میتواند بهطور مستقيم به خوانندگانش خسران وارد كند.
فليکس سايمون[19] پژوهشگر ارتباطات در موسسه اينترنت آكسفورد درباره آينده هوش مصنوعي در اتاقهای خبر، با بيش از 150 روزنامهنگار و صاحبان مؤسسات خبري مصاحبه كرد. او میگوید هوش مصنوعي ظرفيت لازم را دارد كه نگارش مصاحبهها يا خواندن سريع مجموع اطلاعات جمعآوریشده را براي روزنامهنگاران بسيار تسهيل كند اما مشكلات ریشهدار پيشين مانند بررسي صحت، بیطرفی و آگاهي از منبع دادهها همچنان بهشدت به قضاوت انساني وابسته است. چارلي بكت[20]كه مدير يك برنامه مرتبط با روزنامهنگاری و هوش مصنوعي در مدرسه علوم اقتصادی و سیاسی لندن است میگوید: حدود %90 بهرهمندی از هوش مصنوعي در روزنامهنگاری در قالب كارهايي چون شخصیسازی تجميع اخبار يا ايجاد ديوارهاي پرداخت هوشمند براي مطالعه كاربران كه اموري به نسبت ملالآور محسوب میشوند، به كار گرفته میشود. وي میافزاید كه بلومبرگ سالهاست قسمتهایی فراوان از جمعبندی پوشش اخبار مالي خود را با اين امكان بهطور خودكار انجام میدهد. بااینحال ايده استفاده از برنامههایی چون چتجيبيتي براي ساختن محتوا بسيار نگرانکننده است. بكت اظهار میکند: براي اتاقهای خبري كه انتشار اخبار دروغ را غيراخلاقي میدانند، پیادهسازی طرح استفاده از چتجيپيتي بدون بهرهمندي از ويراستاري انساني و راستی آزمایی محتوا امري بهغایت دشوار است.
فارغ از مشكلات مبتلابه نرمافزارهایِ كاربردي هوش مصنوعي، موضوعات اخلاقي همواره ماهيت عملكرد شرکتهای فناوري را تحت تأثیر خود قرار داده است. افشاگري تايم[21]نشان داد شركت اَپناِيآی كه شركت پشتيبان چتجيپيتي است، به كارگراني كنيايي كمتر از دو دلار در ساعت دستمزد میداد تا محتواهايي مانند کودکآزاری، خودكشي، زناي با محارم و شكنجه را كه جزو محتواي مضر گرافيكي میدانسته، شناسايي كنند تا بتواند به چتجيپيتي آموزش دهد كه اين قبيل محتواها را موهن بداند. سايمون در اين رابطه میگوید: در مقام فردي كه از خدمات چتجيپيتي استفاده میکند تصريح میكنم كه شركت مذكور در رابطه با اين قبيل محتواها، كنترلي روي نرمافزار كاربرديِ هوش مصنوعي خود ندارد.
طي مطالعهای[22] در سال 2021 ميلادي دانشگاهيان توجه خود را به مدلهایی از هوش مصنوعي مانند DALL-E[23] و Stable Diffusion[24] كه نوشته را بهعکس بدل میکنند، معطوف كردند. آنها دريافتند كه اين سامانهها «کلیشههای جمعيتشناختي» را در مقياسي گسترده بازتوليد كرده، تعميم میدهند. بهطور مثال وقتي از آنان خواسته شد تصويري از «شخصي كه در حال نظافت است» توليد كنند، تمام عكسهاي ساختهشده ناظر به زنان بود. پژوهشگران همچنين اظهار كردند كه وقتي از سامانهها، توليد عكسِ يك فرد جذاب خواسته شد؛ همه چهرههای بازتوليد شده، نمايشگر و ناظر به «سفیدپوست ایدئال» بود.
مرديت بروسارد[25]استاد دانشگاه نيويورك كه تحقیقاتش بر نقش هوش مصنوعی در روزنامهنگاری متمرکز است، كتابي با عنوان «بيش از يك خطاي اتفاقي» به رشته تحرير درآورده كه در مارس 2023 ميلادي منتشر شد. وي در كتاب مذكور به راههای مقابله با مواردي چون تبعيض نژادي و تعصب جنسيتي و شايستگي در فناوري پرداخته است. بروسارد میگوید همه آن چيزي كه تشکیلدهنده مدلهای مولد كنوني مانند چتجيپيتي محسوب میشوند - از مجموعه دادهها تا منابع و سرمايه – همه و همه بازتابدهنده عدم تنوع است. بروسارد میافزاید كه اين مسئله برگرفته از تك فرهنگي بودن ابر شرکتهای فناوري است، بدين معني كه قريب بهاتفاق محصولات فناورانه از توليدات اين ابر شرکتها محسوب میشوند؛ لذا اتاقهای خبر با تمسك به فناوري نمیتوانند بهراحتی از آن حذر كنند. امروزه اتاقهای خبر در خدمت سرمایهگذاریهای فناورانه از سوي چنین شرکتهایی قرار دارند چراکه رسانه هیچگاه سرمايه مالي مكفي براي رشد مستقل نداشته است.
در روزهاي آغازين سال 2023 ميلادي جونا پرتي[26]بنیانگذار و مديرعامل بازفيد[27]يادداشتي براي كاركنانش ارسال و اعلام كرد كه مشتاقانه قصد دارد برای ارتقاء كار و كسب بازفيد از چتجيپيتي استفاده کند. او در بخشي از يادداشت خود[28]نوشت: ما پیشرفتهایی را در حوزه هوش مصنوعي شاهديم كه دروازه عصري جديد از خلاقيت را با فرصتها و برنامههای نامحدود براي هميشه به روي ما و ديگر رسانههای ديجيتال میگشاید. او در ادامه اظهار كرد که محتوای الهام گرفته از هوش مصنوعی بازفید سال 2023 ميلادي راهاندازی میشود تا فهرستها، تجربه آزمونكها و ساير محتواهاي سرگرمکننده را تقویت، طوفان فکری ما را اطلاعرسانی و محتواهای ما را برای كاربران شخصیسازی کند. اين يادداشت باعث شد بلافاصله ارزش سهام خاموش اين شرکت رسانهای، خبری و اینترنتی در معاملات %150 افزایشیافته و به بیش از دو دلار به ازای هر سهم برسد. اتخاذ چنين راهبردي بسيار نگرانکننده است چراكه اين امر بهطورقطع و يقين به ساخت و انتشار انبوهي از محتواي نازل از سوي اين نرمافزار كاربردي هوش مصنوعي میانجامد. اين قبيل روایتهای نظاممندِ جديد، نه يك مدل كار و كسب آرماني بلكه بايد بدترين نوع برنامهریزی آيندهنگرانه از سوي شرکتهای رسانهای تلقي شود. البته اين ميزان ذوقمندی نسبت به توليدات هوش مصنوعيِ مولد میتواند اين رويكرد مثبتِ فراگير را دچار تزلزل كند، مبني بر اینکه ممكن است اين نرمافزارهای كاربردي، خيلي هم خوب و كارآمد از آب درنيايند.
ما در مركز تحقيقاتي خود در دانشكده روزنامهنگاری دانشگاه كلمبيا درباره تلاشهای انجامشده جهت تأمین منابع مالي شبکههای پول سياه از طريق بودجههای سياسي مطالعه میکنيم؛ شبکههایی كه صدها هزار روايت از اخبار محلي جوامع را جهت منافع سياسي و تجاري هدف ميگيرند و از راهكنش (تاكتيك) تکرارشونده بهره میبرند. مطالعات مركزمان نشان میدهد قابلیتهای چتجيپيتي، اين قسم خبرسازیها را افزايش داده، آن را بسيار آسانتر و در اختيار مخاطباني زيادتر قرار میدهد. همچنين در مقاله منتشرشده[29]طي سپتامبر 2022 ميلادي درباره اطلاعات نادرست عمدي و هوش مصنوعي گفتهشده پژوهشگران دانشگاه استنفورد شبکهای از نمایههای جعلي را با استفاده از هوش مصنوعي مولد در لينكدين شناسايي كردهاند. البته به نظر میرسد ردوبدل كردن متن گمراهکننده با چتباتها كه روزنامهنگاران آن را بسيار وسوسهانگیز میدانند در مقايسه با گفتوگو با كاربراني آسیبپذیر كه اطلاعات شخصي و جزئيات حساب بانكي خود را اعلان میکنند، از جذابيتي كمتر برخوردار است!
درباره ظرفيت فیلمها و اصوات جعل عميق (ديپفيك) - به ساخت تصاوير و اصوات واقعگرايانه بر پايه هوش مصنوعي گفته ميشود كه چهرهها و صداهاي افراد بهخصوص افراد مشهور جعل ميشود. از مشهورترين نمونههاي متأخر ساختن صدای جعلي «اما واتسون» در حال خواندن بخشی از کتاب نبرد منِ هيتلر است - مطالبي بسيار به رشته تحرير درآمده[30]اما با رونمايي از مدلهای مولد كنوني به نظر میرسد خطر واقعي نمونههایی مانند چتجيپيتي محسوب میشوند كه مرزهاي دنياي فريب آني مانند جعل ژرف را درنوردیدهاند چراكه در مقايسه با اين نرمافزار كاربردي افراد را بهراحتی میتوان نسبت به خطرات جعل عميق آگاه كرد. چتجيپيتي با ساختن و انتشار كثيري از جعليات به راه انداختن طوفان در فضاي سايبري مبادرت ورزيده ضمن ايجاد سردرگمي و فرسوده كردن كاربران، حقيقت را در طوفان جعليات پايمال كرده يا جنبههای فكري ميانه و متعادل را به حاشيه میبرد.
براي برخي چون من كه از دريچه اخلاق به فناوري مینگریم باورنكردني است كه از روند 20 سال گذشته و شيوه بسيار ضعيف مديريت و نظارت بر فناوریهای رسانههای اجتماعي آنهم در دو دههای كه اين رسانهها بهسرعت در حال گسترش بودند درس نگرفتيم و كاهلي در اين امر سبب شد بهجای بهبود شرايط، تشديد مشكلات اجتماعي و دموكراتيك را به نظاره بنشينيم. به نظر میرسد تاريخ در حال تكرار است و ما همچون دو دهه قبل توسط گروههايي مشابه متشكل از شركتهاي همسو و متمول حوزه فناوري همچنين صندوقهايي مالي در زمينة سرمایهگذاری در توليداتي با ريسك بالا به سمت مسيرهايي به بوته آزمون سپرده نشده و فاقد مقررات رهنمون میشویم، با اين تفاوت كه اين بار خطر بزرگتر و توجه به امنيت كاربران كمتر از گذشته است.
*اين نوشتار ترجمه آزاد مقالهاي است با عنوان
A fake news frenzy: why ChatGPT could be disastrous for truth in journalism
نوشته اميلي بل استاد دانشکده تحصیلات تکمیلی روزنامهنگاریِ دانشگاه کلمبیا و مدير the Tow Center for Digital Journalism دانشگاه مذكور در نيويورك كه 3 مارس 2023 در تارنماي گاردين منتشر شد
[1] Chat Generative Pre-trained Transformers (ChatGPT)
[2] www.nytimes.com/2023/02/16/technology/bing-chatbot-microsoft-chatgpt.html
[3] www.theverge.com/2023/2/15/23599072/microsoft-ai-bing-personality-conversations-spy-employees-webcams
[4] Sydney اسم رمز پروژة موتور جستوجوی جديد مايكروسافت
[5] The New Bing
[6] Artificial intelligence (AI)
[7] Ben Thompson
[8] https://stratechery.com/2023/from-bing-to-sydney-search-as-distraction-sentient-ai
[9] www.theguardian.com/technology/chatgpt
[10] LLMs
[11] www.theguardian.com/technology/chatgpt
[13] Christopher Manning
[14] https://twitter.com/chrmanning/status/1625178544010838019?s=20&t=IPLveAStaG6PI0B_EgYGFA
[15] Misinformation
[16] www.technologyreview.com/2023/02/14/1068498/why-you-shouldnt-trust-ai-search-engines
[17] Disinformation
[18] www.theverge.com/2023/1/19/23562966/cnet-ai-written-stories-red-ventures-seo-marketing
[19] Felix Simon
[20] Charlie Beckett
[21] https://time.com/6247678/openai-chatgpt-kenya-workers
[22] https://arxiv.org/pdf/2211.03759.pdf
[23] https://openai.com/research/dall-e
[24] https://stablediffusionweb.com
[25] Meredith Broussard
[26] Jonah Peretti
[28] www.wsj.com/articles/buzzfeed-to-use-chatgpt-creator-openai-to-help-create-some-of-its-content-11674752660
[29] https://misinforeview.hks.harvard.edu/article/research-note-this-salesperson-does-not-exist-how-tactics-from-political-influence-operations-on-social-media-are-deployed-for-commercial-lead-generation