فلسفي
فلسفي
خواندن ۱۵ دقیقه·۳ سال پیش

اخبار جعلي در متاورس، حكايت همچنان باقي است

اداره جهان‌هاي سايبري دشوارتر از رسانه‌های اجتماعی خواهد بود
اداره جهان‌هاي سايبري دشوارتر از رسانه‌های اجتماعی خواهد بود

سازندگان نوآفرين (استارت‌آپ) در شركت سنسوريوم[۱] محیطی مملو از سرگرمی را در نسخه‌ متاورس[۲] خود تصوير کرده‌اند که در آن شما می‌توانيد در یک تور سايبریِ بازديد از دنیایي متروک در زیر دریا شركت كنيد، در کنسرتی زنده كه توسط ژان میشل ژار[۳] برگزار می‌شود، حضور به هم رسانيد یا با بات‌ها چت کنيد و با بر تن داشتن پوششي خاص از نوشيدن با دوستانتان لذت ببريد.

اما هنگام رونمايي از اين جهان سايبري طي اجلاس فناوريِ سال ۲۰۲۱ در ليسبون، اتفاقي عجيب‌تر از مجموع عجايب قابل‌مشاهده در اين رويداد فناورانه توجهات را به خود معطوف كرد. درحالی‌که شرکت‌کنندگان در اين اجلاس به چت كردن با شخصيت‌هاي سايبري مشغول بودند، برخي حاضران با باتي به نام «ديويد» كه ويژگي متمايزكننده‌اش سر بدون موي‌ او بود، آشنا شدند؛ كه وقتي نظرش را درباره واكسيناسيون پرسيدند، ديويد به انتشار اطلاعات نادرست غیرعمدی[۴] مبادرت كرد و مدعي شد كه گاه واکسن‌ها زيان‌بارتر از بيماري‌هايي محسوب مي‌شوند كه سعي در پيشگيري از آن دارند.

پس از طرح اين اظهارات شرم‌آور از سوي ديويد، درعین‌حال كه توسعه‌دهندگان اين مصنوع در سنسوريوم اظهار كردند فيلترهايي را جهت ايجاد محدوديت در گفته‌هاي وي درباره موضوعات حساسيت برانگيز در نظر مي‌گيرند، اين رخداد نشان داد كه چگونه در متاورس افراد به سهولت مي‌توانند در معرض محتواهاي توهین‌آمیز و گمراه‌کننده قرار بگيرند و امكان مديريت اين محتواها تا چه ميزان است.

در حال حاضر شركت‌هايي مانند مايكروسافت، اپل و متا براي ساخت فراجهان رقابت مي‌كنند؛ جهان ديجيتالي سه‌بعدي كه بسياري معتقدند اين امكان فناورانه بر بخشي از ارتباطات بين فرديِ حضوري، سايه مي‌افكند. اين فناوري در مراحل ابتدايي شكل‌گيري قرار دارد اما ناظران حوزه نوآوري هشدار مي‌دهند كه چالش‌هاي به ستوه آورنده مربوط به حوزه محتوا كه در رسانه‌هاي اجتماعي تعدیل‌شده‌اند، در اين جهان‌هاي جديد كه بر واقعيت مجازي و افزوده مبتني است، شكلي شديد‌تر به خود مي‌گيرد.

پيشينه نااميدكننده شرکت‌های فناوري در زمينه سیاست‌گزاری جهت مديريتِ محتواهاي تفرقه‌انگیز در ماه‌های اخير پس از انتشار هزاران صفحه از اسناد داخلي متا كه توسط فرانسيس هاوگن[۵] مدير سابق محصولات فيس‌بوك افشا شد، موردتوجه و بررسي مجدد تنظیم‌کننده‌های مقررات و ارتباطات راديويي آمریکایی قرار گرفت. اسنادي كه توسط هاوگن در اختيار كنگره قرار گرفت و توسط کنسرسیومی از سازمان‌های خبری از جمله واشنگتن‌پست با همكاري ده‌ها کارمند فعلی و سابق فیس‌بوک كه با آنان مصاحبه شد، مورد بررسي واقع گرديد[۶] و جزئياتي جديد از نحوه انتشار اطلاعات زیان‌بار از جمله توهم توطئه[۷] همچنين برجسته كردن ادبيات نفرت آفرين و خشونت‌بار توسط الگوريتم‌هاي فيس‌بوك را عيان كرد كه به انتشار ده‌ها گزارش انتقادي در اين رابطه از سوي وال‌استریت ژورنال، پُست و رسانه‌هاي خبري انجاميد. بالطبع اين گزارش‌ها حاوي پرسش‌هایی از اين دست بود كه متا و ديگر غول‌هاي رسانه‌اي چگونه بر اركان مولد محتواهاي تفرقه‌انگیز و گمراه‌کننده در جهان سایبری‌ای كه به سرعت در حال رشد است نظارت می‌کنند.

الكس كادير[۸] مديرعامل شركت نيوزگارد[۹] در بريتانيا كه در حوزه مبارزه با اخبار غيرمعتبر فعاليت می‌کند می‌گوید كه با وجود تغيير نام فيس‌بوك به متا، اين شركت در سكو‌های[۱۰] فعلي خود همچنان امكاني براي تركتازي حاميان اطلاعات نادرست غيرعمدي محسوب می‌شود. وي می‌افزاید كه اگر اين شركت نتوانسته در سكو‌هایی ساده‌تر مانند فيس‌بوك و اينستاگرام با اطلاعات نادرست غيرعمدي مقابله كند، بعيد است بتوانند در متاورس كه شرايطي بسيار پیچیده‌تر بر آن حكم‌فرماست، اين كار را انجام دهد.

طرح اين قبيل مسائل، دال بر بي‌اطلاعي مديران متا از انتقادات نيست. هم‌زمان با شکل‌گیری خزنده تبليغات منفي درباره نقش شركت متا در فراجهان، آن‌ها متعهد شده‌اند كه به هنگام توسعه اين سكو ضمن توجه به حريم خصوصي، بهترين شرايط را براي حضور كاربران در اين فضا مهيا كنند. همچنين اين شركت استدلال می‌کند كه جهان‌های سايبري در انحصار متا نيست بلكه جمعي از طراحان، مهندسان و شرکت‌های فناوري كه فضاهاي كاري و محصولات مشابه دارند در اين كار سهيم و شریک‌اند.

مديران متا می‌گویند كه افراد نوآور و خلاق همچنين تنظیم‌کننده‌های مقررات و ارتباطات راديوييِ سراسر دنيا از هم‌اکنون می‌توانند درباره سیاست‌های حفظ امنيت در متاورس بحث‌های كارشناسي خود را آغاز كنند؛ حتي پيش از آن‌که فناوری‌های زيرساخت فراجهان به‌طور كامل توسعه يابد.

نيك كلگ[۱۱] معاون متا در حوزه کسب‌وکار جهاني معتقد است در گذشته سير سريع روزآمدي فناوری‌ها سبب می‌شد كه واضعان قوانين و تنظیم‌کننده‌های مقررات و ارتباطات راديويي از اين قافله پرشتاب عقب بمانند. وي كه اكتبر ۲۰۲۱ در اجلاس سالانه كانكت متا[۱۲] اين سخنان را ايراد داشت افزود كه اين اتفاق نبايد در رابطه با فراجهان تكرار شود چراکه سال‌ها براي تحقق كامل متاورسي كه متصوريم، مجال داريم.

متا همچنين مي‌گويد كه قصد دارد جهت توسعه مسئولانه فراجهان با گروه‌های حامي حقوق بشر و كارشناسان دولتي همكاري كند و به اين منظور مبلغ ۵۰ ميليون دلار سرمایه‌گذاری كرده است.[۱۳]

داستان‌های علمي- تخيلي رنگ واقعيت به خود می‌گيرند

واقعیت‌های مجازي و افزوده امكان كسب تجربه‌ای جديد از جهان را مطابق با آنچه پيش از اين در رؤیاهای نويسندگان داستان‌هاي علمي- تخيلي وجود داشت در فرا جهان بشارت می‌دهند. شرکت‌ها می‌توانند جلسات ديجيتالي در اتاق‌های اعضاي هیئت‌مدیره برگزار كنند به نحوي كه تمامي كاركنان در مكان‌هاي متفاوت حضور دارند، حس ‌كنند كه همگي در يك مكان و كنار يكديگرند. دوستان، نماد شخصيت‌هاي سايبري موردنظر خود را انتخاب می‌کنند و به رغم حضور در فضا و مکان‌های مختلف با هم در يك كنسرت، سالن ورزشي و بازي ويدئويي سه‌بعدی شركت می‌کنند. اهالي هنر به‌احتمال‌زیاد پذيراي توليدات هنري مبتكرانه متناسب با جغرافياي مختلف در واقعيت مجازي می‌شوند، به نحوي كه هر كس با ابزار لازم دسترسي بتواند از اين توليدات هنري بهره‌مند شود. كارآفرينان به تأسیس فروشگاه‌های ديجيتال در مقام مکان‌هایي كه بتوان توأمان از آن اقلام و اجناس ديجيتال و واقعي را ابتياع كرد، مبادرت می‌ورزند.

اما ناظران ديجيتال می‌گویند همان ویژگی‌هایی كه متاورس را به يك نوآوري وسوسه‌انگیز تبديل می‌کند حتي ممكن است زمينه را براي ورود، بروز و ظهور محتواي مضر مهياتر كند. اين مهم برگرفته از نگاهي واقع‌بینانه به تجربيات موجود از واقعيت ديجيتال است كه فراجهان ممكن است به سلاحي مرگبار در دستان بازيگراني خطرناك بدل شود كه در پي برافروختن آتش كينه، خشونت و تروریسم‌اند.

به اعتقاد كارن كورنبلو[۱۴] سفير سابق ایالات‌متحده در سازمان همكاري و توسعه اقتصادي و مدير صندوق نوآوري ديجيتال جهت اعتلاي دموكراسي[۱۵] اسناد افشا شده فيس‌بوك نشان‌دهنده آن است كه فراجهان همچون يك دستگاه رايانه كه براي برنامه‌ای خاص سفارشي‌سازي شده، می‌تواند دست‌آويز آناني شود كه افراط‌گرایی را به خدمت می‌گیرند لذا اين سكو، به عاملي تسهیل‌کننده در اعمال خشونت بدل مي‌شود.

گرچه گستره ابعاد و نحوه چيدمان اجزاي متاورس هنوز مراحل نظري خود را طي می‌کند، ليك سكو‌های موجودِ واقعيت ‌مجازي و بازی‌ها، دريچه‌اي است كه از طريق آن‌ها می‌توان درباره انواع محتواهايي مشکل‌دار كه در متاورس رشد و نمو می‌کنند، گمانه‌زنی كرد.

در برخي اسناد افشاشده فيس‌بوك، شواهدي مبني بر احتمال انتقال فزاينده محتواي توهین‌آمیز از اجتماعات انساني به اجتماعات سايبري وجود دارد. شاهد مثال اين امر، محتواي مصاحبه يكي از كارمندان فيس‌بوك با سازمان‌های خبري افشاكننده اسناد فيس‌بوك است كه در آن تصريح می‌کند حين بازي واقعيت مجازي رِك روم[۱۶] بر روي هدست اُكلوس كوئست[۱۷] از سوي نژادپرستان مورد هجمه قرارگرفته است.

اين مصاحبه شونده اظهار می‌کند كه پس از ورود به اين بازي پرطرفدارِ دنياي سايبري، با شعارهاي كاكاسياه …كاكاسياه …[۱۸] كه پياپي تكرار مي‌شد، مورد استقبال قرار گرفته است! طبق مستندات افشاشده، اين شخص در يكي از اتاق‌های سايبري داخلي شركت خود نوشت كه پس از مورد حمله قرار گرفتن، تلاش كرده تا از هويت آناني كه فريادهاي نژادپرستانه سر می‌دادند، آگاه شود و سعي كرده بفهمد چگونه بايد اين مسئله را حين حضور در آن بازي ويدئويي برخط گزارش كند كه البته در هیچ‌کدام از موارد مزبور، موفق نشده است. اين كارمند كه در اسناد افشاشده نامش به ميان آمده در پايان اظهارات خود نوشت كه در نهايت تسليم و با احساس شكست از دنياي سايبري رك روم خارج شدم.

رك روم در واكنش به اين حادثه گفت بر روي حساب‌هاي كاربري كه حين بازي مشغول صحبت هستند، حتي اگر قابليت مشاهده شدنشان را غيرفعال كرده باشند، چندين امكان مديريت ايجاد كرده تا پس از شناسايي، حساب كاربر متخلف را مسدود كند.

هتك و تعدي بر بستر واقعيت مجازي

بدرفتاري ديري است كه ساير محصولات واقعيت مجازي را نيز متأثر كرده است. افراد درباره وي‌آر چت[۱۹] -سكويي برخط كه كاربران در آن می‌توانند در پوششِ نماد یا شکلی که نشان‌دهنده شخصيتي خاص در بازی‌های ویدئویی است دنياها را سياحت كنند- تجاربي شگرف را روايت می‌کنند كه برگرفته از تعاملات انجام‌گرفته در بيش از ۲۵ هزار اجتماع گوناگون سايبريِ آن سكو است. در رشته مطالب مربوط به كيفيت حضور در وي‌آر چت كه در تارنماي رِديت[۲۰] آمده، كاربران از مواردي معتنابه و غیرقابل‌تحمل از اقدامات نژادپرستانه و جنسيت‌ستیزانه حكايت می‌کنند تا جايي كه يكي از كاربران اين سكو نوشته «نازی‌های بی‌کله را فراموش نكنيد.» با اين اوصاف وقتي در جهان سايبري افرادي با عكس هيتلر و نماد كو كلوس كلان، ديگر كاربران را مورد آزار قرار می‌دهند، تكرار خونسردانه واژه كاكاسياه توسط بازيكنان يك بازي ويدئويي امري معمول تلقي می‌شود.

وي‌آر چت طي توضيحاتي كه در ژوئن ۲۰۱۸ خطاب به بيش از ۲۵ هزار اجتماع حاضر در سكوي خود منتشر كرد مدعي شد كه توسط گروهي كه به‌طور مداوم كميت و كيفيت اين فضا را رصد مي‌كنند، در حال رسيدگي به وضعيتِ درصدي از كاربران است كه مرتكب رفتار موهن و كريه می‌شوند.[۲۱] اما پس از گذشت چند سال، كثيري از كاربران سكوي مزبور همچنان نسبت به ادامه کژ رفتاری‌ها معترض و به گزارش كاربران متعدي مبادرت می‌ورزند؛ تا جايي كه به نظر آنان برخلاف ادعاي مطرح‌شده در نامه سرگشاده مذكور، گويا هيچ اقدامي عملي از سوي سكوي مذكور انجام نگرفته است. البته كاربران سعي مي‌كنند از امكان خاموش يا مسدود كردن كاربران کژ رفتار جهت محدوديت و ممنوعيت ادامه فعاليت‌ آن‌ها بهره بگيرند. البته لازم به ذكر است كه اين دو امكان بازدارنده، بسيار دچار سوء کارکرد شده و خلاف ماهيتشان مورد استفاده تبهكاران ديجيتالي قرار مي‌گيرد.

البته افراد از وجود نژادپرستی در بازی‌های ويدئويي برخطي محبوب مانند زندگي دوم[۲۲] و فورت‌نايت[۲۳] نيز خبر می‌دهند. برخي زنان نيز اعتراف کرده‌اند كه در سكو‌های واقعيت مجازي مورد آزار جنسي و تجاوز قرارگرفته‌اند و همچنين والديني كه از حضور فرزندانشان در سكوي بازيِ برخطِ به‌ظاهر بی‌ضررِ روبلاكس[۲۴] اظهار نگراني کرده‌اند.

شرکت‌هایی مانند متا، توئيتر و گوگل ناظر بر سكوي يوتيوب كه در حوزه رسانه‌های اجتماعي حضوري مؤثر و چشمگير دارند، با سیاست‌گذاری‌هایی مفصل در پي آن‌اند كه كاربران را از انتشار محتواي موهن و خطرناك منع كنند. اين شرکت‌ها براي اداره مناسب سايت شبکه‌های اجتماعي خود جهت بررسي اجمالي تصاوير همچنين متن و فيلم‌هايي كه به نظر می‌رسد می‌توانند قوانين اين شرکت‌ها را درباره ممنوعيت انتشار گفتار نفرت پراكن يا تحریک‌کننده جهت ارتكاب خشونت نقض كنند به دانش هوش مصنوعي بسيار متکی‌اند. سامانه‌های بهره‌مند از هوش مصنوعي در بعضي اوقات به‌طور خودكار به حذف فرستِ‌هاي توهین‌آمیز مبادرت مي‌كنند و گاهي نيز نسبت به الصاق برچسب‌هاي خاصِ راستي آزمايي اقدام يا براي ديده شدن محتواهاي حساس، محدوديت ايجاد می‌کنند.

آندره آ اميليو ريزولي[۲۵] مدير موسسه هوش مصنوعي داله موله در سوئيس[۲۶] می‌گوید سطح امنيت متاورس تا حدي به اين مهم بستگي دارد كه شرکت‌ها چگونه سامانه‌های هوش مصنوعي را براي اداره سكو‌ها به خدمت می‌گیرند. براي تشخيص و حذف سخنان نفرت‌پراكن و اطلاعات نادرست غيرعمدي مي‌توان هوش مصنوعي را برنامه‌ريزي كرد و سامانه‌های مذكور نيز بنا به ماهيت فناورانه خود با قوت به اين امر مبادرت می‌ورزند.

سويِ ديگر گستره محتواي مسئله‌دار در فراجهان تابع طراحيِ نحوه عملكرد محیط‌های ديجيتال از سوي شرکت‌های فناوري است بدين معني كه آيا ساختار در قالب گروه‌های بسته و خصوصي شكل می‌گیرد تا شخصیت‌ها سايبري با دعوت، مجال ورود به آن‌ها را بيابند يا در قالب گروه‌های باز و عمومي كه همگان امكان حضور خواهند داشت. هاوگن كه در افشاگری‌هایش آشكارا از برنامه‌های متاورسِ فيس‌بوك انتقاد كرده، در ايام متأخر به قانون‌گذاران اروپايي گفت به نظر نمی‌رسد سخنان نفرت‌انگیز و اطلاعات نادرست غيرعمدي در فراجهان به سرعت و وسعتي كه در رسانه‌های اجتماعي مبادله می‌شوند، انتشار يابند چراكه تعاملات معدود و محدود خواهد بود.

برخلاف نظر هاوگن، برنت ميتلستاد[۲۷] پژوهشگر ارشد اخلاق داده در حوزه اينترنتِ موسسه آكسفورد[۲۸] در اين زمينه می‌گوید چون به ناگاه منابعي عظيم از داده -حتي بيش از آنچه تاکنون در دسترس مردم است- از طريق متاورس هدايت و در اختيار كاربران قرار مي‌گيرد و اگر فيس‌بوك به اين هدف برسد، كثيري از افراد مدتي قابل‌توجه از وقت خود را در فراجهان صرف ‌مي‌كنند؛ به همان اندازه محتمل است كه متا، شبکه‌های فعلي خود از جمله فيس‌بوك، اينستاگرام و واتس‌آپ را با فراجهان ادغام كند كه اين امر تعاملات در متاورس را به نحوي چشمگير افزايش می‌دهد.

ميتلستاد كه در گروه اخلاق داده موسسه آلن تورينگ[۲۹] نيز به فعاليت اشتغال دارد، می‌افزاید اگر مديران متا سازوکار سكو‌های فعلي خود را كه در انتشار اطلاعات نادرست غيرعمدي نقش‌آفرین‌اند، در فراجهان حفظ كنند؛ گفتنِ این‌که شرايط در متاورس بهبود پيدا می‌کند، دشوار است.

ريزولي نيز در ادامه نظرات خود با بيان این‌که اطلاعات نادرست غيرعمدي و سخنان نفرت پراكن می‌توانند طي تعاملات بين فردي در فراجهان پديدار شوند، تصريح كرد كه اين امر، سكو‌ها را به هنگام تصميم جهت حذف محتواهاي مضر با بحث‌هایی حول آزادي بيان و سانسور مواجه می‌کند. وي در پاسخ به اين پرسش كه آيا سكو‌ها می‌خواهند موجوداتي سايبري به افراد نزديك و به آن‌ها متذكر شوند كه مکالمه‌شان مبتني بر واقعيت نيست يا ترجيح می‌دهند به‌طور كل از گفت‌وشنود بين فردي جلوگيري كنند؛ اظهار داشت شيوه مديريت و نوع نظارتي كه سكو‌ها در فراجهان جهت جلوگيري از انتشار اطلاعات نادرست غيرعمدي اعمال می‌کنند، محل بحث و تأمل است.

تعريف و تعيُّن اصالت در متاورس می‌تواند از آنچه در جهان انجام مي‌شود، غامض‌تر شود. اريك راميرز[۳۰] دانشيار دانشگاه سانتا کلارا[۳۱] می‌گوید شرکت‌های فناوري ممكن است در رابطه با آزادي مردم از لذتي كه به واسطه نمايش متفاوت نژاد يا جنسيت خود در فراجهان می‌برند، با پرسش‌هایي شیطنت‌آمیز و درعین‌حال چالشي مواجه شوند. با اين حال می‌توان پیش‌بینی كرد با توجه به روند پيشرفتِ توليد جعل‌هاي عميق[۳۲] -صداها، تصاوير و نوشته‌هايی كه با استفاده از دانش هوش مصنوعي ساخته می‌شوند تا افعالي به فردي منتسب شود ‌که از انجام آن‌ها مبراست- بايد جعل‌های ژرفِ باورپذيرتر و تعاملی‌تري را در متاورس شاهد باشيم.

راميرز در ميزگردي با موضوع پيامدهاي جهان‌شموليِ متاورس كه كلگ نيز در آن حضور داشت ضمن اشاره به اين‌كه مجال و امكاني بيشتر براي فريبكاري در فراجهان وجود دارد، افزود: در اين شكل فريبكاري از ظرفیت دروني روان‌شناسی جهت آگاهي از نحوه تعامل ما با ديگر آدم‌ها و چگونگي شناختن افراد بسيار بهره برده شده است.

حریم خصوصی سايبري؟

پژوهشگران حتي طرفداران حوزه متاورس اذعان دارند كه فراجهان می‌تواند حريم خصوصي كاربر را به خطر افكند. به‌طور مثال عینک‌های مبتني بر واقعيت افزوده كه توسط اسنپ اينك[۳۳] و متا در مرحله نهايي شدن است، می‌توانند بدون اطلاع و رضايت كاربرانشان نسبت به ثبت و ضبط اطلاعات از اشخاص پيراموني مبادرت ورزند. لازم به ذكر است كاربراني كه تنها سياح جهان‌های سايبري نيز محسوب می‌شوند، از آزار ديجيتال يا كمين بدخواهان شرور در امان نيستند.

نيل چيلسون[۳۴] محقق ارشد حوزه فناوري و نوآوري در موسسه راست‌گرای چارلز كخ[۳۵] كه در ميزگرد متا نيز شركت داشت می‌گوید به‌طور مثال اگر در دنياي فيزيكي بخواهيد فردي را رصد كنيد مجبور به كارهايي زياد و بعضاً زائد هستيد اما دنياي برخط انجام اين كار را بسيار سهل و ممتنع می‌کند.

بیل استیل‌ول[۳۶] مدیر محصول متا در حوزه حريم خصوصي و یکپارچگی واقعیت مجازی طي اظهاراتي بيان كرد كه توسعه‌دهندگان استارت‌آپ‌ها براي تعديل تجارب شبیه‌سازی‌شده در هدست اُكلوس كوئست ابزارهايي در اختيار دارند با اين قيد كه ابزارها هميشه می‌توانند ارتقا يافته، كارايي بهتر پيدا كنند. او در ادامه افزود كه ما می‌خواهیم بر همه اين احساس مستولي شود كه بر تجارب واقعيت مجازي خود، احاطه دارند و بر اين مبني در سكوي ما احساس امنيت كنند.

حتي حاميان متاورس چون چيلسون و ژان ميشل ژار هنرمند فرانسوي كه به زودي کنسرت‌های واقعيت مجازي برگزار می‌کند، تصريح می‌کنند كه تنظیم‌کننده‌های مقررات و ارتباطات راديويي در سراسر دنيا بايد قوانيني جديد در مورد حريم خصوصي، مديريت محتوا و ديگر موارد مربوط به ايجاد و ارتقا امنيت در اين فضاهاي ديجيتالي تهيه و مصوب كنند. البته اين مهم براي دولت‌هایی كه سال‌هاست جهت تصويب قوانين مديريت رسانه‌های اجتماعي در تلاش بوده‌اند، تكليفي شاق محسوب شود. ژار در اين رابطه می‌گوید كه هر فناوري، یک‌سویه تاريك دارد كه فراجهان نيز از آن مبرا نيست به همين منظور ما دراین‌باره نياز فوري به وضع قوانين و مقررات داريم.

جاناتان ويكتور[۳۷] مدیر محصول در حوزه توسعه‌دهنده‌هاي متن باز[۳۸] جنبه‌های مثبتِ بالقوه متاورس را مورد توجه قرار می‌دهد. از منظر وي هر فرد می‌تواند يك نسخه ديجيتال سه‌بعدی از خود در فراجهان داشته باشد. او اظهار مي‌كند كه در متاورس می‌توان ارز ديجيتال مبادله كرد يا با خريد و فروش كالاهاي سايبري، اشتغال‌زایی كرد. ويكتور در ادامه مي‌افزايد درباره فراجهان بسيار افسانه‌سرایی شده اما پرسش اینجاست كه صحیح‌ترین شيوه براي برپاداشتن اين جهان سايبري چيست؟

∗ پژوهشگر حوزه سواد رسانه‌ای و سواد خبري

*اين نوشتار ترجمه‌ای آزاد از مقاله‌ای است با عنوان Misinformation has already made its way to the metaverse كه در ۱۵ دسامبر ۲۰۲۱ منتشرشد.

[۱] https://sensoriumxr.com/galaxy

[۲]  Metaverse از دو واژه متا به معنی فراتر و یونیورس به معنی جهان تشکیل‌شده است. نیل استیونسن نخستین بار در کتاب خود به نام سقوط برف در سال ۱۹۹۲ از اين واژه استفاده و آن را جهان سايبری سه‌بعدی متشکل از آواتارِ (نماد یا شکلی که نشان‌دهنده شخصيتي خاص در بازی‌های ویدیویی است) مردمان واقعی توصیف کرد.

[۳] Jean-Michel Jarre

[۴] Misinformation

[۵] Frances Haugen

[۶] www.washingtonpost.com/technology/2021/10/25/what-are-the-facebook-papers

[۷] Conspiracy Theory

[۸] Alex Cadier

[۹] www.newsguardtech.com

[۱۰] Platforms

[۱۱] Nicholas William Peter Clegg

[۱۲] www.facebookconnect.com/en-us

[۱۳] https://about.fb.com/news/2021/09/building-the-metaverse-responsibly

[۱۴] Karen Kornbluh

[۱۵] www.gmfus.org

[۱۶] https://recroom.com

[۱۷] www.oculus.com/experiences/quest

[۱۸] www.bbc.com/news/stories-53749800

[۱۹] https://hello.vrchat.com

[۲۰] www.reddit.com

[۲۱] https://medium.com/@vrchat/an-open-letter-to-our-community-1b7aa5d9026f

[۲۲] https://secondlife.com

[۲۳] www.epicgames.com/fortnite/en-US/home

[۲۴] www.roblox.com

[۲۵] Andrea-Emilio Rizzoli

[۲۶] www.idsia.ch

[۲۷] Brent Mittelstadt

[۲۸] www.oii.ox.ac.uk

[۲۹] www.turing.ac.uk/research/data-ethics

[۳۰] www.erickjramirez.com

[۳۱] www.scu.edu

[۳۲] Deep fakes

[۳۳] www.snap.com/en-US

[۳۴] Neil Chilson

[۳۵] https://charleskochinstitute.org

[۳۶] Bill Stillwell

[۳۷] Jonathan Victor

[۳۸] https://protocol.ai

متاورسهوش مصنوعي
پژوهشگر
شاید از این پست‌ها خوشتان بیاید