هلیا عسگری
هلیا عسگری
خواندن ۷ دقیقه·۱ سال پیش

به دنبال دروغ‌زن‌های ویکی‌پدیا؛ چه کسی روایت مرا عوض کرد

نویسنده: ماشا بوراک

ترجمه: هلیا عسگری


ماهنامه پیوست. شماره ۱۱۰

هلیا عسگری/ چه کسی روایت مرا عوض کرد
هلیا عسگری/ چه کسی روایت مرا عوض کرد



ویکی‌پدیا در حالی خود را به منبعی از اطلاعات قابل اعتماد تبدیل کرده که پلتفرم‌های اجتماعی مانند فیس‌بوک، یوتیوب و توییتر با هجوم اخبار جعلی، اطلاعات وارونه (disinformation) و روبات‌ها دست‌وپنجه نرم می‌کنند. منبعی که هم خوانندگان مستقل و هم سایر پلتفرم‌های فناوری از آن استفاده می‌کنند؛ اما مساله مهم در حال حاضر، حفظ رویه کار ویکی‌پدیاست.

برخی از محققان بر این باورند که ویکی‌پدیا می‌تواند مکان مناسبی برای جنگ اطلاعاتی باشد و دست‌اندرکاران ویکی‌پدیا خود نیز در حال توسعه فناوری‌ها و روش‌هایی مشابه آنچه در فیس‌بوک و توییتر استفاده می‌شود هستند. تیمی از موسسه گفت‌وگوی استراتژیک (ISD) مستقر در بریتانیا و مرکز تحلیل رسانه‌های اجتماعی (CASM Technology) مقاله‌ای منتشر کردند که در آن چگونگی کشف اطلاعات نادرست در ویکی‌پدیا را بررسی می‌کند. آنها معتقدند نگاشت داده‌ها یا همان data mapping ،‌ ممکن است راهبردی را کشف کرده باشد که دولت‌ها بتوانند از آن برای ارائه اطلاعات نادرست استفاده کنند؛ ترفندی که بازی را به‌نرمی و به مدت طولانی پیش می‌برد.

کارل میلر، مدیر تحقیقات سازمان CASM که زیر نظر اندیشکده سیاست عمومی بریتانیا فعالیت می‌کند، می‌گوید: «ما می‌توانیم ببینیم در یوتیوب، فیس‌بوک، توییتر و تلگرام چه اتفاقی می‌افتد، می‌توانیم ببینیم که دولت‌ها چقدر تلاش می‌کنند تا در این فضاها مانور بدهند. هیچ مدرکی وجود ندارد که نشان دهد ویکی‌پدیا در برابر چنین حجم عظیمی از اقدامات دولتی طولانی و حساب‌شده، در امان باشد.»

دولت‌ها دلایل متعددی دارند برای اینکه بر ویکی‌پدیا اثر بگذارند: ۱.۸ میلیارد دستگاه منحصربه‌فرد برای بازدید از سایت‌های بنیاد ویکی‌مدیا (Wikimedia Foundation) در هر ماه استفاده می‌شود، و صفحات آن به طور منظم در میان پربازدیدترین جست‌وجوهای گوگل است. افزایش بی‌اعتمادی به نهادها و رسانه‌های جریان اصلی، باعث محبوبیت بیش از پیش منابع اطلاعات موثق شده است.

متیو اونیل، دانشیار رشته ارتباطات دانشگاه کانبرا در استرالیا که در مورد ویکی‌پدیا مطالعه می‌کند، می‌گوید: «ویکی‌پدیا به دلیل قابلیت بازنویسی و شفافیتش یکی از معدود پلتفرم‌هایی است که می‌توان در آن حس اعتماد به اطلاعات را ایجاد کرد. بنابراین دولت‌هایی که می‌خواهند یک چشم‌انداز استراتژیک خاص را ترویج کنند، دلایل زیادی برای حضور در این پلتفرم و تلاش برای تاثیرگذاری بر آن را دارند. با وجود اینکه موارد شبهه‌برانگیز وجود دارد اما اثبات مداخله دولت دشوار است.

در سال ۲۰۲۱، بنیاد ویکی‌مدیا (Wikimedia Foundation) دسترسی یک «گروه ناشناخته» متشکل از هفت کاربر چینی ویکی‌پدیا را ممنوع کرد و همچنین دسترسی مدیریت صفحه و سایر امتیازات را برای ۱۲ کاربر دیگر به دلیل انتشار اطلاعات شخصی (doxing) و اطلاعاتی که منجر به شناسایی ویراستارانی از هنگ‌کنگ می‌شد لغو کرد. با این حال، حدس و گمان درباره نفوذ طرفداران چین هرگز ثابت نشد.

میلر نمی‌تواند بگوید آیا کمپین‌هایی که درباره انتشار اطلاعات نادرست هم‌اکنون در ویکی‌پدیا اجرا می‌شود یا هر فعالیتی از این دست، در اجتناب از قوانین پیچیده انتشار اطلاعات نادرست موفق خواهد بود یا نه اما می‌گوید ابزارهای جدید ممکن است این موضوع را روشن‌تر کنند: «ما قبلاً هرگز سعی نکرده‌ایم داده‌های ویکی‌پدیا را به این شکل تجزیه و تحلیل کنیم.» این تحقیق 86 ویراستار را که از فعالیت در ویکی‌پدیا منع شده‌اند ردیابی کرد. این ویراستاران سعی کرده بودند روایت‌های مرتبط با جنگ روسیه و اوکراین را در صفحات انگلیسی زبان ویکی‌پدیا به سمت دیدگاه‌های کرملین از طریق تغییرات ظریف مانند ایجاد تردید در مورد صحت و عینیت گزارش‌های کشورهای غربی، تغییر زمینه‌های تاریخی، و افزودن لینک از اخبار و وب‌سایت‌های دولتی روسیه سوق دهند.

میلر اذعان می‌کند: «ویکی‌پدیا نرم‌افزارهای زیادی برای جلوگیری از خرابکارانی دارد که به ‌طور تصادفی اطلاعات نادرست را به سایت اضافه می‌کنند. اما وقتی به روشی که دولت‌ها می‌توانند به ویکی‌پدیا حمله کنند نگاه کنیم، نوع تهدید کاملاً متفاوت به نظر می‌رسد.»

همچنین ممکن است نگاشت شبکه (network mapping) استراتژی خاصی برای شناسایی بازیگران بد که تاریخچه ویرایش خود را بین تعدادی از حساب‌ها تقسیم می‌کنند تا شناخته نشوند در پیش گیرد. این ویراستاران برای پیدا کردن شهرت و جایگاه در جامعه ویکی‌پدیا کوشیدند و ویرایش‌های قانونی صفحه را با ویرایش‌های حساس‌تر از نظر سیاسی مخلوط کردند.

میلر می‌گوید پیام بنیادینی که از همه نتایج تحقیقات دریافت کرده این است که خطر اصلی خرابکاری نیست بلکه نفوذ سیاسی (entryism) است. با این حال، اگر این تئوری درست باشد، به این معنی نیز هست که ممکن است سال‌ها طول بکشد تا بازیگران دولتی یک کمپین اطلاعات نادرست راه‌اندازی کنند که احتمالش هست بدون توجه بقیه از بین برود.

اونیل می‌گوید: «عملیات نفوذ روسیه می‌تواند بسیار پیچیده باشد و برای مدت طولانی ادامه پیدا کند، اما برای من مشخص نیست مزایای آن تا چه حد فوق‌العاده خواهد بود.» دولت‌ها نیز اغلب ابزارهای متعددی در اختیار دارند. در طول سال‌ها، رهبران مستبدْ ویکی‌پدیا را مسدود کرده‌اند، سازمان حاکم آن را به دادگاه برده‌اند و سردبیرانش را دستگیر کرده‌اند. این سایت 21 سال است که با انتشار اطلاعات نادرست مبارزه می‌کند. یکی از درازمدت‌ترین اقدامات برای انتشار اطلاعات نادرست، بیش از یک دهه در جریان بود: گروهی از ناسیونالیست‌های افراطی قوانین ویکی‌پدیا را برای تسلط بر جامعه کروات‌زبان به بازی گرفتند و سعی کردند تاریخ را برای بازسازی رهبران فاشیست جنگ جهانی دوم بازنویسی کنند. این پلتفرم همچنین در برابر «مدیریت شهرت» که هدفش آب‌وتاب دادن زندگینامه افراد قدرتمند است آسیب‌پذیر بوده است.

فریب‌ و حقه‌های آشکار و تمام‌عیار نیز وجود دارد. در سال 2021، مشخص شد یک ویرایشگر ویکی‌پدیای چینی حدود 200 مقاله از تاریخ ساختگی روسیه قرون وسطی منتشر کرده که شامل دولت‌های خیالی، اشراف و نبردها بوده است. برای مبارزه با این موضوع، ویکی‌پدیا مجموعه‌ای از قوانین پیچیده، نهادهای حاکم و انجمن‌های گفت‌وگوی عمومی ایجاد کرد که یک نهاد خودسازمانده و خودگردان متشکل از 43 میلیون کاربر ثبت‌شده در سراسر جهان اداره‌اش‌ می‌کند.

نادی گوناسنا، رئیس ستاد ارتباطات اجرایی بنیاد ویکی‌مدیا، می‌گوید این سازمان از بررسی عمیق مدل ویکی‌مدیا و پروژه‌های آن به‌ویژه در حوزه انتشار اطلاعات نادرست استقبال می‌کند. اما او همچنین اضافه می‌کند این تحقیق تنها بخشی از تاریخچه ویرایش مقاله را پوشش می‌دهد. او می‌گوید محتوای ویکی‌پدیا از طریق ترکیبی از ابزارهای یادگیری ماشین و نظارت دقیق انسانی از طرف ویراستاران داوطلب محافظت می‌شود. تمام محتوا، از جمله تاریخچه هر مقاله از نظر بی‌طرفی و قابلیت اطمینان بودن بررسی می‌شود.

اونیل می‌افزاید تمرکز تحقیق بر بازیگران بد نشان می‌دهد سیستم ویکی‌پدیا کار می‌کند. میلر می‌گوید: «این مطالعه در واقع اولین تلاش برای توصیف رفتارهای ویرایشی مشکوک است و برای اینکه بتوانیم از آن سیگنال‌ها در جای دیگری استفاده کنیم باید صبر کرد.»

ویکتوریا دورونینا، یکی از اعضای هیات امنای بنیاد ویکی‌مدیا و زیست‌شناس مولکولی، می‌گوید ویکی‌پدیا در طول تاریخ هدف حملات هماهنگ‌شده از سوی توطئه‌چین‌ها بوده است که قصد آن سوگیری محتوای ویکی‌پدیاست. او می‌گوید: «در حالی که ویراستاران با حسن نیت عمل می‌کنند و ترکیبی از دیدگاه‌های مختلفْ ایجاد محتوای خنثی را ممکن می‌کند، هماهنگی خارج از ویکی‌پدیا از بین گروه یا گروه‌هایی خاص به آنها امکان می‌دهد روایت را منحرف کنند.» دورونینا می‌افزاید: «اگر میلر و محققانش بتوانند استراتژی‌های دولتی برای تاثیرگذاری بر ویکی‌پدیا را شناسایی کنند، مبارزه بعدی در واقع چالش ویراستاران ویکی‌پدیا در مقابل تبلیغات دولتی است.»

میلر می‌گوید از تجزیه‌وتحلیل رفتار بازیگران بد می‌توان برای ساخت مدل‌هایی استفاده کرد که اطلاعات نادرست را شناسایی می‌کنند و به این ترتیب می‌توان فهمید این پلتفرم چقدر در برابر اشکال دستکاری سیستماتیکی آسیب‌پذیر است که فیس‌بوک، توییتر، یوتیوب، ردیت و سایر پلتفرم‌های بزرگ در معرض آن قرار گرفته‌اند.

نسخه انگلیسی‌زبان ویکی‌پدیا 1026 مدیر دارد که بیش از 6.5 میلیون صفحه را زیر نظر دارند و بیشترین مقاله را در بین هر نسخه دیگری دارد. ردیابی بازیگران بد بیشتر به فردی متکی است که رفتار مشکوکی را گزارش می‌کند. اما بسیاری از این رفتارها ممکن است بدون ابزار مناسب قابل مشاهده نباشد. از نظر علم داده، تجزیه‌وتحلیل داده‌های ویکی‌پدیا دشوار است، زیرا برخلاف یک توییت یا یک پست فیس‌بوک، ویکی‌پدیا نسخه‌های زیادی از متن مشابه دارد. همان‌طور که میلر توضیح می‌دهد: «مغز انسان به سادگی نمی‌تواند صدها هزار ویرایش را در صدها هزار صفحه شناسایی کند تا ببیند الگوها چگونه هستند.»

ماهنامه پیوسترسانهویکی‌پدیا
دکترای رسانه. پژوهشگر رسانه و جنبش‌های اجتماعی. فعال حقوق جنسیتی
شاید از این پست‌ها خوشتان بیاید