اصل متن توسط رویا پاکزاد و به زبان انگلیسی نوشته شده است. با تشکر از پ. برای ترجمه.
ماه پیش، دوستی استوریای در اینستاگرامش منتشر کرد. استوری دربارهی تحریم خرید یک محصول روشنکنندهی پوست در هندوستان بود با اسم تجاری «روشن و دوستداشتنی» (Fair and Lovely). هدف تحریم چی بود؟ اینکه افکار عمومی رو با مسالهی مهمتری به نام رنگ گرایی (colorism) در هندوستان آشنا کنه.
درسته من هندی نیستم، اما پیام این کمپین برام یادآور خاطرات مشابهی در ایران بود. بین فامیل هم با چنین محصولات «زیبایی»ای که ادعا میکنه پوست مصرف کننده رو روشنتر میکنه روبهرو شده بودم. سنم کم بود و فکر نمیکردم واقعا چیز مهمی باشه. اما این روزها، مطرح شدن جنبش سیاهان در ایالات متحده (Black Lives Matter) باعث شده همهی کسانی که تو کشور خودشون با نوعی نژادپرستی یا رنگگرایی مواجه شده بودن هم به فکر فرو برن.
وقتی داشتم توییتهای مربوط به این کمپین رو میخوندم، به این فکر افتادم که شرکت سازندهی کرم روشنکنندهی پوست، یعنی یونیلور، برداشت و برخوردش با این توییتها چیه؟ آیا از ابزارهای تحلیلگر رسانههای مجازی –مبتنی بر تکنولوژی تشخیص احساسات– استفاده میکنه که بتونه درک سریعی از بازخورد مردم داشته باشه؟ چون میدونم جدیدا خیلی مرسومه که شرکتها از ابزارهای تحلیلگر متن استفاده کنن تا با توجه به چیزهایی که در رسانههای مجازی مطرح میشه رضایت مشتریان رو تخمین بزنن.
من یک پژوهشگر امور تکنولوژی و حقوق بشر هستم. کار من درک تاثیرات اجتماعی و حقوق بشری تکنولوژیهای دیجیتاله. به همین دلیل بود که تصمیم گرفتم از قضیهی کمپین «روشن و دوستداشتنی» برای بررسی APIهای معمول تحلیلگر احساس استفاده کنم. به خصوص، این موضوع برام سوال بود که مثبت بودن عبارت «روشن و دوستداشتنی» (Fair & Lovely) از نظر احساسی، تا چه حدی ممکنه ابزار تحلیل احساس را گمراه کنه و منجر به اشتباه در دستهبندی احساس جملهها بشه، حتی اگه جمله از لحاظ احساسی اصلا بار معنایی مثبتی هم نداشته باشه.
این سوال باعث شد که این پست رو بنویسم، مخصوصا برای توسعهدهندگانی که از تکنولوژیهای یادگیری ماشین به عنوان خدمات (MLaaS) استفاده میکنن و همینطور برای همکارانم که به تاثیرات اجتماعی و حقوق بشری تکنولوژی علاقهمندن.
من API تحلیلگر لحن IBM (IBM Tone Analyzer API) و API تحلیلگر احساس متن ParallelDots (ParallelDots Text Analysis Emotion API) رو انتخاب کردم و نتایجشون رو روی توییتهای مربوط به محصول «Fair & Lovely» شرکت یونیلور امتحان کنم. در ادامه توضیح میدم که ارائه دهندگان این APIها چه سیاستهای حفظ حریم خصوصیای دارن، شرایط خدمات اونها به چه صورته، چه مستنداتی از مدلهای یادگیری ماشینشون ارایه میدن و در آخر بهتون میگم که برای انتخاب API چه معیارهایی باید داشته باشین.
خب، فرض میکنیم شما یک توسعهدهنده یا تحلیلگر رسانههای مجازی هستید، و شرکت یونیلور سراغتون اومده تا احساس مشتریاش رو از محتویات رسانههای مجازی تحلیل کنید. چیکار میکنید؟
فرض میکنیم شما مهارت، اطلاعات و دادهی لازم برای ساختن مدل یادگیری ماشین مخصوص این موضوع رو ندارید و نمیخواید از مدلهای از پیش ساخته شده (pre-trained) هم استفاده کنید. در عوض ساده ترین مسیر رو انتخاب میکنید: استفاده از API تحلیلگر احساس حاضر و آماده که مدل اصلیاش توسط یه شرکت دیگه ساخته شده. حالا اگر شما جزو دستهی آخر هستید، برای انتخاب و بکارگیری مسئولانهی این APIها چه معیاری دارید؟
اول از پایه شروع میکنیم. رابط برنامهنویسی کاربردی (API) به نرمافزارهای مختلف کمک میکنه با هم ارتباط برقرار کنن. API اجازه میده که یک اپلیکیشن درخواستی ارائه بده (درخواست دسترسی به داده یا خدمات) و یک اپلیکیشن دیگه به این درخواست پاسخ بده و اون دسترسی رو میسر کنه. برای مثال، اگه شما یک شرکتی مثل توییتر هستید و از پژوهشگران میخواید که از دادههای شما برای کار پژوهشیشون استفاده کنن، با یک API اجازهی دسترسی به این دادهها رو در اختیارشون میذارید یا مثلا اگر بخواید با استفاده از اینترنت اشیا (IoT) وسایل هوشمند خونهتون رو به هم متصل کنید تا با هم ارتباط برقرار کنن (مثلا لامپ هوشمندتون به رویدادهای سالنامهی گوگلتون واکنش نشون بده) باید این خدمات رو از طریق API به هم مرتبط کنید.
اما مثل هر جور تعاملی، باید بین این سرویسها قبل از شروع تعامل قوانینی وجود داشته باشه. این قوانین از طریق سیاستهای API، سیاستهای مرتبط با توسعهدهندهها و شرایط خدمات شرکت ارائه دهندهی API وضع میشه. اما این تعاملات و سیاستهایی که گاهی شامل دسترسی به اطلاعات شما هم میشه چی هستن؟ اصلا چرا باید مهم باشن؟ این مثالها نشون میده که چرا همچین چیزی مهمه.
1) داستان کمبریج آنالتیکا و فیسبوک رو یادتونه؟ (محض یادآوری، اطلاعات ۸۷ میلیون کاربر در اختیار کمبریج آنالتیکا قرار گرفت که با استفاده از اون رفتار و علایق سیاسی کاربران فیسبوک رو تحلیل کنه و در نهایت رو انتخابهای سیاسیشون تاثیر بذاره). خلاصه اینکه، دلیل اصلی این شکل تجاوز به حریم کاربران و اشتراک دادهها، سواستفاده از APIهای دسترسی به دادههای فیسبوک بود. نتیجه این شد که بعد از داستان کمبریج آنالتیکا فیسبوک دسترسی توسعه دهندهها به دادهها رو با ایجاد تغییراتی در سیاستهای APIهاش محدود کرد.
2) موقع استفاده از APIهای یادگیری ماشین به عنوان خدمات تحلیلگر هم نگرانیهایی وجود داره. در چنین موردی قضیه برعکس مثال بالاست. توسعهدهندهها دادههایی در اختیارشون هست و از شرکتهای بزرگ فناوری میخوان که با دادن دسترسی به APIهای یادگیری ماشین، این دادهها رو براشون تحلیل کنن (MLaaS). تحقیقات جوی بولاموینی (Joy Buolamwini) و تیمنیت گبرو (Timnit Gebru) روی مطالعات جنسیتی نشون داد که بسیاری از مدلهای یادگیری ماشین تشخیص چهره تبعیض نژادی و جنسیتی قائل میشن. در نتیجهی این مطالعات، شرکتهای بزرگ فناوری خدمات API شون رو برای سازمانهای آمریکایی محدود کردن (اما کسی نمیدونه که هنوز چه روابط تجاری با سایر کشورها دارن... ??♀️).
اما مسئولیت توسعهدهندههایی که میخوان از این APIهای یادگیری ماشین شرکتهای فناوری استفاده کنن چیه؟ آیا راهنمایی وجود داره که بهشون کمک کنه APIهای یادگیری ماشین را برای حوزههای خاص خودشون یهکمی مسئولانهتر و بادقتتر انتخاب کنن و به کار بگیرن؟
خب، برای اینکه از APIهای یادگیری ماشین مبتنی بر فضای ابری که حی و حاضر و به وفور موجوده استفاده کنید، چهکار میکنید؟ یک حساب کاربری میسازید و دسترسی به API به شما داده میشه. دادههای ورودی رو وارد میکنید، خدماتدهندهی ابری «جادو»ش رو روی اونها اجرا میکنه، و نتایج به عنوان داده خروجی در اختیار شما قرار میگیره. خیلی راحت! حتی لازم نیست دانشی از علوم داده و یادگیری ماشین داشته باشید تا بتونید این API رو با محصولتون تلفیق کنید. یا حداقل میشه گفت این ادعاییه که شرکتها میکنن تا خدماتشون رو در بازار ارائه کنن، مثل تصویر زیر:
?
ولی از شوخی گذشته، به عنوان یک توسعهدهنده شما یک سری معیار برای انتخاب یک سرویس دارید: معیارهایی مثل دقت، هزینه، و سرعت. اما اگه بخواید بر اساس معیارهای دیگهای مثل حریم خصوصی، امنیت، عادلانه بودن، و شفافیت یه سرویس یادگیری ماشینی رو انتخاب کنید چطور؟ چه روندی رو طی میکنید؟ چه چیزهایی رو چک میکنید؟
بیاید برگردیم به توییتهای «Fair & Lovely». من با فرض اینکه خودم یک توسعهدهنده باشم، چند صدتا توییت دربارهی «Fair & Lovely» به زبان انگلیسی رو به کمک Twint جمعآوری کردم. بعد رفتم سراغ RapidAPI که پلتفرمیه که به توسعهدهندهها کمک میکنه APIهای مختلف رو مقایسه و انتخاب کنن، و تحلیلگر لحن IBM (IBM Tone Analyzer API) و تحلیلگر متن ParallelDots (ParallelDots Text Analysis Emotion API) رو به عنوان بهترین گزینهها انتخاب کردم. هر دو سرویس تعهد میدن که احساساتی مثل ترس، عصبانیت، لذت، شادی و غیره رو از توییتها برداشت کنن.
بعد توی هر دو سرویس ثبتنام کردم و اعتبار لازم برای حساب کاربر توسعه دهنده رو دریافت کردم. حساب کاربری رایگان IBM آی-بی-ام ۲۵۰۰ درخواست API در ماه رو میپذیره، و ParallelDots برای ۱۰۰۰ درخواست در روز رایگانه.
در نهایت، آزمایش زیر رو اجرا کردم. نتایج زیر از نوشتههای توییتهای «روشن و دوستداشتنی» به عنوان داده ورودی و جمعآوری خروجی API ها بدست اومده. که میتونید توی این spreadsheet هم ببینیدش.
لطفا به تفاوت چشمگیر نتایج بین دو سرویس توجه کنین.
همچنین عبارت «Fair & Lovely» را به عبارتهای خنثیتری مثل «your product» و «this product» تغییر دادم. نتیجهی خروجی تغییر کرد! هر چند که بر مبنای تحلیل آدمیزادی عملا این جملهها و احساس پشتشون یکی هستن.
اگر من جای توسعهدهندهی فرضی داستانمون بودم با این نتایج غلط و غلوط دیگه از این ابزارها برای این مورد خاص استفاده نمیکردم. شما بگین که آیا جملهی «یونیلور، Fair & Lovely را متوقف کن، دادخواست را امضا کنید!» شاد و سرخوش به نظر میرسه؟ ??♀️
اما بیاین فرض کنیم توسعهدهندهی فرضی ما هنوز فکر میکنه استفاده از این ابزارها مفیده. در این صورت باید موارد زیر رو در نظر بگیریم. این رو هم بگم که این لیست خیلی ابتداییه و به هیچ وجه لیست کاملی نیست. اما حداقل به شما نشون میده به عنوان یک توسعه دهنده موقع تصمیمگیری برای استفاده از یک ابزار دنبال چه چیزی بگردید.
موقع ثبتنام برای دریافت حساب کاربری توسعه دهنده، همیشه شرایط خدماتدهی (ToS) و سیاستهای حریم خصوصی رو به طور کامل مطالعه کنید.
به طور خاص، در مورد اینکه اطلاعات خودتون و اطلاعاتی که به عنوان دادههای ورودی به شرکت میدین چطور استفاده میشه به خوبی کنجکاو باشید. سرویسی به نام Polisis وجود داره که به شما کمک میکنه سیاستهای خدماتدهندههای مختلف رو باهم مقایسه کنید (عالی نیست اما میتونه بهتون کمک کنه).
سیاستهای حریم خصوصی توسعه دهنده و سیاستهای مختص به هر محصول رو مطالعه کنید تا بفهمید این شرکت چه اطلاعاتی از شما --به عنوان دارندهی حساب کاربری-- جمعآوری میکنه، چطور از این اطلاعات محافظت میکنه؟ آیا دادههای در حال سکون و در حال حرکت رمزگذاری میشن؟ آیا منظورشون از metadata رو درست تعریف کردن؟ آیا دادههایی که شما به عنوان ورودی به اونها میدین رو نگهداری میکنن؟ برای چه مدت؟ آیا فایلهای ورودی ذخیره میشن؟
در اینجا مقایسهای بین سیاستهای دو سرویس مورد نظر خواهیم داشت. (از اینجا به بعد، مقایسههای من بین جزییات تحلیلگر لحن IBM (IBM Tone Analyzer API) و تحلیلگر متن ParallelDots (ParallelDots Text Analysis Emotion API در باکسهای خاکستری مانند زیر نشون داده میشه)
تحلیلگر لحن IBM (IBM Tone Analyzer API): وقتی حساب کاربر توسعه دهندهتون رو میسازید، IBM سیاستهای حریم خصوصیاش رو به شما نشون میده که از بازدید وبسایت گرفته تا خدمات ابری رو شامل میشه. بعضی از چیزایی که میگن یک مقدار مبهمه. برای مثال:
«IBM ممکن است اطلاعات شخصی شما را با شرکای منتخب مطرح کند تا به کمک آنها به شما سرویس ارائه...» اما شرکاشون چه کسانی هستن؟
یا «ما اطلاعات شخصی شما را بیش از زمانی که لازم باشد که به اهداف مورد نظر برسیم نگهداری نمیکنیم». «بیش از زمانی که لازم باشد» یعنی چهقدر؟
اگه میخواین اطلاعات مخصوص به جمعآوری داده و نگهداریشون توسط API تحلیلگر لحن رو بدونید به قسمت مستندات (document page) مراجعه کنید. بعضی اطلاعات مفیدی که دادن اینهاست:
. لیست درخواستها (request loggings) در تحلیلگر لحن غیرفعال شده.
. این سرویس دادههای مربوط به درخواستها و پاسخها رو لیستبندی یا ذخیره نمیکنه.
. این سرویس «اطلاعات کاربران را پردازش میکند اما آن را ذخیره نمیکند. کاربران تحلیلگر لحن نیازی به احراز هویت، حفاظت و یا حذف اطلاعات خود از این سرویس ندارند».
ParallelDots: وب سایت ParallelDots ادعا میکنه این مجموعه «از دادههای شما محافظت میکند و مفاد قرارداد GDPR را کلمه به کلمه اجرا میکند». ولی توضیح بیشتری داده نشده. کدوم دادهها؟ ابردادهها (metadata) یا اطلاعات توسعه دهنده یا اطلاعات کاربری؟
شرایط استفاده از خدمات ParallelDots میگه «شما نمیتوانید از این سرویس به هدف مانیتورینگ، بازدهی یا کارایی یا دیگر اهداف مقایسهی شرکتها با یکدیگر و رقابت استفاده کنید». این خیلی برای من عجیبه. این یعنی من همین الان با نوشتن این پست شرایط استفاده از خدماتشون رو نقض کردم؟
اگه شرکتی مستنداتی مانند Model Card for Model Reporting رو برای یک مدل یادگیری ماشین بهخصوص تهیه کرده باشه، قبل از استفادهی سرویس اون رو مطالعه کنید. مستندات API رو مطالعه کنید و دنبال اطلاعات دربارهی امنیت API، تحقیقات پیش-زمینهای، دادههای آموزشی، معماری و الگوریتمها و معیارهای سنجش مدل بگردید.
? امنیت API
در چند سال گذشته مثالهای زیادی از درز اطلاعات استفاده شده در APIهای ناامن اتفاق افتاده. این وظیفهی تامینکنندهی API هست که نقاط ضعف امنیتی رو برطرف کنه، درخواستهای مشکوک رو شناسایی کنه و مخابرهها رو رمزگذاری کنه. حتما مطمئن بشید که تامین کنندهی API این مسائل امنیتی رو رعایت کرده باشه- برای اطلاعات بیشتر دربارهی امنیت APIها اینجا رو بخونید.
در زیر مقایسهی دیگری بین امنیت API ها برای دو سرویس مورد نظرمون انجام شده:
تحلیلگر متن IBM: پیشنهاد IBM به توسعه دهندگان اینه که از IBM Cloud Activity Tracker with LogDN برای مانیتورینگ فعالیتهایی که در حساب کاربری ابری اتفاق میافته استفاده کنند و فعالیتهای مشکوک رو بررسی کنند.
برای افتتاح حساب از شما خواسته میشه پسورد قویای انتخاب کنید و برای شما یک کد تایید فرستاده میشه تا به حساب کاربری توسعه دهندهتون تایید بشه.
ParallelDots: اطلاعاتی راجع به امنیت API در صفحه مستنداتش موجود نیست. توسعه دهندگان موقع ثبت نام لازم نیست پسورد قویای انتخاب کنند، البته ParallelDots برای شما یک ایمیل تاییدیه میفرسته تا حساب کاربری¬تون رو تایید کنه.
? مدل دقیق و جامع.. اما برای چه گروهی؟
در داستان «روشن و دوستداشتنی» زبان نقش بسیار مهمی رو ایفا میکنه. توییتهایی که فقط به زبان انگلیسی نوشته شده نمیتونه درک درستی از گفتگوهای مربوط به این کمپین که در هندوستان اتفاق افتاده به ما بده چون این محصول منحصر به یک زبان نیست.
مستندات API مدنظرتون رو چک کنید و ببینید زبان دیگری رو پشتیبانی میکنه یا خیر. اگه جواب مثبته، میزان دقتش برای زبانهای مختلف به چه شکله؟ سرویس دهندهها معمولا ادعا میکنند که زبانهای مختلفی رو پشتیبانی میکنند اما اطلاعاتی راجع به دقت مدل و معیارهای محاسبه برای هر زبان بهخصوص رو ارائه نمیدن. مستندات API و تحقیقات زمینهای رو زیر و رو کنید، تا بفهمید معیارهاشون برای هر زیرگروه چیه.
در مورد موضوع مدنظرمون من این موارد رو پیدا کردم:
تحلیلگر لحن IBM: این شرکت ۱۱ زبان پشتیبانی شده رو لیست کرده. البته، هیچ اطلاعات دقیقتری راجع به دقت یا معیارهای دیگهی محاسبه برای زبانهای مختلف ارائه نشده.
ParallelDots: این شرکت هم ۱۴ زبان پشتیبانی شده رو لیست کرده. و هیچ اطلاعات بیشتری دربارهی دقت یا معیارهای محاسبه برای زبانهای مختلف ارائه نکرده.
❗️باید و نبایدهای استفاده از مدل
بعضی از شرکتها شما رو دربارهی کاربردهای پیشنهادی خدماتشون راهنمایی میکنند، مثلا میگن این محصول به درد آنالیز کامنتها و ریووهای مربوط به محصولتون یا بازاریابی میخوره. اما بعضی وقتها این کاربردها خطرناک یا غیراخلاقی اند و منجر به تبعیض بین گروههای اجتماعی مختلف، تجسس بیجا و نقض حریم خصوصی میشن. این شرکتها باید در مورد مواردی که توسعه دهنده نباید از خدمات اونها استفاده کنه هم شفاف عمل کنند (هر چند که این موضوع باید و نبایدها پیچیدگیهای زیادی داره...)
تحلیلگر متن IBM: موارد پیشنهادی استفاده ایناست: بررسی رضایت مشتری در فرومهای پشتیبانی؛ بررسی رضایت مشتری در پاسخهای توییتر؛ پیشبینی و جفت کردن کسانی که در اپلیکیشنهای زوجیابی آنلاین شرکت میکنن؛ پیشبینی احساسات و تشویقها در سخنرانیهای TED. چیزی دربارهی موارد عدم استفاده گفته نشده.
سرویس ParallelDots: دو مورد پیشنهادی استفاده از این سرویس وجود داره: «شناسایی منتقدین و بدگویان به منظور بهبود خدمات برای آنها» و «زیرنظر داشتن برند». چیزی دربارهی موارد عدم استفاده گفته نشده.
⚖️ سوگیری و برابری
در چند سال گذشته محققین و متخصصان راجع به به سوگیریها و پیامدهای تبعیضآمیز سیستمهای یادگیری ماشین هشدارهایی دادند. متخصصین این حوزه که معمولا روی fairness, accountability, and transparency in machine learning کار میکنن جعبهابزارهای (Toolkit) بیشماری ارائه کردن تا شرکتها بتونن موارد مربوط به حقوق کاربران رو در محصولات مبتنی بر یادگیری ماشینشون ارزیابی کرده و در مورد ریسکهای اجتماعی ممکن شفاف عمل کنند. در اینجا یه لیستی درست کردم از جعبهابزارها، مقالات و نوآوریهای موجود در زمینهی سوگیری و عدالت.
تحلیلگر متن IBM: IBM یک سری اطلاعات راجع به تحقیقات پیشزمینهای، روند جمعآوری داده (دادهی توییتر)،و روش تفسیر دادهها در اختیار شما میذاره. البته اشارهای به پیامدهای تبعیضآمیز محتمل نمیکنه و هیچ اطلاعات دقیقتری راجع به ساختار جمعیتی و اندازهگیری بر اساس زیرگروههای متفاوت (زبانی، جنسیتی، سنی و غیره) به ما نمیده.
نکتهی جالب: محققین IBM خودشون یکی از پیشگامان ارائهی جعبه ابزارهای fairness هستن (سری به IBM 360 بزنین). مثلا یکی از پیشنهادات خودشون این بوده که برای هر مدل ML از فکتشیت استفاده بشه تا منبع دادهها ، جزییات مدلها، و موارد استفاده مشخص بشه. اما وقتی مدل و محصول خودشون رو میبینی نشانی از همچین اطلاعاتی در صفحات محصول نیست. این داستان من رو یاد این شعر نظامی انداخت:
عیب کسان منگر و احسان خویش دیده فرو کن به گریبان خویش
ParallelDots: هیچ اطلاعاتی دربارهی سوگیری و رعایت عدالت پیدا نکردم.
? نگهداری و به روز رسانی
تحلیلگر متن IBM: این شرکت به طور مداوم خدمات خودش رو به روز رسانی میکنه و اطلاعاتی دربارهی آپدیتها در اختیار شما میذاره. البته در بعضی آپدیتها از جملات مبهم و کلیای مثل «همچنین در این آپدیت تغییرات داخلی انجام شد و بهبود یافت» استفاده شده، این تغییرات داخلی چی هستن؟
ParallelDots: نتونستم اطلاعاتی دربارهی به روز رسانی و نگهداری پیدا کنم.
? فرومهای توسعهدهندگان
فرومهای توسعه دهندگان (در Slack Workspace، Stack Overflow، GitHub، و غیره) به توسعهدهندهها کمک میکنند تا بازخوردها رو باهم به اشتراک بگذارن، با همدیگه و خدمات دهنده ارتباط برقرار کنن، و راجع به مسائل مختلفی مثل حریم خصوصی، امنیت، سوگیری و عدالت، توضیحپذیexplainabilitylity) یک محصول مشخص و در یک حوزهی خاص با هم مباحثه کنند.
تحلیلگر متن IBM: IBM Watson یه Slack Workspace داره و فروم توسعهدهندگان Stack Overflow. صفحهی GitHub تحلیلگر لحن رو میتونید اینجا ببینید.
ParallelDots: این شرکت هم یک صفحهی GitHub داره.
پیشنهاداتی به توسعه دهندگان
پیشنهاداتی به سرویسدهندگان API یادگیری ماشین
درسته که تمرکز این مقاله روی توسعهدهندگان شخص ثالثه و نه روی سرویسدهندگان. اما برای اینکه بدونیم مسئولیتهای مهم سرویسدهندگان در قبال اطلاع رسانی به توسعه دهندگان چیه، میشه گفت:
پیشنهاداتی به منتقدین ML و فعالان حوزهی حقوق بشر و تکنولوژی
حرفهای زیادی دربارهی دموکراتیزه کردن فناوریهای دیجیتال به گوش میرسه. همینطور دربارهی تعامل متقابل
(interoperability) خدمات دیجیتال. اینها خیلی خوبه. اما به همراهش نوع جدیدی از تعاملات، جریان اطلاعات، و مالکیت و تسلط بر داده به وجود میاد.
هدف این مقاله ایجاد آگاهی دربارهی اهمیت این ارتباطات و نقشآفرینهاییه که معمولا نادیده گرفته میشن. برای توسعهدهندهها، که قبل از اینکه این APIها رو با نرمافزار خودشون تلفیق کنن، به مسئولیتهای این کار فکر کنن. همینطور برای محققین سیاستگذاریهای تکنولوژی که این مسائل را تشریح کنن و یک راهنمای عملی برای کمک به بازیگران به ظاهر کوچک این دنیای داده-محور تهیه کنن.
کار من تحقیق روی تاثیرات اجتماعی و حقوق بشری فناوریهای جدیده. اگر سوالی داشتید برای من ایمیل بفرستید (rpakzad@taraazresearch.org) یا تو توییتر پیام بدید. خوشحال میشم باهاتون صحبت کنم. آدرس وبسایت ما هم اینجاست: taraazresearch.org