چرا کودکان به محافظت ویژه در برابر تاثیر هوش مصنوعی نیاز دارند

منتشرشده در MIT Technology Review به تاریخ ۱۷ سپتامبر ۲۰۲۰
لینک مقاله اصلی: Why kids need special protection from AI’s influence

الگوریتم‌ها می‌توانند مسیر زندگی کودکان را تغییر دهند. کودکان در حال تعامل با الکساهایی هستند که می‌توانند داده‌های صوتی آن‌ها را ثبت کرده و بر گفتار و رشد اجتماعی آن‌ها تاثیر بگذارند. آن‌ها ویدیوهایی را در تیک‌تاک و یوتیوب می‌بینند که با سیستم‌های توصیه‌کننده‌ به آن‌ها پیشنهاد شده و منجر به شکل‌گیری جهان‌بینی آن‌ها می‌شود.

الگوریتم‌ها همچنین به طور فزاینده‌ای برای تعیین این که تحصیل آن‌ها چگونه است، آیا آن‌ها مراقبت بهداشتی دریافت خواهند کرد یا خیر، و حتی اینکه آیا والدین آن‌ها برای مراقبت از آن‌ها مناسب هستند یا خیر، مورد استفاده قرار می‌گیرند. گاهی اوقات این می‌تواند اثرات مخربی داشته باشد: به عنوان مثال در تابستان گذشته، هزاران دانشجو بعد از اینکه الگوریتم‌ها - که به جای آزمون‌های استاندارد لغو شده جهانی مورد استفاده قرار گرفتند - به طور نادرست عملکرد تحصیلی آن‌ها را پیش‌بینی کردند، پذیرش دانشگاه خود را از دست دادند.

به عبارت دیگر، کودکان اغلب در زمینه مورد استفاده قرار گرفتن و استفاده از هوش مصنوعی در خط مقدم هستند و این می‌تواند آن‌ها را در موقعیتی قرار دهد که آسیب ببینند. استیو ووسلو، یک متخصص خط‌مشی برای ارتباط دیجیتالی در یونیسف، صندوق کودکان سازمان ملل متحد می‌گوید: « از آنجایی که آن‌ها از نظر فکری و عاطفی و جسمی در حال توسعه هستند، بسیار انعطاف‌پذیرند.»

ووسلو تهیه پیش‌نویس مجموعه جدیدی از دستورالعمل‌های یونیسف را رهبری کرد که برای کمک به دولت‌ها و شرکت‌ها برای توسعه سیاست‌های هوش مصنوعی‌ای طراحی شده‌بود که نیازهای کودکان را در نظر می‌گیرد. این ۹ دستورالعمل جدید که در ۱۶ سپتامبر منتشر شدند، نقطه اوج رایزنی‌های متعدد با سیاست گذاران، محققان توسعه کودکان، متخصصان هوش مصنوعی، و کودکان سراسر جهان هستند. آن‌ها همچنین کنوانسیون حقوق کودک سازمان ملل متحد که در سال ۱۹۸۹ به تصویب رسید را مورد توجه قرار می‌دهند.

این دستورالعمل‌ها به معنای مجموعه دیگری از اصول هوش مصنوعی، که بسیاری از آن‌ها چیزهای مشابهی می‌گویند، نیستند. در ژانویه امسال، بررسی مرکز هاروارد برکمن کلین از ۳۶ سند برجسته راهنمای استراتژی‌های هوش مصنوعی ملی هشت موضوع مشترک یافت-که در میان آن‌ها حریم خصوصی، ایمنی، انصاف و قابلیت توضیح وجود دارد.

در عوض، دستورالعمل‌های یونیسف برای تکمیل این موضوعات موجود و تطبیق آن‌ها با کودکان است. برای مثال، سیستم‌های هوش مصنوعی نباید فقط قابل توضیح باشند-آن‌ها باید برای کودکان قابل توضیح باشند. آن‌ها همچنین باید نیازهای منحصر به فرد رشد کودکان را در نظر بگیرند. ووسلو می‌گوید: «کودکان حقوق بیشتری نسبت به بزرگسالان دارند.» همچنین تخمین زده شده‌است که آن‌ها حداقل یک سوم کاربران آنلاین را تشکیل می‌دهند. او اشاره می‌کند: «ما در اینجا درباره یک گروه اقلیت صحبت نمی‌کنیم.»

علاوه بر کاهش آسیب‌های هوش مصنوعی، هدف از این اصول تشویق توسعه سیستم‌های هوش مصنوعی است که می‌توانند رشد و رفاه کودکان را بهبود بخشند. برای مثال نشان‌داده شده‌است که ابزارهای یادگیری مبتنی بر هوش مصنوعی، اگر به خوبی طراحی شده‌باشند، تفکر انتقادی و مهارت‌های حل مساله کودکان را بهبود می‌بخشند و می‌توانند برای کودکان با ناتوانی‌های یادگیری مفید باشند. دستیاران احساسی هوش مصنوعی، با وجود اینکه نسبتا نوپا هستند، می‌توانند از سلامت روانی حمایت کنند و ثابت شده‌است که مهارت‌های اجتماعی کودکان اوتیسمی را بهبود می‌بخشند. تشخیص چهره، که با محدودیت‌های دقیق مورد استفاده قرار می‌گیرد، می‌تواند به شناسایی کودکانی که ربوده‌شده یا قاچاق شده‌اند، کمک کند.

کودکان همچنین باید در مورد هوش مصنوعی آموزش ببینند و تشویق شوند که در توسعه آن مشارکت کنند. وسلوو می‌گوید: مساله فقط حفاظت از آن‌ها نیست. بلکه درباره قدرت بخشیدن به آن‌ها و دادن مسئولیت به آن‌ها برای شکل دادن به آینده شان است.

یونیسف تنها سازمانی نیست که به این مساله فکر می‌کند. یک روز پیش از انتشار این دستورالعمل‌های پیش‌نویس، آکادمی اطلاعات مصنوعی پکن، سازمانی با حمایت وزارت علوم و فن‌آوری چین و دولت شهری پکن، مجموعه‌ای از اصول هوش مصنوعی را برای کودکان نیز منتشر کرد.

این بیانیه یک سال پس از انتشار اصول هوش مصنوعی در پکن منتشر شد که به عنوان ارزش‌های راهنما برای توسعه هوش مصنوعی ملی چین شناخته می‌شود. یی زنگ، مدیر مرکز تحقیقات اخلاق هوش مصنوعی و توسعه پایدار در BAAI که رهبری تهیه پیش‌نویس را بر عهده داشت، می‌گوید که اصول جدیدی که به طور خاص برای کودکان ذکر شده‌اند، «اجرای واقعی» اصول عمومی‌تر هستند. آن‌ها از نزدیک با دستورالعمل‌های یونیسف، و همچنین حریم خصوصی، انصاف، قابلیت توضیح و رفاه کودک هم سو هستند، گرچه برخی از جزئیات بیشتر مختص موضوعات چین است. بطور مثال یک راهنمای بهبود سلامت فیزیکی کودکان شامل استفاده از هوش مصنوعی برای کمک به رفع آلودگی‌های زیست‌محیطی می‌شود.

در حالی که این دو تلاش به طور رسمی مرتبط نیستند، زمان‌بندی آن‌ها نیز تصادفی نیست. پس از سیل اصول هوش مصنوعی در چند سال گذشته، هر دو طراح اصلی می‌گویند که ایجاد دستورالعمل‌های مناسب‌تر برای کودکان گام منطقی بعدی بود. زنگ می‌گوید: «در مورد گروه‌های محروم صحبت می‌کنیم، البته کودکان محروم‌ترین هستند. به همین دلیل است که ما واقعا باید مراقب این گروه از مردم باشیم». تیم‌ها در حین تهیه پیش‌نویس اسناد مربوطه با یکدیگر دیدار کرده‌اند. وقتی یونیسف یک کارگاه مشاوره در شرق آسیا برگزار کرد، زنگ به عنوان سخنران شرکت کرد.

در حال حاضر یونیسف در نظر دارد یک سری برنامه‌های آزمایشی با کشورهای شریک مختلف اجرا کند تا مشاهده کند که دستورالعمل‌های آن‌ها تا چه حد در زمینه‌های مختلف عملی و موثر هستند. BAAI یک گروه کاری با نمایندگانی از برخی از بزرگ‌ترین شرکت‌هایی که استراتژی ملی هوش مصنوعی کشور را هدایت می‌کنند، تشکیل داده‌است که عبارتند از شرکت فن‌آوری آموزش TAL، شرکت لوازم الکترونیک مصرفی شیائومی، شرکت بینایی کامپیوتری Megvii، و غول اینترنت Baidu. امید است که آن‌ها شروع به رعایت اصول در محصولات خود کنند و بر شرکت‌ها و سازمان‌های دیگر نیز تاثیر بگذارند تا همین کار را انجام دهند.

ووسلو و زنگ امیدوارند که با بیان مسائل منحصر به فردی که هوش مصنوعی برای کودکان ایجاد می‌کند، این دستورالعمل‌ها باعث افزایش آگاهی در مورد این مسائل شود. ووسلو می‌گوید: « ما با چشمان باز وارد این ماجرا می‌شویم. ما می‌دانیم که این نوعی از حوزه جدید برای بسیاری از دولت‌ها و شرکت‌ها است.» بنابراین اگر با گذشت زمان شاهد نمونه‌های بیشتری از شرکت کودکان در هوش مصنوعی یا چرخه سیاست گذاری توسعه باشیم و مراقبت بیشتر در مورد نحوه جمع‌آوری و تحلیل داده‌های آن‌ها را ببینیم-اگر ببینیم هوش مصنوعی برای کودکان یا مراقبان آن‌ها قابل توضیح‌تر شده است-برای ما یک پیروزی خواهد بود.

این متن با استفاده از ربات ترجمه مقاله علمی ترجمه شده و به صورت محدود مورد بازبینی انسانی قرار گرفته است.در نتیجه می‌تواند دارای برخی اشکالات ترجمه باشد.