هرگز غول را از شیشه در نیاورید!

اثر: یووال نوح هراری

ترجمه: مسعود شایگان

این مقاله در تاریخ 24 آگوست سال 2024 در وب سایت نشریه گاردین منتشر شده است.

شرکتها و دولتهای زیادی در حال رقابت هستند تا قدرتمندترین فناوری اطلاعاتی تاریخ را توسعه دهند. » عکس: دیوید وینتنر
شرکتها و دولتهای زیادی در حال رقابت هستند تا قدرتمندترین فناوری اطلاعاتی تاریخ را توسعه دهند. » عکس: دیوید وینتنر


در سرتاسر تاریخ، بسیاری از سنتها بر این باور بوده اند که در ماهیت ما انسانها، نقصی مهلک نهفته است. این نقص ما را وا می دارد و وسوسه میکند که به دنبال قدرت هایی برویم که توان و دانش اداره و کنترل آن را

نداریم. در یک اسطوره یونانی به نام فایتون، درباره پسری صحبت شده است که درمی یابد که فرزند هلیوس، خدای خورشید است. فایتون برای اثبات منشاء الهی خود،از پدرش میخواهد که امتیاز راندن ارابه خورشید را

به او بدهد. هلیوس به فایتون هشدار میدهد که هیچ انسانی نمی تواند اسبهای آسمانی او را کنترل کند. اما فایتون اصرار می ورزد، تا اینکه هلیوس تسلیم میشود. پس از افتخار برخاستن و راندن ارابه خورشید در آسمان،

فایتون واقعاً کنترل ارابه را از دست میدهد. خورشید از مسیر منحرف میشود، همه ی پوشش های گیاهی را می سوزاند، موجودات زیادی را به کام آتش میکشد و کار بدانجا میکشد که نزدیک است زمین را هم بسوزاند. در

اینجا زئوس مداخله میکند و فایتون را با یک صاعقه ناگهانی میزند. فایتون یا همان انسان مغرور مانند یک ستاره در حال افول از آسمان سقوط میکند و می سوزد. خدایان کنترل آسمان را دوباره به دست میگیرند و جهان را

نجات میدهند.

دو هزار سال بعد، یعنی هنگامی که انقلاب صنعتی اولین گامهای خود را برمیدارد و ماشینها،رفته رفته به جایگزینی انسانها گمارده میشوند، یوهان ولفگانگ فون گوته، شاعر آلمانی، داستان هشداردهندهِ مشابه ای، با

عنوان«شاگرد جادوگر » را منتشر میکند. در این قصه، گوته داستان یک جادوگرقدیمی را روایت میکند که شاگرد جوانی را مسئول کارگاه خود میکند و به او وظیفه انجام برخی کارها، مانند آوردن آب از رودخانه را

واگذار میکند. شاگرد تصمیم میگیرد این کارها را برای خود آسان کند و روزی در غیاب جادوگر با استفاده از یکی از افسون های وی، جارویی را سِحر میکند تا آب را بصورت خودکار برای او بیاورد. اما در ادامه

شاگرد نمیداند چگونه جلوی این جاروی سحرآمیز را بگیرد که به طور مداوم آب بیشتری می آورد و نزدیک است که کارگاه را غرق کند. شاگردِ جادوگر که وحشت کرده است، این جاروی افسون شده را با تبر به دو نیم

میکند، اما هر نیمه به یک جاروی مستقل تبدیل میشود. اکنون دو جارویِ جادو شده در حال غرق کردن کارگاه هستند. وقتی استاد جادوگر بازمیگردد، شاگرد برای کمک التماس میکند، و میگوید: « من ارواحی که احضار

کرده ام را نمی توانم از خود دور کنم. » جادوگر بلافاصله افسون را میشکند و سیل را متوقف میکند. درس جادوگر به شاگرد و همچنین به بشریت روشن است: هرگز قدرتهایی را که نمیتوانید کنترل کنید را آزاد نکنید.

این داستان های هشداردهنده، در معنای امروزین و در قرن بیست و یکمی آن، چه چیز را به ما گوشزد میکنند؟ آنچه مشخص است، به طور واضح، ما انسانها از توجه به هشدارهای این داستانها خودداری کرده ایم. ما

از قبل،تعادل آب و هوای زمین را به هم زده ایم و میلیاردها و میلیاردها جاروی جادوشده، پهپاد، چت بات و سایر ارواح الگوریتمی را فراخوانده ایم. اینها ممکن است از کنترل خارج شوند و سیلِ نتایج ناخواسته ا ی را،

به راه بیندازند. پس چه باید بکنیم؟ داستان ها هیچ پاسخی و هیچ راه حلی، به جز انتظار برای نجات توسط یک خدا، یا یک جادوگر نجات بخش را به ما ارائه نمیدهند.

افسانه فایتون و شعر گوته نمی توانند مشاوره مفیدی ارائه دهند زیرا روش دستیابی انسانها به قدرت را به اشتباه درک میکنند. در هر دو افسانه، یک انسان منفرد، قدرت زیادی به دست میآورد، اما سپس همین انسان توسط

قدرت به همراه تکبر و طمع، فاسد میشود. نتیجه گیری این داستان ها آن است که روانشناسی فردی معیوب ما باعث میشود که از قدرت، سوءاستفاده کنیم. اما آنچه این تحلیل های خام در نظر نمیگیرد، این است که قدرت

انسان هرگز نتیجه ابتکار فردی نیست. قدرت همیشه از همکاری بین تعداد زیادی از انسانها ناشی میشود. بنابراین، این روانشناسی فردی ما نیست که باعث میشود از قدرت سوءاستفاده کنیم. گذشته از آن، در کنار

طمع، تکبر و بیرحمی انسانها، آنها قادر به عشق ورزیدن، همدلی، فروتنی و شادی هستند. درست است که در میان بدترین اعضای گونه ما، طمع و بیرحمی حاکم است و بازیگران بد را به سوءاستفاده از قدرت سوق

میدهد. اما چرا جوامع انسانی باید تصمیم بگیرند که قدرت را به بدترین اعضای خود بسپارند؟برای مثال بیشتر آلمانی ها در سال 1933 ، روانپریش نبودند. پس چرا آنها به هیتلر رای دادند؟

تمایل ما به فراخواندن قدرتهایی که کنترل آن از توانایی ما خارج است، نه از روانشناسی فردی، بلکه از روش منحصر به فردِ همکاری گونه ما، در ابعاد بسیار بزرگ نشأت میگیرد. بشریت قدرت بسیار زیادی را با،

برساختن شبکه های بزرگ همکاری به دست می آورد. اما نحوه ساختن این شبکه ها، ما را به استفاده نادرست از قدرت متمایل میکند. بیشتر شبکه های ما با گسترش افسانه ها،خیالات و توهمات جمعی- از جاروهای

طلسم شده گرفته تا سیستم های مالی-ساخته و پرداخته شده اند. بنابراین، مشکل ما یک مشکل شبکه های است. به طور خاص، یک مشکل اطلاعاتی است. زیرا اطلاعات چسبی است که شبکه ها را به هم پیوند میزند و

وقتی افراد اطلاعات بدی دریافت میکنند، احتمالاً تصمیمات بدی هم میگیرند، مهم نیست که چقدر خودشان خردمند و مهربان باشند.

در نسلهای اخیر، بشریت بزرگترین افزایش را در هم حجم و هم سرعت تولید اطلاعات تجربه کرده است. هر یک از گوشی های هوشمند ما حاوی اطلاعات بس بسیار بیشتری نسبت به کتابخانه باستانی اسکندریه است

و به مالکان آن این امکان را میدهند که آناًن با میلیاردها نفر دیگر در سرتاسر جهان ارتباط برقرار کنند. با این حال، با وجود تمام این اطلاعاتی که با سرعتهای نفسگیر در گردش و سیر و سفر است، بشریت بیش از

هر زمان دیگری به نابودی خود نزدیک شده است. و ما علیرغم -یا شاید به دلیل- انبوه داده های خود، همچنان گازهای گلخانه ای را به جو زمین منتشر میکنیم، رودخانه ها و اقیانوس ها را آلوده و جنگلهایمان را قطع

میکنیم و کل زیستگاه های جانوری را به سوی نابود سوق میدهیم وگونه های بیشماری را به معرض انقراض میکشانیم و پایه های اکولوژیکی گونه خود را به خطر می اندازیم. ما همچنین ساحل های کشتار جمعی قویتر و

بیشتری تولید میکنیم، از بمب های گرما هسته ای تا ویروسهای آخرالزمانی! رهبران ما از اطلاعات در مورد این خطرات بی خبر نیستند، اما به جای همکاری برای یافتن راه حل ها، آنها همه ما را به سمت یک جنگ جهانی

بزرگ رهنمون میسازند.


آیا داشتن اطلاعات بیشتر اوضاع را بهتر میکند یا بدتر؟ به زودی خواهیم فهمید. بسیاری از شرکت ها و دولت ها در حال رقابت برای توسعه قوی ترین فناوری اطلاعاتی در تاریخ یعنی هوش مصنوعی هستند. برخی از

کارآفرینان برجسته، مانند سرمایه گذار آمریکایی مارک اندریسن، معتقدند که هوش مصنوعی سرانجام همه مشکلات بشریت را حل خواهد کرد. وی در تاریخ شش ژوئن سال 2023 ، مقاله ای با عنوان «چرا هوش

مصنوعی جهان را نجات خواهد داد » منتشر کرد که با اظهارات جسورانه ای مانند: «من اینجا هستم تا خبر خوش را بیاورم: هوش مصنوعی جهان را نابود نخواهد کرد، بلکه ممکن است آن را نجات دهد. » او در

مقاله خود نتیجه گیری کرد: «توسعه و گسترش هوش مصنوعی، به دور از خطراتی که باید از آن بترسیم، یک وظیفه اخلاقی است که ما به خود، فرزندانمان و آینده مان، بدهکاریم.

برخی دیگر بیشتر شکاک هستند. نه تنها فیلسوفان و دانشمندان اجتماعی، بلکه بسیاری از کارشناسان برجسته هوش مصنوعی و کارآفرینان مانند یوشوابنجیو، جفری هینتون، سم آلتمن، ایلان ماسک و مصطفی سلیمان،

هشدار داده اند که هوش مصنوعی میتواند تمدن ما را نابود کند. در یک نظرسنجی در سال دوهزار و بیست و سه از 2778 محقق هوش مصنوعی، بیش از یک سوم از آنها، حداقل ده درصد احتمال داده اند که هوش

مصنوعی پیشرفته، منجر به نتایج بد و ناخواسته ای به بدی انقراض انسان میشود. سال گذشته، نزدیک به سی دولت، از جمله چین، ایالات متحده و بریتانیا، اعلامیه بلچلی درباره هوش مصنوعی را امضا کردند که

اذعان داشت «پتانسیل آسیب جدی، حتی فاجعه بار، به صورت عمدی یا غیرعمدی از قابلیتهای مهم این مدلهای هوش مصنوعی وجود دارد. » با استفاده از چنین اصطلاحات آخرالزمانی، کارشناسان و دولتها هیچ

تمایلی به ایجاد تصاویری از رباتهای شورشی که در خیابانها میدوند و به مردم شلیک میکنند، را ندارند. چنین سناریویی بعید است و تنها توجه مردم را از خطرات واقعی را منحرف میکند.

هوش مصنوعی تهدیدی بی سابقه برای بشریت است زیرا اولین فناوری در تاریخ است که میتواند، خود تصمیم بگیرد و ایده های جدید ایجاد کند. همه اختراعات بشری قبلی، انسانها را توانمند کرده اند، زیرا مهم نبود

که ابزار جدید چقدر قدرتمند بود، تصمیمات در مورد استفاده از آن همچنان در دست ما باقی می ماند. بمبهای هسته ای نه خودشان تصمیم میگیرند که چه کسی را بکشند، و نه میتوانند خود را بهبود دهند یا بمب هایی،

قویتر از خود، اختراع کنند. در مقابل، پهپادهای خودمختار و مبتنی بر هوش مصنوعی میتوانند خود تصمیم بگیرند که چه کسی را بکشند و هوش مصنوعی میتواند طراحی بمبهای جدید، استراتژی های نظامیِ بی سابقه و

هوش های به مراتب پیشرفته تر را برنامه ریزی کند. هوش مصنوعی یک ابزار نیست، یک عامل است. بزرگترین تهدید هوش مصنوعی این است که ما تعداد زیادی عوامل جدید و قدرتمند را به زمین مان فرا می خوانیم که

پتانسیل بیشتری برای هوش و تخیل نسبت به ما دارند و ما به طور کامل آنها را درک یا کنترل نمی کنیم.

در چند دهه آینده، احتمالاً هوش مصنوعی حتی توانایی ایجاد اشکال جدید زندگی را به دست خواهد آورد.


به طور سنتی، اصطاح «هوش مصنوعی » به عنوان یک سرواژه برای هوش مصنوعی استفاده شده است. اما شاید بهتر باشد به آن به عنوان هوش بیگانه فکر کنیم. همانطور که هوش مصنوعی در آینده و در طول زمان

تکامل مییابد، کمتر مصنوعی به معنای وابسته به طراحی های انسانی(و بیشتر بیگانه میشود. بسیاری از مردم سعی میکنند هوش مصنوعی را با استفاده از معیار «هوش بر مبنای انسانی » اندازه گیری و حتی تعریف

کنند و بحث زنده ای درباره زمان انتظار ما برای رسیدن هوش مصنوعی به این سطح هوش انسانی وجود دارد. این معیار بسیار گمراه کننده است. این مانند تعریف و ارزیابی هواپیماها با استفاده مقایسه آن «بر مبنای

پرواز پرندگان » است. هوش مصنوعی به سمت «هوش بر مبنای انسانی » پیش نمی رود. بلکه نوعی هوش بیگانه را تکامل میدهد.

حتی در حال حاضر که در مرحله جنینی انقلاب هوش مصنوعی هستیم، رایانه ها درباره ما تصمیم گیری میکنند – آیا به ما وام مسکن بدهند، ما را برای شغلی استخدام کنند، ما را به زندان بفرستند و...-. در همین حال،

هوش های مصنوعیِ کاربردی ای مانند «چت جی پی تی نسخه چهار » در حال حاضر اشعار، داستانها و تصاویر جدیدی برای ما خلق میکند. این روند در طول زمان افزایش و تسریع خواهد یافت و درک زندگی بشری

خودمان را دشوارتر خواهد کرد. آیا می توانیم به الگوریتم های رایانه ای اعتماد کنیم که تصمیمات عاقلانه بگیرند و جهانی بهتر ایجاد کنند؟ این یک قمار بزرگتر از اعتماد به جاروی سحرآمیز گوته برای آوردن آب

است. و این بیش از زندگی انسان هاست که ما بر روی آن قمار میکنیم. هوش مصنوعی در حال حاضر قادر به تولید هنر و انجام کشفیات علمی توسط خودش است. در چند دهه آینده، احتمالاً توانایی حتی ایجاد اشکال

جدید زندگی را به دست خواهد آورد، یا از طریق نوشتن کدهای ژنتیکی، یا با اختراع کدهای غیرآلی که موجودات غیرآلی را جان بخشی میکنند!. بنابراین هوش مصنوعی میتواند مسیرِ نه تنها تاریخ گونه ما، بلکه

تکامل همه اشکال زندگی را تغییر دهد.

مصطفی سلیمان یک کارشناس برجسته در زمینه هوش مصنوعی است. او یکی از بنیانگذاران دیپ مایند، یکی از مهمترین شرکتهای هوش مصنوعی جهان است که مسئول توسعه برنامه «آلفاگو » و دیگر دستاوردهای این

شرکت است. آلفاگو برای بازی « گو » طراحی شده است، یک بازی تخته ای استراتژیک که در آن دو بازیکن سعی میکنند با محاصره و تصرف قلمرو، یکدیگر را شکست دهند. این بازی که در چین باستان اختراع شد،

بسیار پیچیده تر از شطرنج است. در نتیجه، حتی پس از اینکه رایانه ها، قهرمانان جهانی شطرنج انسانی را شکست دادند، کارشناسان هنوز معتقد بودند که رایانه ها هرگز در بازی گو از انسانها برتر نخواهند شد.

به همین دلیل، هر دو: یعنی حرفه ای های بازی گو و کارشناسان رایانه در ماه مارس سال 2016 شگفت زده شدند وقتی هوش مصنوعی آلفاگو قهرمان انسانی بازی گو از کره جنوبی را شکست داد. نام این قهرمان لی سدول بود.

مصطفی سلیمان در کتاب سال 2023 خود با عنوان «موج آتی » یکی از مهمترین لحظات این مسابقه راتوصیف میکند. لحظه ای که قابلیتهای هوش مصنوعی دوباره باز تعریف شد و در بسیاری از محافل علمی و

دولتی به عنوان نقطه عطفی، مهم در تاریخ شناخته میشود. این اتفاق در طول بازی دوم در مسابقه، در ده مارس 2016 رخ داد.سلیمان مینویسد: «سپس ... حرکت شماره 37 اتفاق افتاد.که به نظرمی آمد که هیچ معنایی ندارد! آلفاگو با استراتژی که هیچ بازیکن حرفه ای دنبال نمیکند، اینطور به نظر می رسید که اشتباه کورکورانه ای انجام داده است. مفسران زنده مسابقه، که از حرفه ای های بلندمرتبه این رشته بودند، گفتند که این یک حرکت «بسیار عجیب » است و فکر کردند که این «یک اشتباه بزرگ » می باشد. این حرکت آنقدر غیرمعمول بود که لی سدول پانزده دقیقه برای پاسخ دادن به آن وقت گرفت و حتی از تخته بازی بلند شد و قدم زد. هنگامی که ما از اتاق کنترل خود، صحنه را تماشا میکردیم، تنش واقعی در جریان بود. با این حال، همانطور که به پایان بازی نزدیک میشدیم، آن حرکت «اشتباه » نقش محوری پیدا کرد و آلفاگو، پیروز شد. استراتژی بازی «گو » انگار که درست جلوی چشمان ما، بازنویسی میشود. هوش مصنوعی ما ایده هایی را کشف کرده بود که به ذهن درخشان ترین بازیکنان، در طول هزاران سال نرسیده بود .

حرکت 37 ، نماد انقاب هوش مصنوعی است به دو دلیل: اول، طبیعت بیگانه هوش مصنوعی را نشان داد. در شرق آسیا، بازی «گو » بیش از یک بازی محسوب میشود: یک سنت فرهنگی گرامی و فوق العاده ارزنده است.

بیش از 2500 سال، ده ها میلیون نفر «گو » بازی کرده اند و مکتب های فکری کاملی در اطراف بازی شکل گرفته اند که استراتژی ها و فلسفه های مختلفی را ارائه می دهند. با این حال، در طول همه این هزاران سال،

ذهن های انسانی تنها برخی مناطق،در چشم انداز این بازی را کاوش کرده اند. مناطق دیگر دست نخورده باقی مانده اند، زیرا ذهن های انسانی به فکر ورود به آنجا نبوده اند. هوش مصنوعی،بدون محدودیت های ذهن

انسانی، این مناطق پنهان را کشف و کاوش کرد.

دوم، حرکت 37 نشان دهنده ناپایداری هوش مصنوعی بود. حتی پس از اینکه هوش مصنوعی آلفاگو با آن حرکت به پیروزی رسید، سلیمان و تیمش هنوز نمی توانستند توضیح دهند که این هوش مصنوعی چگونه تصمیم به انجام آن حرکت گرفته است. حتی اگر یک دادگاه به دیپ مایند دستور می داد تا توضیحی به لی سدول ارائه کند، هیچکس نمی توانست آن دستور را اجرا کند. سلیمان مینویسد: «در هوش مصنوعی، شبکه های عصبی که به سمت خودمختاری حرکت میکنند، در حال حاضر غیرقابل توضیح هستند. شما نمی توانید کسی را به طور دقیق از فرایند تصمیم گیری عبور دهید تا توضیح دهید که چرا یک الگوریتم یک پیش بینی خاص تولید کرده است. مهندسان نمی توانند به زیر کاپوت نگاه کنند و به راحتی با جزئیات دقیق توضیح دهند که چه چیزی باعث وقوع چنین رویدادی شده است. چت جی پی تی، آلفاگو و بقیه هوش های مصنوعی، جعبه های سیاهی هستند که خروجی ها و تصمیمات آنها برای ما، مات و پیچیده است .

ظهور هوش بیگانه غیرقابل فهم، تهدیدی برای همه انسانها و به ویژه تهدیدی همه جانبه برای دموکراسی است. اگر تصمیمات بیشتری در مورد زندگی مردم در یک جعبه سیاه گرفته شود، به طوری که رای دهندگان

نتوانند آنها را درک و به چالش بکشند، دموکراسی از کار میافتد. به طور خاص، چه اتفاقی میافتد وقتی تصمیمات مهم نه تنها در مورد زندگی فردی، بلکه حتی در مورد مسائل جمعی، مانند نرخ بهره فدرال رزرو، توسط

الگوریتم های غیرقابل فهم گرفته شود؟ رای دهندگان انسانی ممکن است همچنان یک رئیس جمهور انسانی را انتخاب کنند، اما آیا این فقط یک مراسم توخالی نخواهد بود؟ حتی امروزه، تنها بخش کوچکی از بشریت،

واقعاً سیستم مالی را درک میکنند. یک نظرسنجی در سال 2014 از نمایندگان مجلس بریتانیا، که مسئول تنظیم یکی از مهمترین مراکز مالی جهان هستند، نشان داد که تنها دوازده درصد به طور دقیق درک میکنند که پول

جدید زمانی ایجاد میشود که بانکها وام میدهند. این حقیقت یکی از اصول اساسی سیستم مالی مدرن است. همانطور که بحران مالی 2008 - 2007 نشان داد، برخی از ابزارها و اصول مالی پیچیده تنها برای چند جادوگر

مالی قابل فهم بودند. چه اتفاقی برای دموکراسی می افتد وقتی هوش های مصنوعی ابزارهای مالی حتی پیچیده تری ایجاد کنند و تعداد انسان هایی که سیستم مالی را درک میکنند به صفر برسد؟

ترجمه افسانه هشداردهنده گوته به زبان مالی مدرن، اینچنین میشود، سناریوی زیر را تصور کنید: یک شاگرد وال استریت که از کارهای یک نواخت کارگاه مالی خسته شده است، یک هوش مصنوعی به نام جاروی سحرآمیز ایجاد میکند، به آن یک میلیون دلار سرمایه اولیه میدهد و دستور میدهد که پول بیشتری بسازد. برای یک هوش مصنوعی، امور مالی زمین بازی ایده آلی است، زیرا یک قلمرو کاملاً اطلاعاتی و ریاضیاتی است.

هوش های مصنوعی هنوز به طور خودمختار رانندگی کردن یک ماشین را دشوار می یابند، زیرا این نیازمند حرکت و تعامل در دنیای فیزیکی آشفته است، جایی که «موفقیت » سخت تعریف میشود. در مقابل، برای انجام

تراکنش های مالی، هوش مصنوعی فقط نیاز دارد با داده ها سر و کار داشته باشد و میتواند به راحتی موفقیت خود را به طور رایانه ها هنوز به تنهایی به اندازه ای قدرتمند نیستند که تمدن انسانی را نابود کنند. تا زمانی که بشریت متحد بماند، می توانیم نهادهایی ایجاد کنیم که هوش مصنوعی را تنظیم کنند.

در جستجوی دلارهای بیشتر، جاروی سحرآمیز نه تنها استراتژی های سرمایه گذاری جدیدی ابداع میکند، بلکه دستگاه های مالی کاملاً جدیدی ایجاد میکند که هیچ انسانی تا به حال به آنها فکر نکرده است. به مدت

هزاران سال، ذهن های انسانی، تنها برخی مناطق در چشم انداز مالی را کاوش کرده اند. آنها پولها، چکها، اوراق قرضه، سهام، ای تی اف ها، سی دی اوها و دیگر تکه های این جادوی مالی را اختراع کرده اند. اما

بسیاری از مناطق و سرزمینهای این دستگاه مالی دست نخورده باقی مانده اند، زیرا ذهن های انسانی به فکر ورود به آنجا نبوده اند. جاروی سحرآمیز، بدون محدودیتهای ذهنی انسانی، این مناطق پنهان را کشف و کاوش

میکند و حرکات مالی ای انجام میدهد که معادل حرکتِ 37 هوش مصنوعی آلفاگو است.

برای چند سال، هنگامی که جاروی سحرآمیز بشریت را به قلمروهای جدید مالی هدایت میکند، همه چیز عالی به نظر میرسد. بازارها در حال افزایش هستند، پول به سادگی سرازیر میشود و همه خوشحالند. سپس یک

سقوط بزرگتر از سال 1929 یا 2008 رخ میدهد. اما هیچ انسانی – نه رئیس جمهور، نه بانکدارها و نه شهروندان – نمیداند چه چیزی باعث آن شده است و چه کاری میتوان درباره آن انجام داد. از آنجا که نه خدا و نه جادوگر برای نجات سیستم مالی ظاهر نمی شوند، دولتهای ناامید، از تنها موجودی که قادر به درک آنچه در حال وقوع است، یعنی جاروی سحرآمیز، درخواست کمک میکنند.

هوش مصنوعی چندین توصیه سیاستی ارائه میدهد که بسیار جسورانه تر از تسهیلات مالی و بسیار مبهم تر از آن است. جاروی سحرآمیز وعده میدهد که این سیاستها میتوانند بازار را نجات دهند، اما سیاستمداران

انسانی که نمی توانند منطق پشت توصیه های جاروی سحرآمیز را درک کنند، میترسند که این سیاستها به طور کامل بافت مالی و حتی اجتماعی جهان را از هم بپاشند.آیا آنها باید به هوش مصنوعی گوش فرا دهند؟

رایانه ها هنوز به اندازه ای قدرتمند نیستند که به طور کامل از کنترل ما خارج شوند یا تمدن انسانی را به تنهایی نابود کنند. تا زمانی که بشریت متحد بماند، میتوانیم نهادهایی ایجاد کنیم که هوش مصنوعی را تنظیم کنند،

خواه در زمینه مالی یا جنگ. اما متأسفانه، بشریت هرگز متحد نبوده است. ما همیشه با بازیگران بد و همچنین اختلافات بین بازیگران خوب مواجه بوده ایم. ظهور هوش مصنوعی تهدیدی وجودی برای بشریت است، نه

به دلیل بدخواهی رایانه ها، بلکه به دلیل نواقص خودمان.

بنابراین، یک دیکتاتور پارانوئید ممکن است قدرت نامحدودی را به یک هوش مصنوعی خطاپذیر بدهد، حتی قدرت راه اندازی حملات هسته ای. اگر هوش مصنوعی سپس خطایی انجام دهد یا شروع به پیگیری هدفی غیرمنتظره کند، نتیجه میتواند فاجعه بار باشد و نه تنها برای آن کشور بلکه برای همه.

به طور مشابه، تروریستها ممکن است از هوش مصنوعی برای شروع یک پاندمی جهانی استفاده کنند.تروریستها خود ممکن است دانش کمی از اپیدمیولوژی داشته باشند، اما هوش مصنوعی میتواند برای آنها یک پاتوژن

جدید ترکیب کند، آن را از آزمایشگاه های تجاری سفارش دهد یا در چاپگرهای سه بعدی بیولوژیکی چاپ کند و بهترین استراتژی برای انتشار آن در سراسر جهان را از طریق فرودگاهها یا زنجیره های تأمین مواد غذایی طراحی کند. اگر هوش مصنوعی، ویروسی ترکیب کند که به اندازه ابولا مرگبار باشد، به اندازه کووید نوزده مسری و به اندازه ایدز نهفته عمل کند، چه میشود؟ تا زمانی که اولین قربانیان شروع به مردن کنند و جهان به خطر آگاه شود، ممکن است بیشتر مردم روی زمین قبلاً آلوده شده باشند.

تمدن انسانی نیز میتواند توسط سلاح های تخریب اجتماعی، مانند داستان هایی که پیوندهای اجتماعی ما را تضعیف میکنند، ویران شود. یک هوش مصنوعی توسعه یافته در یک کشور میتواند برای ایجاد سیلی از اخبار

جعلی، پول جعلی و انسان های جعلی استفاده شود تا مردم در بسیاری از کشورهای دیگر توانایی اعتماد به هر چیزی یا هر کسی را از دست بدهند.

بسیاری از جوامع- هم دموکراسی ها و هم دیکتاتوری ها-، ممکن است مسئولانه عمل کنند تا چنین استفاده هایی از هوش مصنوعی را تنظیم کنند، بازیگران بد را سرکوب کنند و جاه طلبی های خطرناک حاکمان و

متعصبین خود را مهار کنند.

اما اگر حتی تعداد کمی از جوامع در این امر ناکام بمانند، این میتواند کافی باشد تا تمام بشریت را به خطر بیاندازد. مثل تغییرات آب و هوایی که حتی میتواند کشورهایی را که مقررات زیست محیطی عالی دارند را،

ویران کند،زیرا این یک مشکل در سطح جهانی است و نه یک مشکل ملی. هوش مصنوعی نیز به همین منوال یک مشکل جهانی است. بنابراین، برای درک سیاست های جدید رایانه ای، کافی نیست که ببینیم جوامع منفرد

چگونه به هوش مصنوعی واکنش نشان میدهند. ما همچنین باید در نظر بگیریم که هوش مصنوعی چگونه ممکن است روابط بین جوامع را در سطح جهانی تغییر دهد.

در قرن شانزدهم، زمانی که فاتحان اسپانیایی، پرتغالی و هلندی در حال ساخت اولین امپراتوری های جهانی در تاریخ بودند، با کشتی های بادبانی،اسب ها و باروت سرازیر میشدند. زمانی که بریتانیایی ها، روسها و ژاپنی ها در قرن های نوزدهم و بیستم برای هژمونی خود تلاش میکردند، به کشتی های بخار، لوکوموتیوها و مسلسلها متکی بودند. در قرن بیست و یکم، برای تسلط بر یک مستعمره، دیگر نیازی به ارسال کشتی های جنگی نیست. شما نیاز دارید که داده ها را حذف کنید. چند شرکت یا دولت که داده های جهان را جمع آوری میکنند میتوانند بقیه کره زمین را به مستعمرات داده ها تبدیل کنند.

وضعیتی را تصور کنید که مثاً در بیست سال آینده، زمانی که کسی در پکن یا سانفرانسیسکو تاریخچه شخصی کامل همه سیاستمدارها، روزنامه نگاران، ژنرال ها و مدیرعامان کشور شما را داشته باشد: هر متنی که تا به حال ارسال کرده اند، هر جستجوی وبی که انجام داده اند، هر بیماری که داشته اند، هر تجربه جنسی که از آن لذت برده اند، هر جوکی که گفته اند، هر رشوه ای که گرفته اند.

آیا هنوز در یک کشور مستقل زندگی میکنید یا اکنون در یک مستعمره داده ای زندگی میکنید؟ وقتی کشورتان خود را کاماً وابسته به زیرساخت های دیجیتال و سیستم های مبتنی بر هوش مصنوعی می یابد که هیچ کنترلی

مؤثر بر آنها ندارد، چه اتفاقی می افتد؟

در یک اقتصاد جهانی مبتنی بر هوش مصنوعی، رهبران دیجیتال بیشترین سودها را ادعا میکنند. در همین حال،ارزش کارگران بی مهارت در کشورهای عقب مانده کاهش خواهد یافت.

در حوزه اقتصادی، امپراتوری های قبلی بر منابع مادی مانند زمین، پنبه و نفت بنا شده بودند. این امر محدودیتی برای توانایی امپراتوری در تمرکز ثروت اقتصادی و قدرت سیاسی در یک مکان ایجاد میکرد. فیزیک و زمین شناسی اجازه نمیدهند که تمام زمین، پنبه یا نفت جهان به یک کشور منتقل شود. این موضوع با امپراتوری های اطلاعاتی جدید متفاوت است. داده ها میتوانند با سرعت نور حرکت کنند و الگوریتم ها فضای زیادی نمیگیرند. در نتیجه، قدرت الگوریتمی جهان می تواند در یک هاب واحد متمرکز شود. مهندسان یک کشور ممکن است کد بنویسند و کلیدهای تمام الگوریتم های حیاتی که کل جهان را اجرا میکنند، کنترل کنند.

بنابراین هوش مصنوعی و اتوماسیون چالشی خاص برای کشورهای در حال توسعه فقیرتر ایجاد میکنند. در یک اقتصاد جهانی مبتنی بر هوش مصنوعی، رهبران دیجیتال بیشترین سودها را ادعا میکنند و میتوانند از ثروت خود برای بازآموزی نیروی کار خود و بهره برداری بیشتر استفاده کنند. در همین حال، ارزش کارگران بی مهارت در کشورهای عقب مانده کاهش خواهد یافت و باعث میشود که آنها حتی بیشتر از قبل، عقب بمانند. در نتیجه ممکن است بسیاری از مشاغل جدید و ثروت عظیم در سانفرانسیسکو و شانگهای به وجود بیاید، در حالی که بسیاری از نقاط دیگر جهان با ویرانی اقتصادی روبرو شوند.

بر اساس گزارش شرکت حسابداری جهانی پرایس واترهاوس کوپرز ، انتظار می رود که هوش مصنوعی تا سال دوهزار و سی، 15.7 تریلیون دلار به اقتصاد جهانی اضافه کند. اما اگر روندهای فعلی ادامه یابند، پیش بینی میشود که چین و آمریکای شمالی یعنی دو ابرقدرت اصلی هوش مصنوعی هفتاد درصد از آن پول را به خود اختصاص دهند.

در دوران جنگ سرد، «پرده آهنین » در بسیاری از مکان ها به معنای واقعی کلمه از فلز ساخته شده بود: سیم های خاردار کشورها را از هم جدا میکردند. اکنون جهان به طور فزاینده ای با «پرده سیلیکونی » تقسیم میشود. کدهای موجود در گوشی هوشمند شما تعیین میکنند که در کدام طرف پرده سیلیکونی زندگی میکنید، کدام الگوریتم ها زندگی شما را کنترل میکنند، چه کسی توجه شما را کنترل میکند و داده های شما به کجا منتقل

میشوند.

دسترسی به اطلاعات در سراسر پرده سیلیکونی دشوارتر میشود، مثلاً بین چین و ایالات متحده یا بین روسیه و اتحادیه اروپا. علاوه بر این، دو طرف به طور فزاینده ای بر روی شبکه های دیجیتال مختلف و با استفاده از کدهای رایانه ای مختلف کار میکنند. در چین، شما نمیتوانید از گوگل یا فیسبوک استفاده کنید و نمی توانید به ویکیپدیا دسترسی داشته باشید. در ایالات متحده، تعداد کمی از افراد از اپلیکیشن های چینی پیشرو مانند ویچت استفاده میکنند. مهمتر از آن، دو جهان دیجیتال آینه های یکدیگر نیستند. بایدو، گوگل چینی و علی بابا، آمازون چینی نیست. آنها اهداف مختلف، معماری های دیجیتال مختلف و تأثیرات مختلفی بر زندگی مردم دارند. این تفاوتها بر بخش بزرگی از جهان تأثیر میگذارند، زیرا بیشتر کشورها به نرم افزارهای چینی و آمریکایی تکیه میکنند و نه به فناوری محلی.

ایالات متحده همچنین به متحدان و مشتریان خود فشار می آورد تا از سخت افزارهای چینی مانند زیرساخت های «فایو جی » هوآوی اجتناب کنند. دولت ترامپ تلاش کرد تا از خرید شرکت کوالکام توسط برادکام سنگاپوری جلوگیری کند.آنها می ترسیدند که خارجی ها ممکن است در چیپ ها «بک دُر » قرار دهند یا از قرار دادن « بک دُر »ِخود دولت ایالات متحده جلوگیری کنند. هر دو دولت ترامپ و بایدن محدودیتهای شدیدی بر تجارت چیپ های کامپیوتری با عملکرد بالا که برای توسعه هوش مصنوعی ضروری هستند، استفاده کرده اند. شرکتهای آمریکایی اکنون از صادرات این چیپ ها به چین منع شده اند. در کوتاه مدت، این مسئله چین را در رقابت هوش مصنوعی مختل میکند، اما در بلندمدت، چین را به توسعه یک حوزه دیجیتال کاملاً جداگانه که حتی در کوچکترین جزئیات از حوزه دیجیتال آمریکا متمایز است، سوق میدهد.

استایل ست: لی فلود. آرایش: صدف احمد، عکس: دیوید وینتینراز گاردین
استایل ست: لی فلود. آرایش: صدف احمد، عکس: دیوید وینتینراز گاردین


بنابراین، دو حوزه دیجیتال ممکن است بیشتر و بیشتر از هم دور شوند. برای قرن ها، فناوری های اطلاعاتی جدید، فرآیند جهانی سازی را تقویت کرده و مردم سراسر جهان را به هم نزدیک تر کرده اند. به طور متناقض، فناوری اطلاعات امروز آنقدر قدرتمند است که میتواند بشریت را با محصور کردن افراد مختلف در پیله های اطاعاتی جداگانه تقسیم کند و ایده یک واقعیت انسانی مشترک را پایان دهد. برای دهه ها، استعاره اصلی جهان «وب » بود.استعاره اصلی دهه های آینده ممکن است «پیله » باشد.

در حالی که چین و ایالات متحده در حال حاضر پیشروان مسابقه هوش مصنوعی هستند، اما این دو کشور تنها نیستند. سایر کشورها یا بلوکها، مانند اتحادیه اروپا، هند، برزیل و روسیه، ممکن است سعی کنند پیله های دیجیتال خود را ایجاد کنند، هرکدام تحت تأثیر سنت های سیاسی، فرهنگی و مذهبی مختلف. به جای تقسیم بین دو امپراتوری جهانی، جهان ممکن است بین دوازده امپراتوری تقسیم شود.

هر چه امپراتوری های جدید بیشتر با یکدیگر رقابت کنند، خطر درگیری مسلحانه بیشتر میشود. جنگ سرد بین ایالات متحده و اتحاد جماهیر شوروی هرگز به یک رویارویی نظامی مستقیم منجر نشد، تا حد زیادی به لطف «دکترین تخریب متقابل تضمینی » . اما خطر تشدید جنگ در عصر هوش مصنوعی، بیشتر است، زیرا جنگ سایبری ذاتاً متفاوت از جنگ هسته ای است.

سلاح های سایبری میتوانند شبکه برق یک کشور را از کار بیندازند، اما همچنین میتوانند برای نابودی یک تأسیسات تحقیقاتی محرمانه، از کار انداختن یک سنسور دشمن، شعله ور کردن یک رسوایی سیاسی، دستکاری انتخابات یا هک کردن یک گوشی هوشمند استفاده شوند. و آنها می توانند همه این کارها را به طور مخفیانه انجام دهند. این سلاح ها با یک ابر قارچی و یک طوفان آتش حضور خود را اعلام نمی کنند، و همچنین ردی قابل مشاهده از محل پرتاب تا هدف بر جای نمیگذارند. در نتیجه، گاهی اوقات دشوار است بدانید که آیا حمله ای رخ داده است یا نه! یا چه کسی آن را راه اندازی کرده است. بنابراین وسوسه برای شروع یک جنگ سایبری محدود، بزرگ است، و وسوسه برای تشدید آن نیز بزرگتر.

تفاوت اساسی دوم مربوط به پیش بینی پذیری است. جنگ سرد مانند یک بازی شطرنج فوق العاده منطقی بود و اطمینان از تخریب در صورت درگیری هسته ای آنقدر زیاد بود که تمایل به شروع جنگ بسیار اندک میشد. جنگ سایبری این اطمینان را ندارد. هیچکس نمیداند هر طرف کجا، بمب های منطقی، تروجانها و بدافزارهای خود را قرار داده است. هیچکس نمیتواند مطمئن باشد که آیا سلاحهای خود، موقع استفاده از آن آیا کار خواهد کردیا خیر! آیا موشکهای چینی در صورت صدور دستور، شلیک خواهند کرد یا شاید آمریکایی ها، این موشکها یا زنجیره فرماندهی آن را هک کرده باشند؟

آیا ناوهای هواپیمابر آمریکایی به طور معمول عمل خواهند کرد یا شاید به طور مرموزی خاموش شوند یا در دایره ایی به دور خود بچرخند؟

چنین عدم اطمینانی دکترین «تخریب متقابل تضمینی » را تضعیف میکند. یک طرف ممکن است خود را قانع کند، که میتواند یک حمله اول موفقیت آمیز را راه اندازی کرده و از تلافی گسترده جلوگیری کند. حتی بدتر، اگر یک طرف فکر کند که چنین فرصتی دارد، وسوسه برای راه اندازی یک حمله اول میتواند غیرقابل مقاومت شود، زیرا هیچ کس نمیداند که پنجره فرصت چقدر باز خواهد ماند. نظریه بازی ها بیان میکند که خطرناکترین وضعیت در یک مسابقه تسلیحاتی زمانی است که یک طرف احساس میکند مزیتی دارد اما این مزیت در حال از دست رفتن است.

حتی اگر بشریت از بدترین سناریوی جنگ جهانی اجتناب کند، ظهور امپراتوری های دیجیتال جدید همچنان میتواند آزادی و رفاه میلیاردها نفر را به خطر بیاندازد. امپراتوری های صنعتی قرن های نوزدهم و بیستم مستعمرات خود را استثمار و سرکوب کردند، و انتظار اینکه امپراتوری های دیجیتال جدید بهتر رفتار کنند، احمقانه خواهد بود. علاوه بر آن، اگر جهان به امپراتوری های رقیب تقسیم شود، بعید است که بشریت برای غلبه بر بحران زیست محیطی یا تنظیم هوش مصنوعی و سایر فناوری های مختل کننده مانند زیست فناوری همکاری کند.

تقسیم جهان به امپراتوری های دیجیتال رقیب، با چشم انداز سیاسی بسیاری از رهبرانی که معتقدند جهان یک جنگل است و صلح نسبی دهه های اخیر یک توهم بوده و تنها انتخاب واقعی این است که نقش شکارچی یا شکار را بازی کنند، همخوانی دارد.

با چنین انتخابی، اکثر رهبران، ترجیح میدهند به عنوان شکارچیان در تاریخ ثبت شوند و نام خود را به فهرست تیره فاتحانی اضافه کنند که دانش آموزان بدبخت، محکوم به حفظ آن برای امتحانات تاریخ خود هستند.

این رهبران باید به یاد داشته باشند که یک شکارچی آلفای جدید در جنگل وجود دارد. اگر بشریت راهی برای همکاری و حفاظت از منافع مشترک ما پیدا نکند، همه ما طعمه آسانی برای هوش مصنوعی خواهیم بود.












ما را دنبال کنید

برای اینکه بتوانید از مطالب جدید ما مطلع شوید لطفا ما را دنبال کنید

دنبال کردن