ندا صالحی
ندا صالحی
خواندن ۸ دقیقه·۱ سال پیش

"انسانی". دستور کار جدید در مواجهه با فناوری از "تریستان هریس". بخش دوم

Tristan Harris Computer scientist
Tristan Harris Computer scientist


احساسات پارینه سنگی، نهادهای قرون وسطی، و فناوری خداگونه


سیستم های اجتماعی مصنوعی غلبه بر طبیعت انسان

چه اتفاقی در حال رخ دادن است؟

آیا انسان ها بد هستند؟ آیا این واقعا ما هستیم؟ آیا اینها انتخاب انسان ها است؟ خیر.


اینها به این دلیل اتفاق می‌افتند که ما سیستم‌های اجتماعی مصنوعی ای را داریم که طبیعت انسان را ربوده و بر آن غلبه کرده‌اند، همراه با هوش مصنوعی عظیمی که با ساختن "عروسک‌های وودو"، در ترکیب با اقتصاد توجه استخراجی - که بر اساس جلب توجه مردم ساخته شده است - بر ضعف‌های انسان غلبه کرده است.

و این همان چیزی است که باعث تنزل رتبه انسان ها (نگاه او به انسانیت) می شود. زیرا در حالی که ما در جهت ارتقا ماشین‌ها تلاش می کنیم، به انسانیت خود بی توجه ایم.

مشکلات ما در حال افزایش است - تغییرات آب و هوایی، نابرابری - توانایی و نیاز ما برای توافق با یکدیگر و نگاه کردن به جهان به یک شکل و داشتن افکار و گفتمان منفی در حال افزایش است. اما ظرفیت ما برای حل مشکلات رو به کاهش گذاشته است. بنابراین ما راه را اشتباه رفته ایم.

و به همین دلیل است که اکنون باید مسیر خود را تغییر دهیم زیرا این وضعیت در شرف خطرناک‌تر شدن است.


چند نفر در اینجا با یکی از دوستانتان در حال گفتگو بوده‌اید و متقاعد شده‌اید که فیس‌بوک به میکروفون شما گوش می‌دهد، زیرا تبلیغ چیزی که در مورد آن صحبت می‌کردید در فید فیس‌بوک شما نمایش داده شده؟

در اصل، پزشکی قانونی داده ها نشان می دهد که آنها به میکروفون گوش نمی دهند. این یک تئوری توطئه است. آنها اصلا مجبور نیستند به میکروفون شما گوش دهند، زیرا آنها یک نسخه عروسک وودو کوچک از شما دارند و فقط به آنچه آن عروسک می گوید گوش می دهند. و از آنجایی که آنها بلد هستند و می توانند حرف های آن شخص را پیش بینی کنند، به هر حال دقیقاً می دانند که شما به چه چیزی فکر می کردید.

نکته اینجاست که ما از دنیای ربایش افکار مردم و استفاده از سوگیری های شناختی عبور کرده و در حال حاضر به پیش بینی کامل طبیعت انسان رسیده ایم. من دیگر مجبور نیستم، با کمبریج آنالیتیکا، داده های شما را بدزدم. در عوض می توانم با استفاده از یک مقاله جدید با دقت 80 درصد، پنج ویژگی اصلی شخصیتی شما را فقط با نگاه کردن به حرکات موس و الگوهای کلیک به دست بیاورم. ضمناً می توانم این کار را فقط با نگاه کردن انجام دهم.

یا در حال حاضر هوش مصنوعی می تواند به طور کامل چهره تولید کند. هیچ یک از این چهره هایی که می بینید (اسلایدهای کنفرانس) واقعی نیستند. یک شکل از ترکیب بین چهره‌های موجود نیستند. اینها همه از ابتدا تولید می شوند و می توان آنها را طوری تولید کرد که کاملاً قابل اعتماد باشند.

به عنوان مثال، این شخص ممکن است به طرز عجیبی آشنا به نظر برسد و شما حتی دلیل آن را ندانید. او ممکن است ترکیبی از افرادی باشد که ممکن است در این صحنه دیده باشید. می توانید این چهره ها را برای گفتن چیزهایی که می خواهید بگویند، متحرک کنید، و در آینده، کلماتی را در گوش شما زمزمه خواهند کرد و به آنها اعتماد خواهید کرد.

با فناوری، شما مجبور نیستید بر نقاط قوت افراد غلبه کنید. شما فقط باید بر نقاط ضعف آنها غلبه کنید.و این غلبه بر طبیعت انسان است و به معنای کیش و مات انسانیت است. زیرا در حالی که ما مراقب آنها بودیم، که از نقاط قوت ما عبور نکنند، ضعف های ما را دستکاری کردند و البته به عنوان یک شعبده باز، این تنها چیزی است که لازم بود بلد باشند و انجام دهند.

چگونه مشکل را حل کنیم؟

چند لحظه وقت بگذارید و به آنچه شنیده اید (خوانده اید) فکر کنید. خب، برای این موارد چه باید بکنیم؟ احتمالا خواهید گفت بیایید آن اعلان‌ها را خاموش کنیم. عالی میشه!

این مثل شرایطی است که به خاطر تغییرات اقلیمی در حال سوختن هستیم و میگوییم بیایید نی را ممنوع کنیم! خوب، پس واضح است که چنین راه حل هایی کافی نیستند.

این یک مشکل سیستمی است که نیاز به راه حل های سیستمی دارد.

خب؟ ما می خواهیم چه کار کنیم؟

اگر مهندسان را در زمینه اخلاق تربیت کنیم چه؟ از آنها بخواهیم جرمی بنتام (Jeremy Bentham) و امانوئل کانت (Emmanuel Kant) را در نتیجه گرایی مطالعه کنند. دیگه حتما مشکل حل خواهد شد.

باور کنید، من به شدت از آموزش اخلاق به همه حمایت می کنم، اما این هم برای مشکلی که ما به تازگی در مورد سقوط رتبه انسان مطرح کردیم، کافی نیست.


می گویید، آن را روی بلاک چین قرار دهیم. بیایید اقتصاد توجه را روی بلاک چین قرار دهیم. این عالی خواهد شد. این هم مشکل را حل نمی کند. البته اکنون جامعه بلاک چین درگیر این راه حل است، بنابراین می توانیم بعداً در مورد نتایج آن صحبت کنیم.


احتمالا می گویید، آنها برای داده های ما چه چیزی به ما پرداخت کردند؟ خب بله، شرکت‌ها باید برای تمام داده‌هایی ما که برای سود بردن از آنها استفاده می‌کنند به ما پول یا خدمات بپردازند. اما مثل این است که یک فرانکشتاین دیجیتالی دنیا را ویران کند و هرازگاهی در حالی که این کار را می‌کند به ما هم پول بدهد. این کافی نیست. البته خوب است که از داده های ما محافظت شود، اما نشان دادیم که چگونه به داده‌های ما نیازی ندارند، زیرا می‌توانند هر چیزی را که باید درباره ما بدانند پیش‌بینی کنند. پس این هم مشکل را حل نمی کند.

اگر منتظر تحقیقات بیشتر باشیم چه؟ خیر. چون این مشکل فوری است. اورژانسی است.


شکی نیست که سیلیکون ولی در حوزه فناوری بسیار خبره و کاربلد است. اما چیزی که ما در مورد آن خیلی ماهر نبوده ایم و باید در مورد آن کاری بکنیم، شناخت طبیعت انسان است. و این بدان معناست که به درستی درک کامل تری از نحوه کار انسان داشته باشیم.

و این مانند این است که نقشه تکاملی را برداریم و بگوییم، شاید لازم باشد دوباره در آینه نگاه کنیم و ارزیابی کاملی از تمام ضعف‌ها، طبیعت، و همچنین نقاط قوت انسانی مان داشته باشیم. ما کجا می درخشیم؟

طبق آنچه آزا در ابتدا به نقل از پدرش، جف گفت: "یک رابط اگر پاسخگوی نیازهای انسان باشد و در عین حال به ضعف های انسانی توجه کند، انسانی است."


به همین دلیل است که ما به رویکرد جدیدی با عنوان فناوری انسانی نیاز داریم. زیرا باید با نگاه به طبیعت انسانی (قوت و ضعف) شروع شود. و به گونه ای ارگونومیک طراحی شود تا طبیعت انسان و نیازهای انسانی او را پاسخ داده و در عین حال بفهمد که چگونه باید از نقاط درخشان وجود او استفاده کند.

یک دستور کار منسجم برای فناوری انسانی که به نگرانی‌های اصلی که زندگی واقعی مردم را تحت تأثیر قرار می‌دهند مانند انتخابات واقعی، سلامت روان کودکان، قطبی‌سازی، بطالت پروری، خشم‌سازی و هتک حرمت و کلی چیزهای دیگر بپردازد.

خبر خوب این که همه اینها فقط از یک چیز سرچشمه گرفته است و آن غلبه بر طبیعت اصلی انسان است و ما می توانیم دوباره آن را به محور اصلی خود بازگردانیم.

حالا چگونه می خواهیم این کار را انجام دهیم؟

یک مدل اجتماعی-ارگونومیک کامل از طبیعت انسان

خوب، سه چیزی که ما را به این دنیای تحقیر کننده انسانی رساند عبارتند از:

1- سیستم‌های اجتماعی مصنوعی (artificial social systems) است، سیستم‌های اجتماعی که باید خودمان را خم کنیم تا در درون چیزهایی قرار بگیریم که به نوعی ذهن ما را ربوده‌اند.
2- هوش های مصنوعی‌ غافلگیرکننده ای که ماهیت انسان را پیش‌بینی می‌کنند.
3- مشوق های استخراجی (extractive incentives).


اما خبر خوب این است که با تغییر این سه چیز:

1- رفتن از سیستم‌های اجتماعی مصنوعی به انسانی؛ که هم تراز و هماهنگ با تمام غرایز اجتماعی ما است، و حقیقت راستین طبیعت انسانی را تشخیص می دهد.
2- هوش مصنوعی انسانی که به جای بهره برداری از ارزش ها و محدودیت های طبیعت انسان، امانت دار آنها است.
3- از انگیزه های استخراجی (extractive incentives) که مبتنی بر رقابت در مسابقه های برتری طلبانه هستند تا انگیزه های احیا کننده (regenerative incentive) که به ما کمک می کنند.

می توان همه چیز را تغییر داد. انجام این کارها می تواند از مرحله ی تنزل رتبه انسان به درجه ی شناخت نقاط قوت و تقویت پتانسیل های او برسد. و درخشش ما در روابطمان، مدنیت ما، خلاقیت ما، زمینه مشترک ما، حقایق مشترک ما، همه چیز را رقم بزند.


خب حالا باید چه کاری انجام دهیم؟!

ادامه دارد ...


بخش اول

بخش سوم (پایانی)<br/>

آنچه مطالعه کردید بخش از ترجمه سخنرانی تریسان هریس در سال 2017 من باب اهمیت پرداختن به فناوری انسانی است. در صورت علاقمندی می توانید ویدئو سخنرانی را مشاهده کنید و یا برای مطالعه متن دستنویس سخنرانی به زبان اصلی به سایت سر بزنید.


استودیو طراحی انسانی مفتخر است که در راستای ترویج و آموزش مفاهیم فناوری انسانی، به پژوهش، ترجمه و تالیف و تولید محتوا مفاهیم اساسی فناوری انسانی برای دانشجویان و در این راستا علاقمندان طراحی پرداخته و مشاوره تخصصی کسب و کارهای نوپا را بر عهده دارد. برای کسب اطلاعات بیشتر مقالات ما را مطالعه کرده و صفحه اینستاگرام ما (@humandesignstudio) را دنبال کنید.

فناوری انسانیطراحی اخلاقیطراحی انسانیفناوریهوش مصتوعی
مشاور نوآوری طراحی-محور پژوهشگر، مدرس و مشاور طراحی اخلاقی - فناوری انسانی
شاید از این پست‌ها خوشتان بیاید