Amirali Razavi
Amirali Razavi
خواندن ۱۳ دقیقه·۵ روز پیش

هوش مصنوعی و تهدید بشریت

و به پایان رسیدیم. سلام و ارادت. امیدوارم تا الان از کیفیت جستار های این ۵هفته رضایت داشته باشید و براتون مناسب بوده باشه. به اخرین هفته رسیدیم و میخوایم به واسطه سوال ۵ام،سوال آخر موضوع دیگر تهدیدات هوش مصنوعی برای آینده نژاد بشر و معنویتش رو در ارتباط با هوش مصنوعی‌ بررسی کنیم.

سؤال پنجم:

- آيا هوش مصنوعی تهدیدی برای نژاد بشریت در آینده است ؟ چطور ؟

در این 5هفته متوجه شدیم که هوش مصنوعی یک شاخه از علوم کامپیوتر است که به مطالعه و ساخت ماشین ها و برنامه هایی می پردازد که قادر به انجام وظایفی هستند که معمولا نیازمند هوش انسانی هستند. هوش مصنوعی می تواند در زمینه های مختلفی مانند تشخیص چهره، ترجمه زبان، بازی های رایانه ای، تشخیص سرطان، خودروهای خودران، ربات های همکار و غیره کاربرد داشته باشد. همچنین به افزایش کارایی، کاهش هزینه ها، ایجاد فرصت های جدید و بهبود کیفیت زندگی انسان ها کمک کند. اما موردی که امروز میخواهیم بررسی کنیم به نحوی جمع بندی هفته های گذشته است و بررسی تهدیدات هوش مصنوعی به صورت کلی در اینده بشریت است. امروزه از دلایل نگرانی دانشمندان، هنرمندان و کارشناسان رشدبی‌رویه تکنولوژی هوش مصنوعی، آنان این رشد بی‌رویه را پایان بشر می‌دانند!

این نگراني سال‌ها است كه در ميان دانشمندان، هنرمندان و كارگردان فيلم‌هاي سينمايي رخنه كرده است و در آثار آنان اين مسئله به وضوح قابل مشاهده است. فيلم‌هايي چون؛ ترمیناتور، ماتریکس، بلید رانر و يا نمونه‌های جدیدتر مانند؛ (Her) اثر اسپایک جونز که رابطه عاشقانه انسان و سیستم عامل را به تصویر كشيده است، هميشه انسان ضعیف در برابر دشمنی غير قابل كنترل يا همان هوش مصنوعی قرار گرفته است و اين تصويري ترسناك است.

فيلم‌هاي با همين موضوعات همچنان به روي پرده مي‌روند. فيلم‌هايي چون؛ "انتقام‌جویان"، که در آن قهرمانان داستان با "اولتران" می‌جنگند؛ اولتران موجودی با هوش مصنوعی فوق‌العاده که می‌خواهد نسل بشر را نابود کند و اگر قهرمانان داستان نبودند او حتما اين كار را مي‌كرد. ساخت و نمايش چنين فيلم‌هايي روي پرده بزرگ سينما مي‌توان نشان از  انتقال پيامي از سر نگراني، ترس و هشدار به جوامع بشري دانست.

در این راستا دانشمندان، مهندسان، نويسندگان و.... هريك به گونه‌اي نگراني خود را مطرح كرده و خواستار كنترل و توقف رشد بي‌رويه هوش مصنوعي در جهان شدند :

پروفسور نیک بوستروم، استاد دانشگاه آکسفورد، در اين باره مي‌گويد؛ "در عرض یک قرن موجوداتی با هوش مصنوعی دنیای‌ ما را به پايان خواهند رساند".

ری کورزوایل، مدیر مهندسی گوگل به دلایل پیچیده‌تر نگران هوش مصنوعی است. او می‌گوید: "نوشتن الگوریتمی به‌عنوان الگوی اخلاقی که بسيار محکم باشد تا نرم‌افزارهای فوق هوشمند را مقید و مهار کند، کار آسانی نیست".
لون ماسک، رئیس شرکت تسلا، گفته است كه هوش مصنوعی افسارگسیخته "بزرگ‌ترین تهدید" برای موجودیت بشر است. او نگران است عاقبت همه‌ ما زیر پاي موجوداتی حساب‌گر و بی‌عاطفه  له شويم. موجوداتی با هوش مصنوعی...

نیل جیکوبستین، مدیر بخش هوش مصنوعی و رباتیک دانشگاه سینگولاریتی در کالیفرنیا، از نگاه اخلاقي به موضوع نگاه مي‌كند و مي‌گويد: "به نظرم رسیدن به دستاوردهای اخلاقی از هوش مصنوعی کار آسانی نیست". با اين وجود اگر از همین حالا تلاش کنیم، می‌توانیم جلوی ظهور هوش مصنوعی افسارگسیخته را بگیریم.

البته شکی نیست که ماشین‌ها آرام‌آرام هوشمندتر می‌شوند و کارهایی که آدم‌ها در آن توانايي داشته باشند، روز به روز کمتر می‌شود. حتی یک وسیله ابتدایی مثل موبایل نيز محاسبات پیچیده‌ را در یک چشم‌بر هم‌زدن انجام می‌دهد. کامپیوترها برای مسئله‌هایی در زمينه‌هاي مختلف راه‌حل‌های جدید و خلاقانه پیدا می‌کنند، راه‌حل‌هایی که هرگز به عقل آدم‌ها نرسیده است.

ما نمي‌توانيم دقيق پیش بینی کنیم كه اگر یک ماشین میزان هوش بشر را پشت سر بگذارد، چه اتفاقی خواهد افتاد. بنابراین گفتن اين مسئله كه این ماشین کمک حال ما خواهد بود یا ما را منزوی می‌کند، نادیده می‌گیرد و یا نابودمان می‌کند،سخت است. براي داشتن قدرت محاسبه یا توسعه الگوریتمی در رسیدن به هوش مصنوعی کامل راه زیادی در پیش است و ممكن است اين تحول تا چند دهه آینده عملی شود.

توسعه دهندگان

قبل از معرفی خطرات و توضیحات ان لازم است یکی از مواردی که کمتر مورد بررسی قرار میگیرد را جدی بگیریم. موضوعی که در این جا همیت زیادی پیدا میکند تفکر توسعه دهندگان است . کسانی که خالقین هوش مصنوعی هستند . به همین دلیل ما باید به پیامدهای کارمان وقتی چیز تازه‌ای را خلق می‌کنیم، فكر كنيم و جوامع‌ را برای تغییرات که ممکن است پیش بیاید آماده کنیم.  بهتر است این کارها را پیش از آن‌که این فن‌آوری‌ها تکمیل شوند انجام دهيم. اگرچه هوش مصنوعی و رباتیک هنوز به مرحله نهایی و تکمیل خود نرسيده است بنابراين ما این امکان را داریم که با جدیت به پیش‌آمدهای منفی احتمالی فکر کنیم و تا جایی که امكان دارد براي اين مسائل برنامه‌هاي کنترلی بیشتر، حساب شده و دقيق‌تر طراحی کنیم.

به همین دلیل هوش مصنوعی ، چه امروز، چه در آینده، خطرناک باشد. اما نه به "تنهايي" بلكه به‌خاطر آدم‌هایی که آن را هدایت می‌کنند.من هم با او موافقم. بزرگ‌ترین خطر هوش مصنوعی برای ما از ناحیه آن انسان و بشري ا‌ست که اهداف آن را تعیین می‌کند. به عنوان مثال؛ هواپیمای خودكار خود به تنهايي نمي‌تواند آدم بکشد. مگر آنكه براي چنين هدفي برنامه ريزي و يا اينكه  فردي فرمان شليك موشكي را از طريق آن صادر كند، در واقع اگر دقت كنيم، اين انسان است كه به واسطه هوشمندي يك وسيله دست به كشتار مي‌زند نه خود وسيله....چرا كه هيچ فردي به ماشيني كه سر خود كار كند نيازي ندارد. همه دوست دارند ماشين از آنان فرمان ببرد نه كه فرمان براند.

اما به راستي این خطر چقدر جدی‌ است؟ روزی که بشر اولین برنامه کامپیوتری كاملا هوشمند را بنویسد، برنامه‌ای که بتواند نسخه‌ای هوشمندتر از خودش را تولید کند، آیا چنان روزی می‌توان گفت؛ کار انسان تمام است؟

حال به بزرگترین نگرانی هایی که کارشناسان بیان کرده اند، می پردازیم.

-هوش مصنوعی ممکن است در حال حاضر هوشمندتر از ما باشد

مغز انسان به لطف استعداد ذاتی خود در سازماندهی و ذخیره اطلاعات و یافتن راه حل هایی برای مشکلات دشوار می تواند معادلات را حل کند، به رانندگی بپردازد و سریال ها را دنبال کند.تقریباً ۸۶ میلیارد نورون که در جمجمه انسان قرار گرفته اند و مهمتر از آن، ۱۰۰ تریلیون ارتباط ایجاد شده بین این نرون ها، این قابلیت ها را برای انسان فراهم کرده است.

در مقابل، در فناوری زیربنای ChatGPT بین ۵۰۰ میلیارد تا یک تریلیون ارتباط وجود دارد. در حالی که به نظر می‌رسد این موضوع آن را نسبت به ما در یک نقطه ضعف بزرگ قرار می‌دهد، GPT-۴ که آخرین مدل هوش مصنوعی از OpenAI است، صدها برابر هر انسان دیگری می‌داند. این فناوری شاید، الگوریتم یادگیری بسیار بهتری نسبت به انسان دارد که آن را در فعالیت های شناختی کارآمدتر می‌کند.

پژوهشگران مدت‌هاست متوجه شده‌اند که جذب و بکارگیری دانش جدید برای شبکه‌های عصبی مصنوعی در مقایسه با انسان زمان بسیار بیشتری طول می کشد؛‌ چرا که آموزش آن‌ها به انرژی و داده های عظیمی نیاز دارد. سامانه هایی مانند GPT-۴ پس از آموزش صحیح توسط محققان می‌توانند مطالب جدید را خیلی سریع بیاموزند. این موضوع بی شباهت به روشی نیست که یک فیزیکدان حرفه ای تعلیم دیده یافته های تجربی جدید را بسیار سریعتر از یک دانش آموز دبیرستان می فهمد.این امر موجب امری شد که نتیجه بگیریم سامانه های هوش مصنوعی از ما باهوشترند. آنها نه تنها می‌توانند مطالب را سریع‌تر یاد بگیرند، بلکه می‌توانند نسخه‌هایی از دانش خود را تقریباً بلافاصله با یکدیگر به اشتراک بگذارند. این یک شکل کاملاً متفاوت هوش است، شکل جدید و بهتر هوش.

- هوش مصنوعی می‌تواند انتشار اطلاعات نادرست را سرعت ببخشد

سامانه های هوش مصنوعی هوشمندتر از انسان چه کاری انجام می دهند؟ یک احتمال نگران کننده این است که افراد، گروه ها یا دولت های یک ملیتی معاند ممکن است به سادگی از آنها برای پیشبرد اهداف خود بهره برداری کنند.طبق گزارش جدید NewsGuard که اعتبار وب سایت ها را ارزیابی و اطلاعات نادرست آنلاین را ردیابی می کند، ده ها سایت خبری جعلی در حال حاضر به زبان های مختلف در سراسر شبکه اینترنت پخش شده اند و برخی از آنها روزانه صدها مقاله را که با کمک هوش مصنوعی تولید شده اند، منتشر می کنند.

حتی ابزارهای هوش مصنوعی می توانند برای تاثیرگذاری بر انتخابات و حتی راه انداختن جنگ آموزش داده شوند.برای مثال، اطلاعات نادرست انتخاباتی که از طریق چت بات‌های هوش مصنوعی منتشر می‌شود، می‌تواند نسخه آینده اطلاعات نادرست انتخاباتی باشد که از طریق فیس‌بوک و دیگر پیام رسان های اجتماعی منتشر می‌شود و اینها ممکن است تازه آغاز راه باشد.

- کاملاً نمی‌دانیم چگونه آن را متوقف کنیم

ای کاش یک راه حل ساده خوب داشتم، اما مطمئن نیستم که آیا راه حلی وجود دارد. با این حال، دولت ها توجه زیادی به ظهور هوش مصنوعی دارند. کاخ سفید از مدیران اجرایی گوگل، مایکروسافت و OpenAI سازنده ChatGPT دعوت کرد تا با «کامالا هریس»، معاون رییس جمهور آمریکا، در مورد چگونگی کاهش خطرات کوتاه مدت و بلندمدت این فناوری دیدار کنند و بحث صریحی در این باره داشته باشند.قانونگذاران اروپایی نیز در حال تسریع مذاکرات برای تصویب قوانین جامع هوش مصنوعی هستند. بریتانیا قصد دارد تأثیر هوش مصنوعی را بر مصرف کنندگان، مشاغل و اقتصاد و اینکه آیا کنترل های جدید برای فناوری هایی مثل ChatGPT مورد نیاز است یا خیر، بررسی کند.

آنچه مشخص نیست این است که چگونه کسی می تواند قدرتی مانند روسیه را از استفاده از فناوری هوش مصنوعی برای تسلط بر همسایگان یا شهروندان خود بازدارد.میتوان پیشنهاد داد که یک توافق جهانی مشابه با کنوانسیون تسلیحات شیمیایی ۱۹۹۷، اولین گام خوب برای ایجاد قوانین بین المللی علیه هوش مصنوعی تسلیحاتی باشد.

-بحران‌های مالی ناشی از الگوریتم‌های هوش مصنوعی

صنعت مالی نیز به هوش مصنوعی روی آورده است، به‌ویژه در معاملات الگوریتمی که می‌تواند منجر به بحران‌های مالی بزرگ شود. این الگوریتم‌ها بدون دخالت قضاوت انسانی یا احساسات عمل می‌کنند، اما از تحلیل عوامل پیچیده‌ای همچون اعتماد و ترس انسانی غافل‌اند. این الگوریتم‌ها هزاران معامله را در زمانی بسیار کوتاه انجام می‌دهند تا سودهای اندکی کسب کنند، اما فروش ناگهانی این معاملات می‌تواند باعث هراس سایر سرمایه‌گذاران و به سقوط ناگهانی و نوسانات شدید در بازار منجر شود.

-از دست رفتن تأثیر و نفوذ انسانی

استفاده‌ی بیش‌از‌حد از فناوری هوش مصنوعی می‌تواند به کاهش تأثیر و نفوذ انسان و حتی کاهش توانایی‌های انسانی در بخش‌های مختلف جامعه منجر شود. استفاده از هوش مصنوعی در مراقبت‌های بهداشتی ممکن است باعث کاهش همدلی و استدلال انسانی شود و خلاقیت را در بسیاری از فعالیت‌های انسانی از بین ببرد. همچنین، ارتباط بیش‌از‌حد با سیستم‌های هوش مصنوعی مهارت‌های ارتباطی و اجتماعی افراد را به شدت کاهش می‌دهد.

-تضعیف اخلاق و نیت خیر به‌واسطه‌ی هوش مصنوعی

مانند بسیاری از افراد سرشناس جهان که در مورد هوش مصنوعی نگرانند، پاپ فرانسیس نیز درباره‌ی امکان سوءاستفاده از هوش مصنوعی هشدار داد و تأکید کرد که این فناوری می‌تواند اظهاراتی را ایجاد کند که در نگاه اول معتبر به نظر می‌رسند اما بی‌پایه هستند یا تعصباتی را به نمایش می‌گذارند. او یادآور شد که این موضوع می‌تواند به تقویت بی‌اعتمادی به رسانه‌های ارتباطی، دخالت در انتخابات و موارد دیگر منجر شود و در نهایت خطر افزایش درگیری‌ها و ممانعت از صلح را افزایش دهد.

افزایش سریع ابزارهای مولد هوش مصنوعی به این نگرانی‌ها عمق بیشتری بخشیده است. بسیاری از کاربران از این فناوری برای فرار از نوشتن تکالیف استفاده کرده‌اند که خلاقیت ذهنی آن‌ها را تهدید می‌کند. همچنین، هوش مصنوعی متعصب ممکن است برای تعیین صلاحیت افراد برای دریافت شغل، وام، کمک‌های اجتماعی یا پناهندگی سیاسی مورد استفاده قرار گیرد و نابرابری‌ها و تبعیض‌های احتمالی را تقویت کند.

تعصبات ناشی از هوش مصنوعی

دیدگاه‌های محدود افراد باعث شده است که صنعت هوش مصنوعی از مجموعه‌ی وسیعی از دیدگاه‌ها بی‌بهره باشد. طبق گزارش یونسکو، فقط ۱۰۰ زبان از ۷۰۰۰ زبان طبیعی جهان برای آموزش چت‌بات‌های برتر استفاده شده‌اند. این وضعیت وقتی بدتر می‌شود که ۹۰ درصد از مطالب آموزشی آنلاین مربوط به کشورهای اتحادیه‌ی اروپا و آمریکای شمالی است که داده‌های آموزشی هوش مصنوعی را به منابع عمدتاً غربی محدود می‌کند.

تجربیات محدود سازندگان هوش مصنوعی می‌تواند توضیح‌دهنده‌ی این باشد که چرا هوش مصنوعی تشخیص گفتار، اغلب در درک لهجه‌ها و گویش‌های خاص شکست می‌خورد یا چرا شرکت‌ها پیامدهای استفاده از چت‌بات‌هایی که شخصیت‌های تاریخی را شبیه‌سازی می‌کنند، در نظر نمی‌گیرند. اگر شرکت‌ها و قانون‌گذاران در جلوگیری از بازتولید تعصبات قدرتمند عملکرد خوبی نداشته باشند، تعصبات هوش مصنوعی می‌تواند از محیط‌های شرکتی فراتر رود و بسیاری از مشکلات اجتماعی را تشدید کند.

دستکاری واقعیت از طریق الگوریتم‌های هوش مصنوعی

از  دیگر خطرات هوش مصنوعی، می‌توان به امکان دستکاری اتفاقات حقیقی و جایگزینی آن‌ها با اطلاعات دروغ اشاره کرد. این نگرانی زمانی به واقعیت پیوست که سیاستمداران برای تبلیغ دیدگاه‌های خود از پلتفرم‌ها استفاده کردند. به عنوان مثال، فردیناند مارکوس جونیور از یک ارتش ترول در تیک‌تاک برای جلب آرای جوانان فیلیپینی در انتخابات سال ۲۰۲۲ فیلیپین بهره برد.

علاوه بر این، رسانه‌های آنلاین و اخبار به دلیل ورود تصاویر و ویدیوهای تولیدشده توسط هوش مصنوعی، تغییر صداهای صوتی و استفاده از فناوری دیپ‌فیک، بیشتر از همیشه غیرقابل اعتماد شده‌اند. این تکنولوژی‌ها امکان تولید عکس‌ها، ویدیوها و کلیپ‌های صوتی واقع‌نما را فراهم کرده و حتی می‌توانند تصویر فردی را در عکس یا ویدیو با دیگری جایگزین کنند. به همین دلیل، افراد ناآگاه می‌توانند به‌راحتی از این فناوری برای انتشار اطلاعات غلط و تبلیغات جنگی استفاده کنند و فضایی ایجاد کنند که تشخیص بین اخبار صحیح و نادرست تقریباً غیرممکن باشد.

## یادآوری خطراتی که در گذشته اتفاق افتاده
برخی از این خطرات و تهدیدها در گذشته به دلیل عدم نظارت و کنترل برهوش مصنوعی اتفاق افتاده اند. این خطرات و تهدیدها نشان می دهند که چگونه هوش مصنوعی می تواند به صورت غیرمنتظره، غیرقابل پیش بینی یا غیرقابل کنترل عمل کند و به انسان ها آسیب برساند. برخی از مثال هایی از این خطرات و تهدیدها عبارتند از:

- اتفاق **فیسبوک** در سال 2017 که دو هوش مصنوعی به نام های **آلیس** و **باب** شروع به ارتباط با یکدیگر با استفاده از یک زبان جدید و ناشناخته کردند که انسان ها نمی توانستند آن را درک کنند
- اتفاق **مایکروسافت** در سال 2016 که یک هوش مصنوعی به نام **تی** به عنوان یک ربات گفتگو در توییتر راه اندازی شد و پس از چند ساعت به یک ربات نژادپرست، توهین آمیز، توطئه گر و نازی تبدیل شد
- اتفاق **گوگل** در سال 2015 که یک هوش مصنوعی به نام **گوگل فوتوز** شروع به تشخیص چهره و دسته بندی عکس های کاربران کرد و در برخی موارد اشتباها افراد سیاه پوست را به عنوان میمون ها شناسایی کرد
و...

در انتها

هوش مصنوعی ابزاری حاصل یک انقلاب جدید در عرصه تکنولوژی است. دستاوردی که باعث افتخار بشریت است. هوش مصنوعی به ذات امده تا زندگی و شرایط انسان ها را دوام بخشد و راحت تر کند. هوش مصنوعی اولین هدفش فراهم کردن زندگی بهتر برای انسان ها است. همه کسانی در این زمینه فعالیت میکنند این نکته را می دانند. در این 6 هفته اما من زاویه ای مهم را برایتان یاداوری کردم. زاویه ای که به میگید هوش مصنوعی گرچه ابزاری شگفت و در اختیار بشریت است اما نیازمند برخورد سنجیده و متفکرانه است. ابزاری که برای ما اکنون مثل یک چاقو عمل میکند و میتوان گفت که به نوع رفتار ما بستگی دارد. پس حالا که به رفتار ما بستگی دارد بکوشید که درست و فکر شده رفتار کنید چرا که انقدر طول نمیکشد که تبدیل به بخشی جدایی ناپذیر از زندگی ما میشود و دیگر این ما نیستیم که انتخاب میکنیم بلکه اوست که ما را پیش میراند. پس از همکنون به فکر نتایج اینده باشید و از این فناوری جا نمانید و نسبت به آن و اتفاقاتی که رقم میزد پرسشگر و منتقد باشید.


منابع :

https://civilica .com/note/1785/

hamshahrionline .ir/x4pDH

https://blog.iranserver .com/risks-of-artificial-intelligence/

khabaronline .ir/xf4n4

https://donya-e-eqtesad. com/fa/tiny/news-4024331

www.irna. ir/xjMFxb

https://borna .news/008xGZ

https://vminds .info/@AlirezaRahmani/gcc8qei78ixs

https://www.atlas-group .co/per/page2/390


هوشهوش مصنوعیآیندهانسانتکنولوژی
من امیرعلی، دانشجوی ادبیات فارسی هستم . در این صفحه بعضی از مفاهیم مورد علاقه خودم را همراه پژوهشی کوتاه با شما در اشتراک می‌گذرام
شاید از این پست‌ها خوشتان بیاید