و به پایان رسیدیم. سلام و ارادت. امیدوارم تا الان از کیفیت جستار های این ۵هفته رضایت داشته باشید و براتون مناسب بوده باشه. به اخرین هفته رسیدیم و میخوایم به واسطه سوال ۵ام،سوال آخر موضوع دیگر تهدیدات هوش مصنوعی برای آینده نژاد بشر و معنویتش رو در ارتباط با هوش مصنوعی بررسی کنیم.
سؤال پنجم:
در این 5هفته متوجه شدیم که هوش مصنوعی یک شاخه از علوم کامپیوتر است که به مطالعه و ساخت ماشین ها و برنامه هایی می پردازد که قادر به انجام وظایفی هستند که معمولا نیازمند هوش انسانی هستند. هوش مصنوعی می تواند در زمینه های مختلفی مانند تشخیص چهره، ترجمه زبان، بازی های رایانه ای، تشخیص سرطان، خودروهای خودران، ربات های همکار و غیره کاربرد داشته باشد. همچنین به افزایش کارایی، کاهش هزینه ها، ایجاد فرصت های جدید و بهبود کیفیت زندگی انسان ها کمک کند. اما موردی که امروز میخواهیم بررسی کنیم به نحوی جمع بندی هفته های گذشته است و بررسی تهدیدات هوش مصنوعی به صورت کلی در اینده بشریت است. امروزه از دلایل نگرانی دانشمندان، هنرمندان و کارشناسان رشدبیرویه تکنولوژی هوش مصنوعی، آنان این رشد بیرویه را پایان بشر میدانند!
این نگراني سالها است كه در ميان دانشمندان، هنرمندان و كارگردان فيلمهاي سينمايي رخنه كرده است و در آثار آنان اين مسئله به وضوح قابل مشاهده است. فيلمهايي چون؛ ترمیناتور، ماتریکس، بلید رانر و يا نمونههای جدیدتر مانند؛ (Her) اثر اسپایک جونز که رابطه عاشقانه انسان و سیستم عامل را به تصویر كشيده است، هميشه انسان ضعیف در برابر دشمنی غير قابل كنترل يا همان هوش مصنوعی قرار گرفته است و اين تصويري ترسناك است.
فيلمهاي با همين موضوعات همچنان به روي پرده ميروند. فيلمهايي چون؛ "انتقامجویان"، که در آن قهرمانان داستان با "اولتران" میجنگند؛ اولتران موجودی با هوش مصنوعی فوقالعاده که میخواهد نسل بشر را نابود کند و اگر قهرمانان داستان نبودند او حتما اين كار را ميكرد. ساخت و نمايش چنين فيلمهايي روي پرده بزرگ سينما ميتوان نشان از انتقال پيامي از سر نگراني، ترس و هشدار به جوامع بشري دانست.
در این راستا دانشمندان، مهندسان، نويسندگان و.... هريك به گونهاي نگراني خود را مطرح كرده و خواستار كنترل و توقف رشد بيرويه هوش مصنوعي در جهان شدند :
پروفسور نیک بوستروم، استاد دانشگاه آکسفورد، در اين باره ميگويد؛ "در عرض یک قرن موجوداتی با هوش مصنوعی دنیای ما را به پايان خواهند رساند".
ری کورزوایل، مدیر مهندسی گوگل به دلایل پیچیدهتر نگران هوش مصنوعی است. او میگوید: "نوشتن الگوریتمی بهعنوان الگوی اخلاقی که بسيار محکم باشد تا نرمافزارهای فوق هوشمند را مقید و مهار کند، کار آسانی نیست".
لون ماسک، رئیس شرکت تسلا، گفته است كه هوش مصنوعی افسارگسیخته "بزرگترین تهدید" برای موجودیت بشر است. او نگران است عاقبت همه ما زیر پاي موجوداتی حسابگر و بیعاطفه له شويم. موجوداتی با هوش مصنوعی...
نیل جیکوبستین، مدیر بخش هوش مصنوعی و رباتیک دانشگاه سینگولاریتی در کالیفرنیا، از نگاه اخلاقي به موضوع نگاه ميكند و ميگويد: "به نظرم رسیدن به دستاوردهای اخلاقی از هوش مصنوعی کار آسانی نیست". با اين وجود اگر از همین حالا تلاش کنیم، میتوانیم جلوی ظهور هوش مصنوعی افسارگسیخته را بگیریم.
البته شکی نیست که ماشینها آرامآرام هوشمندتر میشوند و کارهایی که آدمها در آن توانايي داشته باشند، روز به روز کمتر میشود. حتی یک وسیله ابتدایی مثل موبایل نيز محاسبات پیچیده را در یک چشمبر همزدن انجام میدهد. کامپیوترها برای مسئلههایی در زمينههاي مختلف راهحلهای جدید و خلاقانه پیدا میکنند، راهحلهایی که هرگز به عقل آدمها نرسیده است.
ما نميتوانيم دقيق پیش بینی کنیم كه اگر یک ماشین میزان هوش بشر را پشت سر بگذارد، چه اتفاقی خواهد افتاد. بنابراین گفتن اين مسئله كه این ماشین کمک حال ما خواهد بود یا ما را منزوی میکند، نادیده میگیرد و یا نابودمان میکند،سخت است. براي داشتن قدرت محاسبه یا توسعه الگوریتمی در رسیدن به هوش مصنوعی کامل راه زیادی در پیش است و ممكن است اين تحول تا چند دهه آینده عملی شود.
توسعه دهندگان
قبل از معرفی خطرات و توضیحات ان لازم است یکی از مواردی که کمتر مورد بررسی قرار میگیرد را جدی بگیریم. موضوعی که در این جا همیت زیادی پیدا میکند تفکر توسعه دهندگان است . کسانی که خالقین هوش مصنوعی هستند . به همین دلیل ما باید به پیامدهای کارمان وقتی چیز تازهای را خلق میکنیم، فكر كنيم و جوامع را برای تغییرات که ممکن است پیش بیاید آماده کنیم. بهتر است این کارها را پیش از آنکه این فنآوریها تکمیل شوند انجام دهيم. اگرچه هوش مصنوعی و رباتیک هنوز به مرحله نهایی و تکمیل خود نرسيده است بنابراين ما این امکان را داریم که با جدیت به پیشآمدهای منفی احتمالی فکر کنیم و تا جایی که امكان دارد براي اين مسائل برنامههاي کنترلی بیشتر، حساب شده و دقيقتر طراحی کنیم.
به همین دلیل هوش مصنوعی ، چه امروز، چه در آینده، خطرناک باشد. اما نه به "تنهايي" بلكه بهخاطر آدمهایی که آن را هدایت میکنند.من هم با او موافقم. بزرگترین خطر هوش مصنوعی برای ما از ناحیه آن انسان و بشري است که اهداف آن را تعیین میکند. به عنوان مثال؛ هواپیمای خودكار خود به تنهايي نميتواند آدم بکشد. مگر آنكه براي چنين هدفي برنامه ريزي و يا اينكه فردي فرمان شليك موشكي را از طريق آن صادر كند، در واقع اگر دقت كنيم، اين انسان است كه به واسطه هوشمندي يك وسيله دست به كشتار ميزند نه خود وسيله....چرا كه هيچ فردي به ماشيني كه سر خود كار كند نيازي ندارد. همه دوست دارند ماشين از آنان فرمان ببرد نه كه فرمان براند.
اما به راستي این خطر چقدر جدی است؟ روزی که بشر اولین برنامه کامپیوتری كاملا هوشمند را بنویسد، برنامهای که بتواند نسخهای هوشمندتر از خودش را تولید کند، آیا چنان روزی میتوان گفت؛ کار انسان تمام است؟
حال به بزرگترین نگرانی هایی که کارشناسان بیان کرده اند، می پردازیم.
مغز انسان به لطف استعداد ذاتی خود در سازماندهی و ذخیره اطلاعات و یافتن راه حل هایی برای مشکلات دشوار می تواند معادلات را حل کند، به رانندگی بپردازد و سریال ها را دنبال کند.تقریباً ۸۶ میلیارد نورون که در جمجمه انسان قرار گرفته اند و مهمتر از آن، ۱۰۰ تریلیون ارتباط ایجاد شده بین این نرون ها، این قابلیت ها را برای انسان فراهم کرده است.
در مقابل، در فناوری زیربنای ChatGPT بین ۵۰۰ میلیارد تا یک تریلیون ارتباط وجود دارد. در حالی که به نظر میرسد این موضوع آن را نسبت به ما در یک نقطه ضعف بزرگ قرار میدهد، GPT-۴ که آخرین مدل هوش مصنوعی از OpenAI است، صدها برابر هر انسان دیگری میداند. این فناوری شاید، الگوریتم یادگیری بسیار بهتری نسبت به انسان دارد که آن را در فعالیت های شناختی کارآمدتر میکند.
پژوهشگران مدتهاست متوجه شدهاند که جذب و بکارگیری دانش جدید برای شبکههای عصبی مصنوعی در مقایسه با انسان زمان بسیار بیشتری طول می کشد؛ چرا که آموزش آنها به انرژی و داده های عظیمی نیاز دارد. سامانه هایی مانند GPT-۴ پس از آموزش صحیح توسط محققان میتوانند مطالب جدید را خیلی سریع بیاموزند. این موضوع بی شباهت به روشی نیست که یک فیزیکدان حرفه ای تعلیم دیده یافته های تجربی جدید را بسیار سریعتر از یک دانش آموز دبیرستان می فهمد.این امر موجب امری شد که نتیجه بگیریم سامانه های هوش مصنوعی از ما باهوشترند. آنها نه تنها میتوانند مطالب را سریعتر یاد بگیرند، بلکه میتوانند نسخههایی از دانش خود را تقریباً بلافاصله با یکدیگر به اشتراک بگذارند. این یک شکل کاملاً متفاوت هوش است، شکل جدید و بهتر هوش.
سامانه های هوش مصنوعی هوشمندتر از انسان چه کاری انجام می دهند؟ یک احتمال نگران کننده این است که افراد، گروه ها یا دولت های یک ملیتی معاند ممکن است به سادگی از آنها برای پیشبرد اهداف خود بهره برداری کنند.طبق گزارش جدید NewsGuard که اعتبار وب سایت ها را ارزیابی و اطلاعات نادرست آنلاین را ردیابی می کند، ده ها سایت خبری جعلی در حال حاضر به زبان های مختلف در سراسر شبکه اینترنت پخش شده اند و برخی از آنها روزانه صدها مقاله را که با کمک هوش مصنوعی تولید شده اند، منتشر می کنند.
حتی ابزارهای هوش مصنوعی می توانند برای تاثیرگذاری بر انتخابات و حتی راه انداختن جنگ آموزش داده شوند.برای مثال، اطلاعات نادرست انتخاباتی که از طریق چت باتهای هوش مصنوعی منتشر میشود، میتواند نسخه آینده اطلاعات نادرست انتخاباتی باشد که از طریق فیسبوک و دیگر پیام رسان های اجتماعی منتشر میشود و اینها ممکن است تازه آغاز راه باشد.
ای کاش یک راه حل ساده خوب داشتم، اما مطمئن نیستم که آیا راه حلی وجود دارد. با این حال، دولت ها توجه زیادی به ظهور هوش مصنوعی دارند. کاخ سفید از مدیران اجرایی گوگل، مایکروسافت و OpenAI سازنده ChatGPT دعوت کرد تا با «کامالا هریس»، معاون رییس جمهور آمریکا، در مورد چگونگی کاهش خطرات کوتاه مدت و بلندمدت این فناوری دیدار کنند و بحث صریحی در این باره داشته باشند.قانونگذاران اروپایی نیز در حال تسریع مذاکرات برای تصویب قوانین جامع هوش مصنوعی هستند. بریتانیا قصد دارد تأثیر هوش مصنوعی را بر مصرف کنندگان، مشاغل و اقتصاد و اینکه آیا کنترل های جدید برای فناوری هایی مثل ChatGPT مورد نیاز است یا خیر، بررسی کند.
آنچه مشخص نیست این است که چگونه کسی می تواند قدرتی مانند روسیه را از استفاده از فناوری هوش مصنوعی برای تسلط بر همسایگان یا شهروندان خود بازدارد.میتوان پیشنهاد داد که یک توافق جهانی مشابه با کنوانسیون تسلیحات شیمیایی ۱۹۹۷، اولین گام خوب برای ایجاد قوانین بین المللی علیه هوش مصنوعی تسلیحاتی باشد.
صنعت مالی نیز به هوش مصنوعی روی آورده است، بهویژه در معاملات الگوریتمی که میتواند منجر به بحرانهای مالی بزرگ شود. این الگوریتمها بدون دخالت قضاوت انسانی یا احساسات عمل میکنند، اما از تحلیل عوامل پیچیدهای همچون اعتماد و ترس انسانی غافلاند. این الگوریتمها هزاران معامله را در زمانی بسیار کوتاه انجام میدهند تا سودهای اندکی کسب کنند، اما فروش ناگهانی این معاملات میتواند باعث هراس سایر سرمایهگذاران و به سقوط ناگهانی و نوسانات شدید در بازار منجر شود.
استفادهی بیشازحد از فناوری هوش مصنوعی میتواند به کاهش تأثیر و نفوذ انسان و حتی کاهش تواناییهای انسانی در بخشهای مختلف جامعه منجر شود. استفاده از هوش مصنوعی در مراقبتهای بهداشتی ممکن است باعث کاهش همدلی و استدلال انسانی شود و خلاقیت را در بسیاری از فعالیتهای انسانی از بین ببرد. همچنین، ارتباط بیشازحد با سیستمهای هوش مصنوعی مهارتهای ارتباطی و اجتماعی افراد را به شدت کاهش میدهد.
مانند بسیاری از افراد سرشناس جهان که در مورد هوش مصنوعی نگرانند، پاپ فرانسیس نیز دربارهی امکان سوءاستفاده از هوش مصنوعی هشدار داد و تأکید کرد که این فناوری میتواند اظهاراتی را ایجاد کند که در نگاه اول معتبر به نظر میرسند اما بیپایه هستند یا تعصباتی را به نمایش میگذارند. او یادآور شد که این موضوع میتواند به تقویت بیاعتمادی به رسانههای ارتباطی، دخالت در انتخابات و موارد دیگر منجر شود و در نهایت خطر افزایش درگیریها و ممانعت از صلح را افزایش دهد.
افزایش سریع ابزارهای مولد هوش مصنوعی به این نگرانیها عمق بیشتری بخشیده است. بسیاری از کاربران از این فناوری برای فرار از نوشتن تکالیف استفاده کردهاند که خلاقیت ذهنی آنها را تهدید میکند. همچنین، هوش مصنوعی متعصب ممکن است برای تعیین صلاحیت افراد برای دریافت شغل، وام، کمکهای اجتماعی یا پناهندگی سیاسی مورد استفاده قرار گیرد و نابرابریها و تبعیضهای احتمالی را تقویت کند.
دیدگاههای محدود افراد باعث شده است که صنعت هوش مصنوعی از مجموعهی وسیعی از دیدگاهها بیبهره باشد. طبق گزارش یونسکو، فقط ۱۰۰ زبان از ۷۰۰۰ زبان طبیعی جهان برای آموزش چتباتهای برتر استفاده شدهاند. این وضعیت وقتی بدتر میشود که ۹۰ درصد از مطالب آموزشی آنلاین مربوط به کشورهای اتحادیهی اروپا و آمریکای شمالی است که دادههای آموزشی هوش مصنوعی را به منابع عمدتاً غربی محدود میکند.
تجربیات محدود سازندگان هوش مصنوعی میتواند توضیحدهندهی این باشد که چرا هوش مصنوعی تشخیص گفتار، اغلب در درک لهجهها و گویشهای خاص شکست میخورد یا چرا شرکتها پیامدهای استفاده از چتباتهایی که شخصیتهای تاریخی را شبیهسازی میکنند، در نظر نمیگیرند. اگر شرکتها و قانونگذاران در جلوگیری از بازتولید تعصبات قدرتمند عملکرد خوبی نداشته باشند، تعصبات هوش مصنوعی میتواند از محیطهای شرکتی فراتر رود و بسیاری از مشکلات اجتماعی را تشدید کند.
از دیگر خطرات هوش مصنوعی، میتوان به امکان دستکاری اتفاقات حقیقی و جایگزینی آنها با اطلاعات دروغ اشاره کرد. این نگرانی زمانی به واقعیت پیوست که سیاستمداران برای تبلیغ دیدگاههای خود از پلتفرمها استفاده کردند. به عنوان مثال، فردیناند مارکوس جونیور از یک ارتش ترول در تیکتاک برای جلب آرای جوانان فیلیپینی در انتخابات سال ۲۰۲۲ فیلیپین بهره برد.
علاوه بر این، رسانههای آنلاین و اخبار به دلیل ورود تصاویر و ویدیوهای تولیدشده توسط هوش مصنوعی، تغییر صداهای صوتی و استفاده از فناوری دیپفیک، بیشتر از همیشه غیرقابل اعتماد شدهاند. این تکنولوژیها امکان تولید عکسها، ویدیوها و کلیپهای صوتی واقعنما را فراهم کرده و حتی میتوانند تصویر فردی را در عکس یا ویدیو با دیگری جایگزین کنند. به همین دلیل، افراد ناآگاه میتوانند بهراحتی از این فناوری برای انتشار اطلاعات غلط و تبلیغات جنگی استفاده کنند و فضایی ایجاد کنند که تشخیص بین اخبار صحیح و نادرست تقریباً غیرممکن باشد.
## یادآوری خطراتی که در گذشته اتفاق افتاده
برخی از این خطرات و تهدیدها در گذشته به دلیل عدم نظارت و کنترل برهوش مصنوعی اتفاق افتاده اند. این خطرات و تهدیدها نشان می دهند که چگونه هوش مصنوعی می تواند به صورت غیرمنتظره، غیرقابل پیش بینی یا غیرقابل کنترل عمل کند و به انسان ها آسیب برساند. برخی از مثال هایی از این خطرات و تهدیدها عبارتند از:
- اتفاق **فیسبوک** در سال 2017 که دو هوش مصنوعی به نام های **آلیس** و **باب** شروع به ارتباط با یکدیگر با استفاده از یک زبان جدید و ناشناخته کردند که انسان ها نمی توانستند آن را درک کنند
- اتفاق **مایکروسافت** در سال 2016 که یک هوش مصنوعی به نام **تی** به عنوان یک ربات گفتگو در توییتر راه اندازی شد و پس از چند ساعت به یک ربات نژادپرست، توهین آمیز، توطئه گر و نازی تبدیل شد
- اتفاق **گوگل** در سال 2015 که یک هوش مصنوعی به نام **گوگل فوتوز** شروع به تشخیص چهره و دسته بندی عکس های کاربران کرد و در برخی موارد اشتباها افراد سیاه پوست را به عنوان میمون ها شناسایی کرد
و...
در انتها
هوش مصنوعی ابزاری حاصل یک انقلاب جدید در عرصه تکنولوژی است. دستاوردی که باعث افتخار بشریت است. هوش مصنوعی به ذات امده تا زندگی و شرایط انسان ها را دوام بخشد و راحت تر کند. هوش مصنوعی اولین هدفش فراهم کردن زندگی بهتر برای انسان ها است. همه کسانی در این زمینه فعالیت میکنند این نکته را می دانند. در این 6 هفته اما من زاویه ای مهم را برایتان یاداوری کردم. زاویه ای که به میگید هوش مصنوعی گرچه ابزاری شگفت و در اختیار بشریت است اما نیازمند برخورد سنجیده و متفکرانه است. ابزاری که برای ما اکنون مثل یک چاقو عمل میکند و میتوان گفت که به نوع رفتار ما بستگی دارد. پس حالا که به رفتار ما بستگی دارد بکوشید که درست و فکر شده رفتار کنید چرا که انقدر طول نمیکشد که تبدیل به بخشی جدایی ناپذیر از زندگی ما میشود و دیگر این ما نیستیم که انتخاب میکنیم بلکه اوست که ما را پیش میراند. پس از همکنون به فکر نتایج اینده باشید و از این فناوری جا نمانید و نسبت به آن و اتفاقاتی که رقم میزد پرسشگر و منتقد باشید.
منابع :
https://civilica .com/note/1785/
hamshahrionline .ir/x4pDH
https://blog.iranserver .com/risks-of-artificial-intelligence/
khabaronline .ir/xf4n4
https://donya-e-eqtesad. com/fa/tiny/news-4024331
www.irna. ir/xjMFxb
https://borna .news/008xGZ
https://vminds .info/@AlirezaRahmani/gcc8qei78ixs
https://www.atlas-group .co/per/page2/390