پیشرفت علوم کامپیوتر در دنیای امروز این قدر سریع شده که حتی همراه شدن با تغییراتش هم سخت به نظر میرسه. هر روز و هر روز تو باید انتظار تکنولوژیهای جدید رو داشته باشی. هوش مصنوعی یکی از شاخههای این علمه که داره تلاش میکنه هر مسئلهای که در طی تاریخ همیشه توسط انسانها حل میشده رو با استفاده از «یادگیری» و «تصمیمگیری» مصنوعی حل کنه و نشون بده که ماشینها میتونن کار انسانها رو خیلی راحتتر کنن. و این راحتتر کردن با اینکه چیز خوبی به نظر میرسه، اما تصور ماشینهایی که فکر میکنن و تصمیم میگیرن میتونه در عین حال ترسناک هم باشه.
انیمهی سریالی psycho-pass یا «روانگذر» جامعهای رو معرفی میکنه که تمامی تصمیمگیریها در اون توسط «سیستم» صورت میگیره. محوریت داستان اما اندازهگیری متریکی بهنام ضریب جرم در افراده که توسط همین سیستم صورت میگیره و تصمیم میگیره که آیا هر فرد یک مجرم بالقوه هست و در آیندهی نزدیک ممکن است جرمی مرتکب شود یا خیر. این انیمه بیشتر از سایبرپانک در ژانر روانشناختی دستهبندی میشه اما جامعهای که در اون به نمایش گذاشته میشه تا حدی ترسناک بودن یه جامعه رو که کاملاً توسط سیستمهایی به صورت خودکار اداره میشن، نشون میده.
محصولات سینمایی بسیاری هم در زمینهی هوش مصنوعی تهیه شده. به عنوان مثال میشه از فیلم Ex Machina یا «فراماشین» نام برد که داستان یک ربات رو بیان میکنه که قرار هست مورد آزمون تورینگ قرار بگیره. این فیلم هم میتونه به نوعی روی تاریک رباتها و هوش مصنوعی رو به زیبایی به تصویر بکشه. همهی اینها نشون میده که انسانها دو راهی سختی برای اعتماد به موجوداتی دارن که همنوع اونها نیستن و شاید هم روزی کنترل دنیای ما رو به دست بگیرن.
جدا از فیلمها و داستانها که فقط یک دیدگاه محدود از آینده هستند، هوش مصنوعی تلاش میکنه با سرعت جلو بره و محصولاتی داشته باشه که بتونن واقعاً فکر کنند یا شبیه به انسانها محتوایی تولید کنند. وجود مدلها در زمینهی تصویر، صوت یا متن گواهی این مطلبه ولی کیفیتها هنوز هم در بهترین حالت نیست. گاردین اما در ماه سپتامبر سال 2020 مطلبی منتشر کرده که تماماً توسط یک ماشین نوشته شده (لینک). این مقاله رو البته GPT-3 نوشته. مدلی که توی ماه می 2020 منتشر شده و یک مدل زبانی جدید ارائه کرده. OpenAI که منتشرکنندهی این مدل البته زمانی که میخواست ورژنهای قبلی GPT رو منتشر کنه حسابی جنجال به پا کرده بود که گویی قراره مدلی ارائه کنه که بنشینه و برای همه بلبلزبونی کنه. اما وقتی GPT منتشر شد معلوم شد که OpenAI بهسان مادری که دست و پای فرزندش رو بلورین میبینه فقط داشته تعریفهای گلدرشت تحویل ما میداده و در عمل فرزندش نه تنها بلبلزبونی بلد نیست، بلکه از پس تسکهای سادهتر هم به خوبی برنمیاد. بعد از اون مدلهای جدیدتر اومدن و روی دست GPT-2 زدن و نشون دادن که بهتره مادرها الکی فرزندانشون رو مرکز عالم تصور نکنند. :دی
اما OpenAI این دفعه برای تربیت GPT-3 دیتای خیلی خیلی بیشتری نشونش داد. GPT-3 که با تخمین خوبی بیشتر دیتای روی اینترنت رو دیده بود حالا وقتی ازش میپرسیدی دو به علاوهی دو چند میشه بهت میگفت چهار. اما بدون محاسبه. چرا؟ چون لابد یه جایی توی وسط اون بینهایت مقدار دیتا به این اشاره شده. :دی در واقع با این مدل زبانی تلاش کرد که تسکهای پردازش زبان رو انجام بده.
و حالا مقالهای که این مدل توی گاردین منتشر کرده هم در نوع خودش جالبه. این مقاله حاصل ترکیب هشت مقالهی جداگانهست که مدل GPT-3 در جواب این سوال تولید کرده که «چرا انسان نباید از هوش مصنوعی بترسه؟». ترکیب این هشت مقاله البته توسط سردبیری گاردین انجام شده، اما اگه کمی از متن رو بخونید میبینید که متن تا حد خوبی شبیه نوشتارهای انسانیه. و به نظرتون خیلی جالب نیست یه روزی هوش مصنوعی که تصور سلطهش بر جهان برای ما ترسناکه، خودش بیاد و از خودش دفاع کنه و دستش صلحطلبانه به سمت انسانها دراز کنه؟