این نوشته گلچینی از پستهای فارسی من در لینکدین در زمینه یادگیری ماشین از از دی ماه 99 تاکنون است.
به نظرم تشخیص احساسات چهره با استفاده از یادگیری عمیق یکی از کاربردهای هوش مصنوعی است که پتانسیل بسیار بالایی برای سوءاستفاده داره.
یک مثال فقط به جهت دادن سرنخ میزنم. اخبار مربوط به اعدام افراد در کره شمالی به این دلیل که در جلسات سخنرانی رهبران کشورشان چرت میزدهاند را احتمالاً شنیدهاید. حال فرض کنید به کمک فناوری تشخیص بدهند افراد در هنگام سخنرانی بیدار ولی خشمگین بودهاند…
البته این تنها نظر من نیست و بسیاری از چهرههای حقیقی و حقوقی هم در این زمینه هشدار دادهاند. کافیه عبارت زیر رو در گوگل سرچ کنید:
emotion detection should be banned
نتیجه این که سازمانهای مقرراتگذار و رگولاتوریها و نهادهای مدافع حقوق بشر باید کاملاً هوشیار باشند.
امیدوارم در سال جدید [1400] صنایع و دانشگاههای کشورمون توجه بیشتری به هوشمندسازی فرآیندها و محصولات نشون بدن. این ابراز امیدواری به نوعی یک تلنگر نیز هست، چرا که:
سیستمهای هوشمند از جنس منطق ایستا نیستن که ماهیشون رو هر موقع از آب بگیری تازه باشه؛ بلکه به قول قیصر امینپور: "چه زود دیر میشود"!
در واقع سیستمهای هوشمند ماهیت تکاملی دارن و به سان یک موجود زنده رشد میکنن.
در همین راستا، یک سخنرانی از آقای اندرو نگ با موضوع مقایسه نگاه مدل-محور و داده-محور در پیادهسازی هوش مصنوعی تماشا کردم که بر این موضوع تاکید کرد.
در شکل زیر که از ارایه ایشون برداشتهام، نرمافزارهای سنتی با نرمافزارهای هوش مصنوعی مقایسه شده. خطوط بازگشتی در فلوچارت پایین به روشنی ماهیت تکاملی سیستمهای هوشمند رو نشون میده.
یادگیری تقویتی رو دوست دارم، و یک دلیلش شباهت به فرآیند یادگیری انسان و مباحث روانشناسی و توسعه فردی است.
البته این نکته حیاتی رو باید بهش توجه داشته باشیم که با وجود چنین شباهتهایی، فرآیندهای زندگی واقعی و نحوه یادگیری انسان بسیار بسیار پیچیدهتر از سیستمهای کامپیوتری فعلی است.
با این حال نکات آموزنده همچنان وجود داره. برای مثال، این جملات رو از مستندات فریمورک یادگیری تقویتی
stable-baselines3 برداشتم. به نظرتون قابل تعمیم به زندگی ما نیست؟
دادههای مورد استفاده برای آموزش عامل [یادگیری تقویتی] از طریق تعاملات با محیط توسط خود عامل جمعآوری میشود (در مقایسه با یادگیری باناظر که در آن یک مجموعه داده ثابت دارید).
این وابستگی میتواند به یک دور باطل منجر شود: اگر عامل دادههای بیکیفیت را جمعآوری کند (به عنوان مثال، مسیرهای بدون پاداش)، آنگاه بهبود نخواهد یافت و مسیرهای بد را تکرار خواهد نمود.
در پست قبلی یک مقاله حوزه شبکه را بررسی کردیم، حالا نوبت یک مقاله هوشه که نویسندگانش پیشگامان یادگیری تقویتی هستن. این کار پژوهشی به تازگی در ژورنال Artificial Intelligence منتشر شده و جالبه که بازتاب خبری هم پیدا کرده.
یک مقاله خیلی خاص با عنوان:
Reward is Enough
آپدیت 1402: این مقاله در حال حاضر نزدیک به 400 ارجاع داره.
همونطور که عنوان مقاله با قاطعیت میگه: پاداش کافی است! در خود مقاله هم فرضیهای مطرح شده که طبق اون حداکثرسازی پاداش برای بازآفرینی هر گونه هوش طبیعی از جمله بینایی، استدلال، ارتباط اجتماعی، زبان، توانایی حرکت و … کافی است.
در اینجا هوش به طور کلی توانایی دستیابی به اهداف تعریف میشه.
در نتیجه، یادگیری تقویتی ابزار دستیابی به هوش مصنوعی جامع (AGI) دونسته شده، با این توضیح که اگه تجربههای عامل یادگیر به اندازه کافی غنی باشه، میتونه خود به خود اهدافی در سطوح مختلف رو دنبال کنه.
برای مثال، یک ربات با هدف غایی جلوگیری از تمام شدن باتری، میتونه هدف شناسایی اجسام رو برای یافتن شارژر دنبال کنه و بدین شکل قابلیت بینایی خودش رو هم توسعه بده.
به نظر خود من، حتی اگه این فرضیه صحیح باشه، الزاماً منجر به ساخت چنین سیستمهایی نمیشه. در مقاله هم اشاره شده که این فرضیه صحبتی درباره کارایی نمونه (sample efficiency) نمیکنه. کارایی نمونه در یادگیری تقویتی به تعداد نمونههای لازم برای رسیدن به یک حد مشخص از عملکرد گفته میشه.
پس به نظر ما همچنان باید تلاشمون رو برای ایجاد سیستمهای هوشمند محدود ادامه بدیم ?
پروتکلهای شبکه معمولاً با دقت نظر خاصی از سوی مهندسا و پژوهشگرای این حوزه طراحی میشن، که به طور دقیق سازوکار انتقال اطلاعات در شبکه رو مشخص میکنن.
ماهیت این پروتکلها عمدتاً استاتیک هست، چرا که محتوای پیامها و ترتیب ارسالشون ازقبلمشخصشده است.
برای مثال پروتکل TCP در لایه انتقال یا پروتکل CSMA در لایه کنترل دسترسی.
از طرفی در این چند سالی که هوشمندسازی شبکههای کامپیوتری خیلی مورد توجه قرار گرفته، تمرکزها بیشتر روی الگوریتمهای تحلیل یا تصمیمگیری بوده، یعنی کاری کنیم که روی همین سازوکار موجود کارایی بهتری داشته باشیم.
اما تعامل هوش مصنوعی و شبکه وارد فاز جدیدی شده، فازی که در اون پروتکلها هم هوشمندسازی میشن.
این شاخه جدید پژوهشی رو میشه ذیل مبحث کلیتر Learning to communicate قرار داد.
در پروتکلهای هوشمند خودِ اجزای شبکه یاد میگیرن که چه سازوکاری در شرایط فعلی بهتره. به عنوان یک مثال خیلی ساده، با توجه به سطح نویز و تداخل محیط، فرستنده و گیرنده تصمیم میگیرن که از مکانیزم ack یا مکانیزمهای مشابه استفاده کنن یا خیر.
در پایان این رو هم بگم که احتمالاً حدس زدین این رویکرد جدید بیشتر از همه با یادگیری تقویتی سر و کار خواهد داشت!
تجربه را با تخصص اشتباه نگیرید. مواجهه با مشكل تضمین نمیکند كه بر راهحل مسلط شده باشید.
تخصص را با خرد اشتباه نگیرید. داشتن دانش عمیق تضمین نمیکند که بدانید چه زمانی [این دانش] کاربرد دارد.
آدام گرنت
در دنیای هوش مصنوعی داستان مشابهی با آنچه که آدام گرنت برای دنیای انسانها گفته برقراره:
اگه یک شبکه عصبی میلیونها رکورد داده مثلاً عکس به عنوان ورودی دریافت کنه ولی نرخ یادگیریش برابر صفر باشه یا بردارهای گرادیانِ وزنها فریز شده باشه* طبیعتاً تخصصی ایجاد نمیشه.
اما مشکل اصلی جامعهی هوش مصنوعی، پاراگراف دوم توییت هست.
در واقع امروزه با الگوریتمهای یادگیری مناسب و تنظیم دقیق وزنهای شبکه عصبی، تجربه به تخصص تبدیل شده.
اما چهگونه این تخصص رو به خرد ارتقاء بدیم؟ شاید با روشهای مبتنی بر علیّت، شاید با یادگیری تقویتی که به ما قدرت تصمیمگیری میده و یا خلاقیتهایی که در آینده رخ خواهد داد.
اما این روزها دیدن هم جایگاه خودش رو از دست داده و این تا حد زیادی تقصیر شبکههای مولّد تخاصمی (به اختصار گَن*) هست که میتونن تصاویر دیپفیک تولید کنن!
این شبکهها میتونن تصاویر یا هر اطلاعات معناداری بسازن که در دنیای واقعی وجود نداره.
مطالب مفیدی در این زمینه در لینکدین منتشر شده که چند تا لینک رو برای نمونه در کامنت قرار میدم.
شما هم اگه مطلب جالبی خوندین لینکش رو بذارین عالی میشه.
اما اجازه بدین یه قدم به عقب برگردیم و فلسفه وجودی این شبکهها رو بازگو کنیم.
ماجرا ازینجا شروع میشه که سیستمهای یادگیری ماشین به طور معمول بر اساس احتمالات شرطی کار میکنن، یعنی با دونستن توزیع یک متغیر، میتونن توزیع یک متغیر دیگه رو به دست بیارن.
مثلاً عکس بهشون بدی (متغیر اول) اشیاء داخل اون عکس (متغیر دوم) رو شناسایی کنن؛
یا دمای هوای ده روز (متغیر اول) رو بدی دمای هوای روز یازدهم (متغیر دوم) رو تخمین بزنن.
اما شبکههای مولّد میتونن توزیع احتمال مشترک بین چند متغیر رو محاسبه کنن.
مثلاً اگه هر پیکسل عکس رو یک متغیر در نظر بگیریم، شبکههای مولّد میتونن نمونههایی از این فضای بزرگ احتمالاتی تولید بکنن؛
نمونهای که تشخیص جعلی بودنش توسط چشم ما هم گاهی غیرممکن میشه و دوباره باید دست به دامان هوش مصنوعی بشیم که تفاوتهای ظریف بین واقعیت و مجاز رو تشخیص بده.
آپدیت 1402: خوشحالم که در این حوزه مقالهای در دست داوری داریم.
عبارت بالا بخشی از عنوان نسخه ویژه ژورنال معتبر JSAC است که به ارتباطات معنایی* اختصاص داده شده (لینک در انتهای مطلب).
داستان ازین قراره حالا که به حد بالای ظرفیت کانال طبق نظریه شانون رسیدهایم، نوبت این رسیده که به معنا، محتوا و کارکرد اطلاعاتی که قراره منتقل بشه توجه کنیم.
برای مثال، شما با یه نفر که تلفنی صحبت میکنید، اگه لحظهای صدا قطع بشه شاید بتونید بر اساس زمینه کلی صحبتهای طرف مقابل، متوجه منظورش بشید. در واقع نیاز نیست تکتک بیتهای اطلاعات در مقصد بازیابی بشه، بلکه معنا و مفهومه که اهمیت داره.
یک ایده جالب در همین زمینه که به ذهن خودم رسیده: (و احتمالاً یکم سرچ کنیم مقالهش هم منتشر شده باشه!)
دستاوردهای پردازش زبان طبیعی (NLP) میتونه خیلی برای ارتباطات معنایی کمککننده باشه. در واقع ممکنه در آینده بازیابی خطا در شبکه بر اساس پردازش زبان طبیعی داشته باشیم. ?
1. سالهای آینده حجم زیادی از چالشهای علوم انسانی حول مدلهای زبانی رخ خواهد داد؛ از جمله اعتیاد به استفاده از این مدلها، به ویژه اگه: الف) ویژگیهای احساسی و عاطفی رو هم یاد بگیرن، مثلاً یاد بگیرن با کاربر لاس بزنن. ب) محدودیتهای عملیاتی استفاده ازشون کاهش پیدا کنه (برای مثال قابل اجرا به صورت آفلاین باشن).
2. مسئله حریم شخصی تشدید خواهد شد، چرا که همه زندگی خصوصی ما لابلای وزنهای این مدلها ذخیره میشه. در عین حال، با توجه به ماهیت شبکههای عصبی در درون یابی (interpolation) اطلاعات، ممکنه خروجی این مدلها اطلاعات نادرستی از زندگی ما بده. برای مثال، فردی همنام من در ایران زندگی میکنه با تخصص در زمینه فیزیک. محض کنجکاوی یه بار در سرویس چت موتور جستجوی یوداتکام نوشتم حمیدرضا مازندرانی کیست؟ که اطلاعات زندگی من و ایشون رو ترکیب کرد و به عنوان خروجی تحویل داد!
3. مسئله هک این مدلها که تحت عنوان prompt engineering شناخته میشه، خودش یه بیزینس و تخصص خواهد شد (و البته چالش). برای مثال chatGPT از نوشتن مقاله منع شده، اما خانم مهسا حافظی با تکنیک جالبی تونسته از این مدل یه مقاله سئوشده درباره شکلات خروجی بگیره! (لینک در کامنت).
4. اونایی که از یادگیری تقویتی خوششون نمیاد میتونن برن! درهمین مدل chatGPT هم از یک شیوه خاص تحت عنوان یادگیری تقویتی با فیدبک انسانی (RLHF) استفاده شده. همون طور که آقای سرگئی لوین از مطرحترین چهرههای این حوزه اعلام کرد (لینک در کامنت)، یادگیری تقویتی با توجه به قدرتی که در زمینه درک مفهوم زمان دارن کاربرد گستردهتری پیدا خواهند کرد. برای مثال، در مذاکره ممکنه شما حرفی بزنید که در اون لحظه معنی نداشته باشه اما بعداً به کارتون بیاد و این چیزیه که با یادگیری تقویتی احتمالاً بشه بهش رسید.
هر فناوری برهمزننده* به سه شکل بر فضای کسب و کار تاثیر میذاره: 1. ایجاد شغلهای جدید (تاثیر سازنده) 2. از بین بردن شغلهای موجود (تاثیر مخرّب) 3. افزایش بهرهروی افراد شاغل (مخرب یا سازنده بسته به تاثیرات بر مکانیزم عرضه تقاضا).
در برآیند نهایی، تخمین ضریب تاثیرگذاری هر دسته واقعاً دشواره، به ویژه درباره مدلهای زبانیِ بزرگ که واقعاً انقلابی محسوب میشن. با این حال من یک سری حدسیات خودم رو مطرح میکنم:
1. برخی شغلهای مکاتبهای مثل پشتیبان سایت یا اپراتور مرکز تماس واقعاً از بین میرن، یا در محافظهکارترین سناریو اکثر درخواستها توسط مدل پاسخ داده میشه و فقط تعداد محدودی به کارشناس انسانی ارجاع داده میشه.
2. همونطوری که نقشههای آنلاین به کمک رانندهها اومدن، این مدلها به کمک هر کسی که با "نوشتن" سر و کار داره خواهند اومد: از تولیدکنندگان محتوا گرفته تا رماننویسها و حتی برنامهنویسها که برای دلِ کامپیوترها مینویسن!
3. ماجرای فوق به سادگی ختم بخیر نخواهد شد. اگه این روزها نقشه آنلاین داریم، یه روزی هم خودروی خودران هم خواهیم داشت! به همین ترتیب، در آینده مدلهایی خواهیم داشت که خودشون میتونن یک متن یا برنامه رو به صورت خودکار بنویسن. البته، همونطور که انتظار میره تا حداقل یک دهه آینده، راننده انسانی در خودروی خودران حضور داشته باشه تا برخی شرایط دشوار رو مدیریت کنه، برای نوشتن هم به یک عامل انسانی در کنار مدل هوشمند نیاز خواهد بود تا کمی چاشنی منطق، طنز و استعاره به متن اضافه کنه (مثل جمه آخر آیتم قبلی).
4. در این دنیای پر از استرس و بحرانهای وجودی، دسترسی به یک تراپیست یا مشاور ارزونقیمت که همیشه هم در دسترسه یه نعمته! البته به گمان من این سرویس رو میتونیم جزو آیتم سه نیز قلمداد کنیم، چرا که مشاور انسانی میتونه با اجازهی مُراجع از چتهایی که با مدل هوشمند انجام شده (یا خلاصهای ازش) برای بهبود روند درمان بهره بره.
5. آیتم قبلی برای همه شغلهای مشاوره (حقوقی، تجاری، درسی و ...) صدق میکنه.
6. چنانچه حسام موسوی در پست قبلی اشاره کرد، بسیاری فرصتهای تحقیقاتی پیرامون این فناوری شکل میگیره، از بهبود و نگهداری این مدلها گرفته تا تحلیل تاثیرات گستردهای که بر روان فردی و جمعی انسانها میذارن.
7. این نکته رو هم باید همیشه مد نظر داشته باشیم: اگه یه فناوری 100 تا شغل ایجاد میکنه و 100 تا شغل از بین میبره، برآیند نهاییاش صفر نیست، چرا که معمولاً شغلهای جدید سطح شناختی بالاتر و مهارتهای پیچیدهتری نیاز دارن.
ایدههای اقتصادی این نوشته بر اساس نظریات دانیل ساسکیند، اقتصاددان معروف نوشته شده.