حمیدرضا مازندرانی
حمیدرضا مازندرانی
خواندن ۱۱ دقیقه·۱ سال پیش

گلچینی از پست‌های من درباره یادگیری ماشین

این نوشته گلچینی از پست‌های فارسی من در لینکدین در زمینه یادگیری ماشین از از دی ماه 99 تاکنون است.

هنوز هم مخالفم!

به نظرم تشخیص احساسات چهره با استفاده از یادگیری عمیق یکی از کاربردهای هوش مصنوعی است که پتانسیل بسیار بالایی برای سوءاستفاده داره.

یک مثال فقط به جهت دادن سرنخ می‌زنم. اخبار مربوط به اعدام افراد در کره شمالی به این دلیل که در جلسات سخنرانی رهبران کشورشان چرت می‌زده‌اند را احتمالاً شنیده‌اید. حال فرض کنید به کمک فناوری تشخیص بدهند افراد در هنگام سخنرانی بیدار ولی خشمگین بوده‌اند…

البته این تنها نظر من نیست و بسیاری از چهره‌های حقیقی و حقوقی هم در این زمینه هشدار داده‌اند. کافیه عبارت زیر رو در گوگل سرچ کنید:
emotion detection should be banned
نتیجه این که سازمان‌های مقررات‌گذار و رگولاتوری‌ها و نهادهای مدافع حقوق بشر باید کاملاً هوشیار باشند.

لینک


امیدواری بی‌حاصل

امیدوارم در سال جدید [1400] صنایع و دانشگاه‌های کشورمون توجه بیش‌تری به هوشمندسازی فرآیندها و محصولات نشون بدن. این ابراز امیدواری به نوعی یک تلنگر نیز هست، چرا که:

سیستم‌های هوشمند از جنس منطق ایستا نیستن که ماهی‌شون رو هر موقع از آب بگیری تازه باشه؛ بلکه به قول قیصر امین‌پور: "چه زود دیر می‌شود"!

در واقع سیستم‌های هوشمند ماهیت تکاملی دارن و به سان یک موجود زنده رشد می‌کنن.

در همین راستا، یک سخنرانی از آقای اندرو نگ با موضوع مقایسه نگاه مدل-محور و داده-محور در پیاده‌سازی هوش مصنوعی تماشا کردم که بر این موضوع تاکید کرد.

در شکل زیر که از ارایه ایشون برداشته‌ام، نرم‌افزارهای سنتی با نرم‌افزارهای هوش مصنوعی مقایسه شده. خطوط بازگشتی در فلوچارت پایین به روشنی ماهیت تکاملی سیستم‌های هوشمند رو نشون میده.

لینک


در باب یادگیری تقویتی

یادگیری تقویتی رو دوست دارم، و یک دلیلش شباهت به فرآیند یادگیری انسان و مباحث روانشناسی و توسعه فردی است.

البته این نکته حیاتی رو باید بهش توجه داشته باشیم که با وجود چنین شباهت‌هایی، فرآیندهای زندگی واقعی و نحوه یادگیری انسان بسیار بسیار پیچیده‌تر از سیستم‌های کامپیوتری فعلی است.

با این حال نکات آموزنده همچنان وجود داره. برای مثال، این جملات رو از مستندات فریم‌ورک یادگیری تقویتی
stable-baselines3 برداشتم. به نظرتون قابل تعمیم به زندگی ما نیست؟

داده‌های مورد استفاده برای آموزش عامل [یادگیری تقویتی] از طریق تعاملات با محیط توسط خود عامل جمع‌آوری می‌شود (در مقایسه با یادگیری باناظر که در آن یک مجموعه داده ثابت دارید).

این وابستگی می‌تواند به یک دور باطل منجر شود: اگر عامل داده‌های بی‌کیفیت را جمع‌آوری کند (به عنوان مثال، مسیرهای بدون پاداش)، آنگاه بهبود نخواهد یافت و مسیرهای بد را تکرار خواهد نمود.

لینک

پاداش کافی است!

در پست قبلی یک مقاله حوزه شبکه را بررسی کردیم، حالا نوبت یک مقاله هوشه که نویسندگانش پیشگامان یادگیری تقویتی هستن. این کار پژوهشی به تازگی در ژورنال Artificial Intelligence منتشر شده و جالبه که بازتاب خبری هم پیدا کرده.

یک مقاله خیلی خاص با عنوان:
Reward is Enough
آپدیت 1402: این مقاله در حال حاضر نزدیک به 400 ارجاع داره.


همون‌طور که عنوان مقاله با قاطعیت میگه: پاداش کافی است! در خود مقاله هم فرضیه‌ای مطرح شده که طبق اون حداکثرسازی پاداش برای بازآفرینی هر گونه هوش طبیعی از جمله بینایی، استدلال، ارتباط اجتماعی، زبان، توانایی حرکت و … کافی است.

در اینجا هوش به طور کلی توانایی دستیابی به اهداف تعریف میشه.

در نتیجه، یادگیری تقویتی ابزار دستیابی به هوش مصنوعی جامع (AGI) دونسته شده، با این توضیح که اگه تجربه‌های عامل یادگیر به اندازه کافی غنی باشه، میتونه خود به خود اهدافی در سطوح مختلف رو دنبال کنه.
برای مثال، یک ربات با هدف غایی جلوگیری از تمام شدن باتری، میتونه هدف شناسایی اجسام رو برای یافتن شارژر دنبال کنه و بدین شکل قابلیت بینایی خودش رو هم توسعه بده.

به نظر خود من، حتی اگه این فرضیه صحیح باشه، الزاماً منجر به ساخت چنین سیستم‌هایی نمیشه. در مقاله هم اشاره شده که این فرضیه صحبتی درباره کارایی نمونه (sample efficiency) نمیکنه. کارایی نمونه در یادگیری تقویتی به تعداد نمونه‌های لازم برای رسیدن به یک حد مشخص از عملکرد گفته میشه.

پس به نظر ما همچنان باید تلاشمون رو برای ایجاد سیستم‌های هوشمند محدود ادامه بدیم ?

لینک


پروتکل‌های هوشمند

پروتکل‌های شبکه معمولاً با دقت نظر خاصی از سوی مهندسا و پژوهشگرای این حوزه طراحی میشن، که به طور دقیق سازوکار انتقال اطلاعات در شبکه رو مشخص میکنن.

ماهیت این پروتکل‌ها عمدتاً استاتیک هست، چرا که محتوای پیام‌ها و ترتیب ارسالشون ازقبل‌مشخص‌شده است.
برای مثال پروتکل TCP در لایه انتقال یا پروتکل CSMA در لایه کنترل دسترسی.

از طرفی در این چند سالی که هوشمندسازی شبکه‌های کامپیوتری خیلی مورد توجه قرار گرفته، تمرکزها بیشتر روی الگوریتم‌های تحلیل یا تصمیم‌گیری بوده، یعنی کاری کنیم که روی همین سازوکار موجود کارایی بهتری داشته باشیم.

اما تعامل هوش مصنوعی و شبکه وارد فاز جدیدی شده، فازی که در اون پروتکل‌ها هم هوشمندسازی میشن.
این شاخه جدید پژوهشی رو میشه ذیل مبحث کلی‌تر Learning to communicate قرار داد.

در پروتکل‌های هوشمند خودِ اجزای شبکه یاد میگیرن که چه سازوکاری در شرایط فعلی بهتره. به عنوان یک مثال خیلی ساده، با توجه به سطح نویز و تداخل محیط، فرستنده و گیرنده تصمیم می‌گیرن که از مکانیزم ack یا مکانیزم‌های مشابه استفاده کنن یا خیر.

در پایان این رو هم بگم که احتمالاً حدس زدین این رویکرد جدید بیشتر از همه با یادگیری تقویتی سر و کار خواهد داشت!

لینک


تجربه، تخصص و خِرَد!

تجربه را با تخصص اشتباه نگیرید. مواجهه با مشكل تضمین نمی‌کند كه بر راه‌حل مسلط شده باشید.
تخصص را با خرد اشتباه نگیرید. داشتن دانش عمیق تضمین نمی‌کند که بدانید چه زمانی [این دانش] کاربرد دارد.

آدام گرنت

در دنیای هوش مصنوعی داستان مشابهی با آن‌چه که آدام گرنت برای دنیای انسان‌ها گفته برقراره:

اگه یک شبکه عصبی میلیون‌ها رکورد داده مثلاً عکس به عنوان ورودی دریافت کنه ولی نرخ یادگیریش برابر صفر باشه یا بردارهای گرادیانِ وزن‌ها فریز شده باشه* طبیعتاً تخصصی ایجاد نمیشه.

اما مشکل اصلی جامعه‌ی هوش مصنوعی، پاراگراف دوم توییت هست.

در واقع امروزه با الگوریتم‌های یادگیری مناسب و تنظیم دقیق وزن‌های شبکه عصبی، تجربه به تخصص تبدیل شده.

اما چه‌گونه این تخصص رو به خرد ارتقاء بدیم؟ شاید با روش‌های مبتنی بر علیّت، شاید با یادگیری تقویتی که به ما قدرت تصمیم‌گیری میده و یا خلاقیت‌هایی که در آینده رخ خواهد داد.

لینک


تا با چشم خودت ندیدی باور نکن!

اما این روزها دیدن هم جایگاه خودش رو از دست داده و این تا حد زیادی تقصیر شبکه‌های مولّد تخاصمی (به اختصار گَن*) هست که میتونن تصاویر دیپ‌فیک تولید کنن!

این شبکه‌ها میتونن تصاویر یا هر اطلاعات معناداری بسازن که در دنیای واقعی وجود نداره.
مطالب مفیدی در این زمینه در لینکدین منتشر شده که چند تا لینک رو برای نمونه در کامنت قرار میدم.
شما هم اگه مطلب جالبی خوندین لینکش رو بذارین عالی میشه.
اما اجازه بدین یه قدم به عقب برگردیم و فلسفه وجودی این شبکه‌ها رو بازگو کنیم.

ماجرا ازین‌جا شروع میشه که سیستم‌های یادگیری ماشین به طور معمول بر اساس احتمالات شرطی کار می‌کنن، یعنی با دونستن توزیع یک متغیر، میتونن توزیع یک متغیر دیگه رو به دست بیارن.

مثلاً عکس بهشون بدی (متغیر اول) اشیاء داخل اون عکس (متغیر دوم) رو شناسایی کنن؛

یا دمای هوای ده روز (متغیر اول) رو بدی دمای هوای روز یازدهم (متغیر دوم) رو تخمین بزنن.

اما شبکه‌های مولّد می‌تونن توزیع احتمال مشترک بین چند متغیر رو محاسبه کنن.

مثلاً اگه هر پیکسل عکس رو یک متغیر در نظر بگیریم، شبکه‌های مولّد میتونن نمونه‌هایی از این فضای بزرگ احتمالاتی تولید بکنن؛

نمونه‌ای که تشخیص جعلی بودنش توسط چشم ما هم گاهی غیرممکن میشه و دوباره باید دست به دامان هوش مصنوعی بشیم که تفاوت‌های ظریف بین واقعیت و مجاز رو تشخیص بده.

لینک


فراتر از ارسال بیت‌ها

آپدیت 1402: خوشحالم که در این حوزه مقاله‌ای در دست داوری داریم.

عبارت بالا بخشی از عنوان نسخه ویژه ژورنال معتبر JSAC است که به ارتباطات معنایی* اختصاص داده شده (لینک در انتهای مطلب).

داستان ازین قراره حالا که به حد بالای ظرفیت کانال طبق نظریه شانون رسیده‌ایم، نوبت این رسیده که به معنا، محتوا و کارکرد اطلاعاتی که قراره منتقل بشه توجه کنیم.

برای مثال، شما با یه نفر که تلفنی صحبت می‌کنید، اگه لحظه‌ای صدا قطع بشه شاید بتونید بر اساس زمینه کلی صحبت‌های طرف مقابل، متوجه منظورش بشید. در واقع نیاز نیست تک‌تک بیت‌های اطلاعات در مقصد بازیابی بشه، بلکه معنا و مفهومه که اهمیت داره.
یک ایده جالب در همین زمینه که به ذهن خودم رسیده: (و احتمالاً یکم سرچ کنیم مقاله‌ش هم منتشر شده باشه!)
دستاوردهای پردازش زبان طبیعی (NLP) میتونه خیلی برای ارتباطات معنایی کمک‌کننده باشه. در واقع ممکنه در آینده بازیابی خطا در شبکه بر اساس پردازش زبان طبیعی داشته باشیم. ?

لینک


دیدگاه‌های فعلی من پیرامون مدل‌های زبانی بزرگ مثل chatGPT

1.      سال‌های آینده حجم زیادی از چالش‌های علوم انسانی حول مدل‌های زبانی رخ خواهد داد؛ از جمله اعتیاد به استفاده از این مدل‌ها، به ویژه اگه: الف) ویژگی‌های احساسی و عاطفی رو هم یاد بگیرن، مثلاً یاد بگیرن با کاربر لاس بزنن. ب) محدودیت‌های عملیاتی استفاده ازشون کاهش پیدا کنه (برای مثال قابل اجرا به صورت آفلاین باشن).

2.     مسئله حریم شخصی تشدید خواهد شد، چرا که همه زندگی خصوصی ما لابلای وزن‌های این مدل‌ها ذخیره میشه. در عین حال، با توجه به ماهیت شبکه‌های عصبی در درون یابی (interpolation) اطلاعات، ممکنه خروجی این مدل‌ها اطلاعات نادرستی از زندگی ما بده. برای مثال، فردی هم‌نام من در ایران زندگی میکنه با تخصص در زمینه فیزیک. محض کنجکاوی یه بار در سرویس چت موتور جستجوی یودات‌کام نوشتم حمیدرضا مازندرانی کیست؟ که اطلاعات زندگی من و ایشون رو ترکیب کرد و به عنوان خروجی تحویل داد!

3.     مسئله هک این مدل‌ها که تحت عنوان prompt engineering شناخته میشه، خودش یه بیزینس و تخصص خواهد شد (و البته چالش). برای مثال chatGPT از نوشتن مقاله منع شده، اما خانم مهسا حافظی با تکنیک جالبی تونسته از این مدل یه مقاله سئوشده درباره شکلات خروجی بگیره! (لینک در کامنت).

4.     اونایی که از یادگیری تقویتی خوششون نمیاد میتونن برن! درهمین مدل chatGPT هم از یک شیوه خاص تحت عنوان یادگیری تقویتی با فیدبک انسانی (RLHF) استفاده شده. همون طور که آقای سرگئی لوین از مطرح‌ترین چهره‌های این حوزه اعلام کرد (لینک در کامنت)، یادگیری تقویتی با توجه به قدرتی که در زمینه درک مفهوم زمان دارن کاربرد گسترده‌تری پیدا خواهند کرد. برای مثال، در مذاکره ممکنه شما حرفی بزنید که در اون لحظه معنی نداشته باشه اما بعداً به کارتون بیاد و این چیزیه که با یادگیری تقویتی احتمالاً بشه بهش رسید.


هر فناوری برهم‌زننده* به سه شکل بر فضای کسب و کار تاثیر میذاره: 1. ایجاد شغل‌های جدید (تاثیر سازنده) 2. از بین بردن شغل‌های موجود (تاثیر مخرّب) 3. افزایش بهره‌روی افراد شاغل (مخرب یا سازنده بسته به تاثیرات بر مکانیزم عرضه تقاضا).

در برآیند نهایی، تخمین ضریب تاثیرگذاری هر دسته واقعاً دشواره، به ویژه درباره مدل‌های زبانیِ بزرگ که واقعاً انقلابی محسوب میشن. با این حال من یک سری حدسیات خودم رو مطرح میکنم:

1.     برخی شغل‌های مکاتبه‌ای مثل پشتیبان سایت یا اپراتور مرکز تماس واقعاً از بین میرن، یا در محافظه‌کارترین سناریو اکثر درخواست‌ها توسط مدل پاسخ داده میشه و فقط تعداد محدودی به کارشناس انسانی ارجاع داده میشه.

2.     همونطوری که نقشه‌های آنلاین به کمک راننده‌ها اومدن، این مدل‌ها به کمک هر کسی که با "نوشتن" سر و کار داره خواهند اومد: از تولیدکنندگان محتوا گرفته تا رمان‌نویس‌ها و حتی برنامه‌نویس‌ها که برای دلِ کامپیوترها می‌نویسن!

3.     ماجرای فوق به سادگی ختم بخیر نخواهد شد. اگه این روزها نقشه آنلاین داریم، یه روزی هم خودروی خودران هم خواهیم داشت! به همین ترتیب، در آینده مدل‌هایی خواهیم داشت که خودشون میتونن یک متن یا برنامه رو به صورت خودکار بنویسن. البته، همونطور که انتظار میره تا حداقل یک دهه آینده، راننده انسانی در خودروی خودران حضور داشته باشه تا برخی شرایط دشوار رو مدیریت کنه، برای نوشتن هم به یک عامل انسانی در کنار مدل هوشمند نیاز خواهد بود تا کمی چاشنی منطق، طنز و استعاره به متن اضافه کنه (مثل جمه آخر آیتم قبلی).

4.     در این دنیای پر از استرس و بحران‌های وجودی، دسترسی به یک تراپیست یا مشاور ارزون‌قیمت که همیشه هم در دسترسه یه نعمته! البته به گمان من این سرویس رو میتونیم جزو آیتم سه نیز قلمداد کنیم، چرا که مشاور انسانی میتونه با اجازه‌ی مُراجع از چت‌هایی که با مدل هوشمند انجام شده (یا خلاصه‌ای ازش) برای بهبود روند درمان بهره بره.

5.     آیتم قبلی برای همه شغل‌های مشاوره (حقوقی، تجاری، درسی و ...) صدق میکنه.

6.     چنان‌چه حسام موسوی در پست قبلی اشاره کرد، بسیاری فرصت‌های تحقیقاتی پیرامون این فناوری شکل میگیره، از بهبود و نگهداری این مدل‌ها گرفته تا تحلیل تاثیرات گسترده‌ای که بر روان فردی و جمعی انسان‌ها میذارن.

7.      این نکته رو هم باید همیشه مد نظر داشته باشیم: اگه یه فناوری 100 تا شغل ایجاد میکنه و 100 تا شغل از بین میبره، برآیند نهایی‌اش صفر نیست، چرا که معمولاً شغل‌های جدید سطح شناختی بالاتر و مهارت‌های پیچیده‌تری نیاز دارن.

ایده‌های اقتصادی این نوشته بر اساس نظریات دانیل ساسکیند، اقتصاددان معروف نوشته شده.

لینک یک و دو







یادگیری تقویتییادگیری ماشینهوش مصنوعیchatgpt
خالق محتوا، کد و هوشمندی!
شاید از این پست‌ها خوشتان بیاید