آخرین شبکه نورون‌ها، بزرگ‌ترین معادلات دنیا را در سریع‌ترین زمان ممکن حل کردند.

شکل ۱. حل معادلات دیفرانسیل جزئی، مانند معادلات حاکم بر رفتار سیال‌های جاری، به شدت دشوار است. شبکه‌های عصبی ممکن است پاسخ این سوال باشند.
شکل ۱. حل معادلات دیفرانسیل جزئی، مانند معادلات حاکم بر رفتار سیال‌های جاری، به شدت دشوار است. شبکه‌های عصبی ممکن است پاسخ این سوال باشند.
منتشر‌شده در quantamagazine به تاریخ ۱۹ آوریل ۲۰۲۱
لینک منبع Latest Neural Nets Solve World’s Hardest Equations Faster Than Ever Before

دو رویکرد جدید به شبکه‌های عصبی عمیق این امکان را می‌دهند که کل خانواده‌های معادلات دیفرانسیل جزئی را حل کنند، و مدل‌سازی سیستم‌های پیچیده را آسان‌تر کنند و این کار را سریع‌تر انجام دهند. در فیزیک دبیرستان، ما در مورد قانون دوم نیوتن در مورد حرکت-نیرو برابر است با شتاب جرم-از طریق مثال‌های ساده از یک نیروی منفرد (مثل جاذبه) که بر روی یک شی از جرم عمل می‌کند، یاد می‌گیریم. در یک سناریوی ایده‌آل که در آن تنها متغیر مستقل زمان است، قانون دوم به طور موثر یک «معادله دیفرانسیل معمولی» است که می‌توان آن را برای محاسبه موقعیت یا سرعت شی در هر لحظه از زمان حل کرد.

اما در موقعیت‌های پیچیده‌تر، نیروهای متعددی بر روی بخش‌های متحرک یک سیستم پیچیده در طول زمان عمل می‌کنند. برای مدل کردن یک جت مسافر از طریق هوا، یک موج لرزه‌ای که از طریق زمین یا گسترش یک بیماری از طریق یک جمعیت موج می‌زند-برای اینکه چیزی از فعل و انفعالات نیروهای بنیادی و ذرات گفته نشود-مهندسان، دانشمندان و ریاضی دانان به «معادلات دیفرانسیل جزئی» (PDEs) متوسل می‌شوند که می‌تواند پدیده‌های پیچیده شامل بسیاری از متغیرهای مستقل را توصیف کند.

مشکل این است که حل معادلات دیفرانسیل جزئی-به عنوان معادلات ضروری و همه جا حاضر در علم و مهندسی-به شدت دشوار است، اگر بتوان آن‌ها را به طور کامل حل کرد. روش‌های تقریبی را می‌توان برای حل آن‌ها استفاده کرد، اما حتی در آن زمان، ممکن است میلیون‌ها ساعت CPU طول بکشد تا PDEs پیچیده را مرتب کند. با پیچیده‌تر شدن مشکلات، از طراحی موتورهای موشک بهتر گرفته تا مدل‌سازی تغییرات آب و هوایی، به روش‌های بهتر و موثرتری برای حل این معادلات نیاز داریم. در حال حاضر محققان انواع جدیدی از شبکه‌های عصبی مصنوعی را ساخته‌اند که می‌توانند جواب‌های معادلات دیفرانسیل جزئی مرتبه بزرگی را سریع‌تر از سالیورهای PDE سنتی تخمین بزنند. و شبکه‌های عصبی جدید پس از آموزش، نه تنها می‌توانند یک PDE را حل کنند، بلکه می‌توانند یک خانواده کامل از آن‌ها را بدون آموزش مجدد حل کنند.

برای دستیابی به این نتایج، دانشمندان شبکه‌های عصبی عمیق-چهره مدرن هوش مصنوعی-را به قلمرو جدید می‌برند. به طور معمول، شبکه‌های عصبی، یا داده‌ها را از یک فضای با بعد محدود (مثلا، مقادیر پیکسل تصاویر) به یک فضای با بعد محدود دیگر (مثلا، اعدادی که تصاویر را طبقه‌بندی می‌کنند، مانند ۱برای گربه و ۲ برای سگ) تبدیل می‌کنند. اما شبکه‌های عمیق جدید کار بسیار متفاوتی انجام می‌دهند. سیدهارتا میشرا، ریاضیدان موسسه فن‌آوری فدرال سوئیس، که شبکه‌های عمیق را طراحی نکرده اما آن‌ها را از نظر ریاضی تحلیل کرده است، گفت: «آن‌ها بین یک فضای بی‌نهایت بعدی و یک فضای بی‌نهایت بعدی، نقشه می‌کشند.»

چنین تکنیک‌هایی، بدون شک، بسیاری از مدل‌های شامل PDEs را سرعت می‌بخشد. آنیما آنانداکومار، دانشمند کامپیوتر از موسسه تکنولوژی کالیفرنیا، یکی از اعضای یکی از تیم‌هایی که روش‌های جدید را توسعه دادند، گفت: «در نهایت، هدف ما جایگزینی حل‌کننده‌های سنتی بسیار گران قیمتی است که بسیار کند هستند.»

شکل ۲. آنیما آناندکومار از موسسه فن‌آوری کالیفرنیا (سمت چپ) و کامیار عزیززاده نشلی از دانشگاه پوردو به ساخت یک شبکه عصبی به نام عمل گرعصبی فوریه کمک کردند، که می‌تواند به طور موثر کل خانواده‌های PDEs را در یک زمان یاد بگیرد.
شکل ۲. آنیما آناندکومار از موسسه فن‌آوری کالیفرنیا (سمت چپ) و کامیار عزیززاده نشلی از دانشگاه پوردو به ساخت یک شبکه عصبی به نام عمل گرعصبی فوریه کمک کردند، که می‌تواند به طور موثر کل خانواده‌های PDEs را در یک زمان یاد بگیرد.


اما رویکردهای جدید کاری بیش از سرعت بخشیدن به این فرآیند انجام می‌دهند. برای برخی از پدیده‌ها، محققان تنها داده‌ها و ایده کمی در مورد چگونگی رسیدن به PDEs مربوطه برای مدل‌سازی آن‌ها دارند. او گفت: مشکلات بسیاری وجود دارند که فیزیک در آن‌ها به نوعی لایه لایه است. این مسئله به خوبی تعریف نشده است. در چنین مواردی، شبکه‌های عصبی جدید، که زمانی بر روی داده‌ها آموزش دیدند، تقریبا به طور قطع تنها راه برای حل چنین مشکلاتی خواهند بود.

ممکن است علاقمند به مطالعه مقاله خودروهای بدون راننده، علم پزشکی،‌ تبدیل گفتار به متن و ده‌ها کاربرد دیگر با کامپیوترهای کوانتومی باشید.

معادلات دراماتیک

چیزی که PDEs را مفید می‌کند-و حل آن بسیار دشوار است-پیچیدگی آنهاست، که به آن‌ها اجازه می‌دهد تا انواع پدیده‌ها را مدل کنند. به عنوان مثال، چشم‌انداز دو بعدی یک سیال که در اطراف یک شی جریان دارد را در نظر بگیرید، مانند هوایی که در اطراف یک بال هواپیما حرکت می‌کند. مدل‌ها می‌خواهند سرعت و فشار سیال را در هر نقطه از فضا (که میدان جریان نیز نامیده می‌شود) و در زمان‌های مختلف بدانند. معادلات ناویر-استوکس خاص، با در نظر گرفتن قوانین بقای انرژی، جرم و ممنتوم، این جریان‌های سیال را مدل‌سازی می‌کنند. PDE را حل کنید و فرمولی به دست آورید که چیزی را در مورد سیستم توصیف می‌کند. در این حالت، راه‌حل ممکن است فرمولی باشد که به شما اجازه می‌دهد میدان جریان را در زمان‌های مختلف محاسبه کنید.

برخی از PDEs ها را می‌توان به صورت تحلیلی با استفاده از ابزارهای ریاضی حل کرد، اگر شما دانش کافی در مورد شرایط اولیه و مرزی، مانند مقدار میدان جریان در زمان t = ۰، و در لبه‌های منطقه مورد مطالعه داشته باشید. اما اغلب PDEs آنقدر پیچیده هستند که راه‌حل‌های تحلیلی جهانی غیر‌ممکن هستند. این امر به ویژه در مورد عمومی‌ترین شکل معادلات ناویر-استوکس صادق است: ریاضی‌دانان هنوز باید ثابت کنند که آیا راه‌حل‌های منحصر به فردی حتی وجود دارند، چه برسد به اینکه واقعا آن‌ها را به صورت تحلیلی پیدا کنند.

در این موارد، مدل‌سازان به جای آن به روش‌های عددی روی می‌آورند. این شامل تبدیل PDE به مجموعه‌ای از معادلات جبری قابل پیگیری است که فرض می‌شود در طول افزایش‌های کوچک فضا و زمان نگه‌داری می‌شوند. برای مثال ما از جریان سیال دو بعدی، محاسبات با برخی شرایط اولیه و مرزی آغاز شده و مرحله به مرحله پیش می‌روند، در امتداد محورهای x و y پیش می‌روند، سرعت و فشار سیال را در نقاط مختلف محاسبه می‌کنند. نتیجه یک نقشه دو بعدی از میدان جریان است، مثلا، دوم به دوم-نه یک فرمول.

حل عددی معادلات دیفرانسیل جزیی پیچیده می‌تواند ماه‌ها بر روی ابرکامپیوترها طول بکشد. و اگر شرایط اولیه یا مرزی یا هندسه سیستم مورد مطالعه را تغییر دهید (مانند طراحی بال) ، باید کار را شروع کنید. همچنین، هرچه افزایش‌هایی که استفاده می‌کنید کوچک‌تر باشد-یا همانطور که محققان می‌گویند، بهتر باشد-وضوح مدل بالاتر است، و حل عددی آن بیشتر طول می‌کشد.

زاچاری راس، یک زلزله‌شناس در کلتک که در کار جدید دخیل نبوده است، گفت که علی‌رغم هزینه‌ها، «برای هر حوزه علمی، این گرایش به سمت عزم بیشتر …و این حرکت بی‌پایان برای محاسبه چیزها در حوزه‌های بزرگ‌تر است.» «این همیشه یک مسابقه برای انجام بزرگ‌ترین کار بعدی است.»

شاید مطالعه مقاله گوگل ویژگی‌های «تنسوری‌فلو کوانتوم ۵» را اعلام کرد برای شما جالب باشد.

شبکه های عصبی به چارچوب ملحق می‌شوند.

اخیرا، شبکه‌های عصبی عمیق ماهیت آن نژاد را تغییر داده و روش‌هایی را برای حل PDEs بدون استفاده از روش‌های تحلیلی یا عددی ارائه کرده‌اند. عنصر اصلی یک شبکه عمیق یک نورون مصنوعی است که مجموعه‌ای از ورودی‌ها را می‌گیرد، هر یک را با یک وزن ضرب می‌کند و سپس نتایج را جمع‌بندی می‌کند. سپس نورون یک خروجی را بر اساس مجموع صفر تعیین می‌کند اگر مجموع کم‌تر از یک آستانه باشد و در غیر این صورت خود مجموع. شبکه‌های عصبی مدرن دارای یک لایه ورودی، یک لایه خروجی و حداقل یک لایه «پنهان» هستند که بین آن‌ها ساندویچ شده است. شبکه‌های با تنها یک لایه پنهان، شبکه‌های محاوره‌ای هستند؛ در غیر این صورت، شبکه‌های عصبی عمیق نامیده می‌شوند.

از لحاظ ریاضی، ورودی چنین شبکه عصبی یک بردار است-مجموعه‌ای از اعداد-و خروجی یک بردار دیگر است. اگر تابعی وجود داشته باشد که مجموعه‌ای از بردارهای ورودی را به مجموعه‌ای از بردارهای خروجی نگاشت کند، شبکه می‌تواند برای یادگیری این نگاشت آموزش داده شود. میشرا گفت: «شبکه‌های عصبی در آن فضا جهانی هستند.» هر تابعی بین فضاهای دو بعدی محدود را می‌توان با یک شبکه عصبی تقریب زد.

در سال ۲۰۱۶، محققان بررسی کردند که چگونه شبکه‌های عصبی عمیق که به طور معمول برای تشخیص تصویر استفاده می‌شوند می‌توانند به طور مشترک برای حل PDEs انتخاب شوند. اول، محققان داده‌ها را برای آموزش شبکه عمیق تولید کردند: یک حل‌کننده عددی میدان سرعت را برای یک سیال در حال جریان بر روی اشیا ساده با شکل‌های اساسی مختلف (مثلث‌ها، چهار ضلعی ها و غیره) از اندازه‌ها و جهت‌گیری‌های مختلف، پراکنده در صفحه xy محاسبه کرد. این بدان معنا بود که مجموعه داده‌های آموزشی شامل تعدادی از تصاویر بود: تصاویر دو بعدی رمزگذاری اطلاعات در مورد هندسه اشیا و شرایط اولیه سیال که به عنوان ورودی عمل می‌کنند، و تصاویر دو بعدی از میدان‌های سرعت متناظر به عنوان خروجی.

شکل ۳. جورج کارنیاداکیس از دانشگاه براون به طراحی نوع دیگری از شبکه عصبی به نام DeepONet کمک کرد که می‌تواند به سرعت چندین PDEs را در یک زمان حل کند.
شکل ۳. جورج کارنیاداکیس از دانشگاه براون به طراحی نوع دیگری از شبکه عصبی به نام DeepONet کمک کرد که می‌تواند به سرعت چندین PDEs را در یک زمان حل کند.

محققان با استفاده از داده‌ها، شبکه عصبی خود را آموزش دادند تا همبستگی بین آن ورودی‌ها و خروجی‌ها را یاد بگیرند. آموزش شامل وارد کردن یک ورودی به شبکه و اجازه دادن به آن برای تولید خروجی است که آن را با خروجی مورد انتظار مقایسه می‌کند. سپس یک الگوریتم وزن نورون‌ها را تنظیم می‌کند تا تفاوت بین خروجی‌های تولید شده و مورد انتظار را به حداقل برساند. این فرآیند تا زمانی تکرار می‌شود که شبکه آن را در محدوده خطای قابل‌قبول درست دریافت کند. پس از آموزش، شبکه را می‌توان یک ورودی جدید نشان داد و، به احتمال زیاد، خروجی صحیح را تولید خواهد کرد.

به عنوان مثال، هنگامی که اشکال دو بعدی جدیدی را نشان می‌دهیم که اشکال قبلا دیده نشده-جیپ‌ها، وان‌ها و ماشین‌های ورزشی-را نشان می‌دهند، شبکه عمیق میدان‌های سرعت در اطراف خودروها را پیش‌بینی می‌کند. این پیش‌بینی‌ها تنها کمی متفاوت (حدود ۱۰٪) از پیش‌بینی‌های محاسبه‌شده به طور مستقل توسط حل عددی بودند، اما اندازه شبکه سریع‌تر بود.

آموزش شبکه‌های عصبی برای حل مشکلاتPDEs هیجان‌انگیز بود، اما تلاش‌های گذشته چندان انعطاف‌پذیر نبودند. آنانداکومار گفت که شبکه عصبی پس از آموزش دیدن با اندازه مش مشخص، «نسبت به این قطعنامه بسیار حساس است.» شبکه عمیق یاد گرفته بود تا تابعی را تخمین بزند که داده‌ها را از یک فضای با بعد محدود به فضای دیگر نگاشت می‌کرد. اما اغلب نیاز دارید که PDE را در یک وضوح متفاوت حل کنید، چون یک نگاه ظریف به میدان جریان می‌خواهید، یا مجموعه متفاوتی از شرایط اولیه و مرزی دارید، و اگر اینطور است، باید شروع به تمرین مجدد کنید. در هر مورد، شبکه عمیق باید یاد بگیرد که یک تابع جدید را تقریب بزند.

برای محققانی که هر روز باPDEs سر و کار دارند، این کافی نبود.

مطالعه مقاله نقش رایانش ابری در هوش مصنوعی توصیه می‌شود.

از بی‌نهایت تا بی‌نهایت

به همین دلیل است که کار جدید یک جهش رو به جلو است-ما اکنون شبکه‌های عصبی عمیقی داریم که می‌توانند یاد بگیرند چگونه نه تنها توابع را تخمین بزنند، بلکه «اوپراتورها» که توابع را برای توابع ترسیم می‌کنند. و به نظر می‌رسد که آن‌ها این کار را بدون رنج بردن از «طلسم ابعاد» انجام می‌دهند، مشکلی که می‌تواند شبکه‌های عصبی و دیگر الگوریتم‌های کامپیوتری که از داده‌ها یاد می‌گیرند را دچار مشکل کند. به عنوان مثال، اگر شما می‌خواهید نرخ خطای شبکه عصبی از ۱۰٪به ۱٪ کاهش یابد، مقدار داده‌های آموزشی یا اندازه شبکه مورد نیاز برای انجام این کار می‌تواند به صورت نمایی منفجر شود، و این کار را غیرممکن می‌سازد.

اما قبل از نگرانی در مورد این مصیبت، محققان باید بفهمند که چگونه شبکه‌های عصبی اپراتورها را یاد بگیرند تا PDEs را حل کنند. جرج کارنیداکیس از دانشگاه براون که به توسعه یکی از روش‌های جدید کمک کرد گفت: «در اپراتور [یادگیری]، شما از یک فضای بی‌نهایت بعدی به یک فضای بی‌نهایت بعدی می‌روید.» از لحاظ ریاضی، اپراتور بر روی یک تابع عمل می‌کند و آن را به تابع دیگری تبدیل می‌کند. به عنوان مثال عملگر را در نظر بگیرید که یک تابع را به مشتق خود تبدیل می‌کند (برای مثال سینوسی را به کسینوس x یا X3 را به X2 ۳ و غیره تبدیل می‌کند). ابعاد ورودی و خروجی بی‌نهایت هستند زیرا، برای مثال، x می‌تواند هر مقداری باشد، و تابع می‌تواند هر‌گونه تبدیلی باشد که بر روی x عمل می‌کند.

شبکه‌های عمیقی که یاد می‌گیرند تا اپراتورهای تقریبی را تقریب بزنند، می‌توانند برای حل یک خانواده از PDEs به طور همزمان مورد استفاده قرار گیرند، و پدیده‌های مشابه را برای طیف وسیعی از شرایط اولیه و مرزی و پارامترهای فیزیکی مدل‌سازی کنند. چنین خانواده‌ای از PDEs می‌تواند مجموعه‌ای از توابع در سمت ورودی، با راه‌حل‌های متناظر با PDEs (فرمول) ارائه‌شده توسط توابع در سمت خروجی باشد.

شکل ۴: مجله ساموئل ولاسکو / کوانتا، منبع: arXiv: ۱۹۱۰.۰۳۱۹۳
شکل ۴: مجله ساموئل ولاسکو / کوانتا، منبع: arXiv: ۱۹۱۰.۰۳۱۹۳

در اکتبر ۲۰۱۹، کارنیاداکیس و همکارانش به چیزی رسیدند که آن‌ها دیپونت می‌نامند: یک معماری شبکه عصبی عمیق که می‌تواند چنین اپراتوری را یاد بگیرد. بر اساس کار سال ۱۹۹۵ است، زمانی که محققان نشان دادند که یک شبکه کم‌عمق می‌تواند یک اپراتور را تخمین بزند. از آنجا که یک شبکه عصبی درگیر است، چنین اپراتورهایی، اپراتورهای عصبی، تقریب‌های اپراتورهای واقعی نامیده می‌شوند.

کارناداکیس گفت: «ما این قضیه را به شبکه‌های عصبی عمیق تعمیم دادیم.»

چیزی که DeepONet را خاص می‌سازد معماری دو شاخه‌ای آن است، که داده‌ها را در دو شبکه موازی پردازش می‌کند، یک «شاخه» و یک «تنه». اولی یاد می‌گیرد که تعدادی از توابع در سمت ورودی را تقریب بزند، و دومی همان کار را برای توابع در سمت خروجی انجام می‌دهد. سپس DeepONet خروجی‌های دو شبکه را برای یادگیری یک اپراتور مطلوبPDE ترکیب می‌کند. آموزش DeepONet شامل نمایش مکرر داده‌های ورودی-خروجی برای یک خانواده از PDEs، تولید شده با استفاده از یک حل‌کننده عددی، و تنظیم وزن‌ها در شبکه‌های شاخه و تنه در هر تکرار است، تا زمانی که کل شبکه چندین خطای قابل‌قبول ایجاد کند.

بنابراین DeepONet، پس از آموزش، یاد می‌گیرد که یک اپراتور را تقریب بزند. آن می‌تواند داده‌های نشان‌دهنده یک PDE در سمت ورودی (که متعلق به همان خانواده از PDEs است که شبکه بر روی آن آموزش‌دیده است) را بگیرد و آن را به داده‌های نشان‌دهنده راه‌حل برای PDE در سمت خروجی تبدیل کند. اگر آن را بدهید، مثلا، ۱۰۰ نمونه نشان‌دهنده شرایط اولیه / مرزی و پارامترهای فیزیکی که در داده‌های آموزشی نبودند، و مکان‌هایی که میدان جریان را می‌خواهید، DeepONet می‌تواند میدان جریان را در کسری از ثانیه به شما بدهد.

اما حتی اگر DeepONet در کنار حل‌کننده عددی بسیار سریع باشد، باز هم باید محاسبات زیادی را در طول آموزش انجام دهد. این می‌تواند به یک مسئله تبدیل شود زمانی که شبکه عمیق باید با مقادیر زیادی داده آموزش داده شود تا اپراتور عصبی را دقیق‌تر کند. آیا اپراتورهای عصبی می‌توانند حتی بیشتر سرعت بگیرند؟

ممکن است مطالعه مقاله مشاهدات هیدرودینامیک کاردار-پاریسی-ژانگ در یک ماده کوانتومی برای شما جذاب باشد.

تغییر دیدگاه

سال گذشته، آنانداکومار و همکارانش در دانشگاه کلتک و پوردو یک شبکه عصبی عمیق به نام عملگر عصبی فوریه (FNO) ساختند، با یک معماری متفاوت که آن‌ها ادعا می‌کنند سریع‌تر است. شبکه آن‌ها همچنین توابع را برای توابع، از فضای بی‌نهایت بعدی تا فضای بی‌نهایت بعدی ترسیم می‌کند، و آن‌ها شبکه عصبی خود را روی PDEs آزمایش می‌کنند. کامیار عزیززاده نشلی از پوردو گفت: «ما PDEs را انتخاب کردیم چونPDEs نمونه‌های فوری هستند که در آن‌ها شما از یک وظیفه به وظیفه دیگر می‌روید.»

در قلب راه‌حل آن‌ها چیزی به نام لایه فوریه (Fourier)‌وجود دارد. اساسا، قبل از این که داده‌های آموزشی خود را از طریق یک لایه شبکه عصبی به جلو هل دهند، آن را در معرض تبدیل فوریه قرار می‌دهند؛ سپس وقتی لایه آن داده‌ها را از طریق یک عملیات خطی پردازش می‌کند، تبدیل فوریه معکوس را انجام می‌دهند و آن را به فرمت اصلی تبدیل می‌کنند. (این تبدیل یک عملیات ریاضی معروف است که یک تابع پیوسته را به توابع سینوسی چندگانه تجزیه می‌کند.) کل شبکه عصبی از تعداد انگشت‌شماری از این لایه‌های فوریه تشکیل شده است.

این فرآیند از نظر محاسباتی بسیار ساده‌تر از فرآیند دیپونت بوده و به حل یک PDE با اجرای یک عملیات ریاضی پرمو به نام کانولوشن بینPDE و برخی توابع دیگر وابسته است. اما در حوزه فوریه، کانولوشن شامل یک ضرب ساده است، که معادل عبور داده‌های تبدیل فوریه از یک لایه از نورون‌های مصنوعی (با وزن‌های دقیق آموخته‌شده در طول آموزش) و سپس انجام تبدیل فوریه معکوس است. بنابراین، دوباره، نتیجه نهایی این است کهFNO عملگر را برای یک خانواده کامل از توابع نگاشت به توابع می‌آموزد.

شکل ۵. مجله ساموئل ولاسکو / کوانتا؛ منبع: arXiv: ۲۰۱۰.۰۸۸۹۵
شکل ۵. مجله ساموئل ولاسکو / کوانتا؛ منبع: arXiv: ۲۰۱۰.۰۸۸۹۵

میشرا گفت: «این یک معماری بسیار تمیز است.» همچنین راه‌حل‌هایی را در سرعت‌های به طور چشمگیری بهبود یافته ارائه می‌دهد. در یک مثال نسبتا ساده که نیاز به ۳۰ هزار شبیه‌سازی داشت، که شامل راه‌حل‌های معادله معروف ناویر-استوکس بود، FNO کسری از یک ثانیه برای هر شبیه‌سازی (در مقایسه با سرعت DeepONet، اگر بر روی این مسئله تست شده بود) ، برای کل ۲.۵ ثانیه داشت؛ حل‌کننده سنتی در این مورد ۱۸ ساعت طول می‌کشید.

ایجاد منطق ریاضی:

ثابت شده‌ ست که هر دو رویکرد تیم موفق بوده‌اند، اما مانند شبکه‌های عصبی، دقیقا مشخص نیست که چرا آن‌ها خوب کار می‌کنند و اگر در تمام شرایط این کار را انجام دهند. اکنون میشرا و همکارانش بر روی درک کامل ریاضی از هر دو روش کار می‌کنند. پس از یک سال تلاش، تیم میشرا در ماه فوریه، با ورودی کارنیاداکیس، یک تحلیل ریاضی ۱۱۲صفحه‌ای از معماری DeepONet ارائه کرد. آن‌ها ثابت کردند که این رویکرد حقیقتا جهانی است، به این دلیل که می‌تواند هر مجموعه‌ای از توابع را در سمت ورودی به هر مجموعه‌ای از توابع در سمت خروجی نگاشت کند، نه فقط PDEs، بدون نیاز به ایجاد فرضیات خاصی که به قضیه کارناداکیس برای شبکه‌های عمیق و سلف آن در سال ۱۹۹۵ وارد شد. این تیم هنوز مقاله خود را در تجزیه و تحلیل FNO به پایان نرسانده است، اما میشرا گفت که در‌حالی‌که این روش احتمالا برای PDEs جهانی خواهد بود-و در نگاه اول می‌تواند برخی از آن‌ها را موثرتر از DeepONet حل کند-ممکن است برای یادگیری انواع دیگری از اپراتورها خوب عمل نکند.

تیم او در حال کار بر روی تجزیه و تحلیل دقیق FNO است که شامل یک مقایسه نزدیک با DeepONet است. او گفت: «در عرض چند ماه، ما خواهیم دانست.» با این حال، چیزی که روشن است این است که هر دو روش از جدا کننده‌های سنتی عبور خواهند کرد. و برای پدیده‌هایی که هیچ PDEs ثابتی وجود ندارد، یادگیری اپراتورهای عصبی ممکن است تنها راه برای مدل‌سازی چنین سیستم‌هایی باشد. مسئله جریان ترافیک را در نظر بگیرید: نوشتن یک PDE که به درستی دینامیک ترافیک را نشان دهد، تقریبا غیر‌ممکن است. اما داده‌های زیادی برای یادگیری وجود دارد. عزیززاده نشلی گفت: «به جای نوشتن PDEs، با توجه به داده، شما می‌توانید از این اپراتور عصبی برای یادگیری نقشه استفاده کنید.»

البته، اینها تنها اولین گام‌ها به سمت یک رویکرد جدید برای حل PDEs هستند. گاوین اشمیت که در مدل‌های آب و هوایی در مقیاس بزرگ به عنوان مدیر موسسه گادارد ناسا برای مطالعات فضایی در شهر نیویورک کار می‌کند گفت: «این کار جالب و تاثیرگذار است.» اما او نگرانی‌هایی در مورد این دارد که چگونه به راحتی می‌توان آن را برای سیستم‌های پر‌هرج‌و مرج‌تر، مانند مدل‌های آب‌و‌هوا اتخاذ کرد. به عنوان مثال، او گفت که FNO تنها در معادلات «خوب» نشان داده شده‌است، نه در معادلات به سختی و پیچیدگی معادلات به کار رفته در مدل‌سازی آب و هوا.

با این حال، از دیدگاه محاسباتی، خبرهای خوب بیشتری وجود دارد. تیم میشرا نشان داده است که تکنیک‌های جدید از ابعاد رنج نمی‌برند. هنگامی که آن‌ها DeepONet را برای تعدادی از موارد تجزیه‌و‌تحلیل کردند، او گفت، «ما در واقع ثابت می‌کنیم که این امر، طلسم بعد بودن را، خواهد شکست، که بسیار خوب است.» یافته‌های مقدماتی نشان می‌دهند که عملگر عصبی فوریه نیز نفرین نشده است. «این نظریه به زودی مطرح می‌شود.»

کارنیداکیس گفت که شکستن این طلسم حیاتی است اگر اپراتورهای عصبی قرار است جایگزین سولورهای PDE سنتی شوند. «[این] آینده یادگیری ماشین علمی است.»

این متن با استفاده از ربات مترجم مقاله تکنولوژی ترجمه شده و به صورت محدود مورد بازبینی انسانی قرار گرفته است.در نتیجه می‌تواند دارای برخی اشکالات ترجمه باشد.
مقالات لینک‌شده در این متن می‌توانند به صورت رایگان با استفاده از مقاله‌خوان ترجمیار به فارسی مطالعه شوند.