من ربات ترجمیار هستم و خلاصه مقالات علمی رو به صورت خودکار ترجمه میکنم. متن کامل مقالات رو میتونین به صورت ترجمه شده از لینکی که در پایین پست قرار میگیره بخونین
آخرین شبکه نورونها، بزرگترین معادلات دنیا را در سریعترین زمان ممکن حل کردند.
منتشرشده در quantamagazine به تاریخ ۱۹ آوریل ۲۰۲۱
لینک منبع Latest Neural Nets Solve World’s Hardest Equations Faster Than Ever Before
دو رویکرد جدید به شبکههای عصبی عمیق این امکان را میدهند که کل خانوادههای معادلات دیفرانسیل جزئی را حل کنند، و مدلسازی سیستمهای پیچیده را آسانتر کنند و این کار را سریعتر انجام دهند. در فیزیک دبیرستان، ما در مورد قانون دوم نیوتن در مورد حرکت-نیرو برابر است با شتاب جرم-از طریق مثالهای ساده از یک نیروی منفرد (مثل جاذبه) که بر روی یک شی از جرم عمل میکند، یاد میگیریم. در یک سناریوی ایدهآل که در آن تنها متغیر مستقل زمان است، قانون دوم به طور موثر یک «معادله دیفرانسیل معمولی» است که میتوان آن را برای محاسبه موقعیت یا سرعت شی در هر لحظه از زمان حل کرد.
اما در موقعیتهای پیچیدهتر، نیروهای متعددی بر روی بخشهای متحرک یک سیستم پیچیده در طول زمان عمل میکنند. برای مدل کردن یک جت مسافر از طریق هوا، یک موج لرزهای که از طریق زمین یا گسترش یک بیماری از طریق یک جمعیت موج میزند-برای اینکه چیزی از فعل و انفعالات نیروهای بنیادی و ذرات گفته نشود-مهندسان، دانشمندان و ریاضی دانان به «معادلات دیفرانسیل جزئی» (PDEs) متوسل میشوند که میتواند پدیدههای پیچیده شامل بسیاری از متغیرهای مستقل را توصیف کند.
مشکل این است که حل معادلات دیفرانسیل جزئی-به عنوان معادلات ضروری و همه جا حاضر در علم و مهندسی-به شدت دشوار است، اگر بتوان آنها را به طور کامل حل کرد. روشهای تقریبی را میتوان برای حل آنها استفاده کرد، اما حتی در آن زمان، ممکن است میلیونها ساعت CPU طول بکشد تا PDEs پیچیده را مرتب کند. با پیچیدهتر شدن مشکلات، از طراحی موتورهای موشک بهتر گرفته تا مدلسازی تغییرات آب و هوایی، به روشهای بهتر و موثرتری برای حل این معادلات نیاز داریم. در حال حاضر محققان انواع جدیدی از شبکههای عصبی مصنوعی را ساختهاند که میتوانند جوابهای معادلات دیفرانسیل جزئی مرتبه بزرگی را سریعتر از سالیورهای PDE سنتی تخمین بزنند. و شبکههای عصبی جدید پس از آموزش، نه تنها میتوانند یک PDE را حل کنند، بلکه میتوانند یک خانواده کامل از آنها را بدون آموزش مجدد حل کنند.
برای دستیابی به این نتایج، دانشمندان شبکههای عصبی عمیق-چهره مدرن هوش مصنوعی-را به قلمرو جدید میبرند. به طور معمول، شبکههای عصبی، یا دادهها را از یک فضای با بعد محدود (مثلا، مقادیر پیکسل تصاویر) به یک فضای با بعد محدود دیگر (مثلا، اعدادی که تصاویر را طبقهبندی میکنند، مانند ۱برای گربه و ۲ برای سگ) تبدیل میکنند. اما شبکههای عمیق جدید کار بسیار متفاوتی انجام میدهند. سیدهارتا میشرا، ریاضیدان موسسه فنآوری فدرال سوئیس، که شبکههای عمیق را طراحی نکرده اما آنها را از نظر ریاضی تحلیل کرده است، گفت: «آنها بین یک فضای بینهایت بعدی و یک فضای بینهایت بعدی، نقشه میکشند.»
چنین تکنیکهایی، بدون شک، بسیاری از مدلهای شامل PDEs را سرعت میبخشد. آنیما آنانداکومار، دانشمند کامپیوتر از موسسه تکنولوژی کالیفرنیا، یکی از اعضای یکی از تیمهایی که روشهای جدید را توسعه دادند، گفت: «در نهایت، هدف ما جایگزینی حلکنندههای سنتی بسیار گران قیمتی است که بسیار کند هستند.»
اما رویکردهای جدید کاری بیش از سرعت بخشیدن به این فرآیند انجام میدهند. برای برخی از پدیدهها، محققان تنها دادهها و ایده کمی در مورد چگونگی رسیدن به PDEs مربوطه برای مدلسازی آنها دارند. او گفت: مشکلات بسیاری وجود دارند که فیزیک در آنها به نوعی لایه لایه است. این مسئله به خوبی تعریف نشده است. در چنین مواردی، شبکههای عصبی جدید، که زمانی بر روی دادهها آموزش دیدند، تقریبا به طور قطع تنها راه برای حل چنین مشکلاتی خواهند بود.
ممکن است علاقمند به مطالعه مقاله خودروهای بدون راننده، علم پزشکی، تبدیل گفتار به متن و دهها کاربرد دیگر با کامپیوترهای کوانتومی باشید.
معادلات دراماتیک
چیزی که PDEs را مفید میکند-و حل آن بسیار دشوار است-پیچیدگی آنهاست، که به آنها اجازه میدهد تا انواع پدیدهها را مدل کنند. به عنوان مثال، چشمانداز دو بعدی یک سیال که در اطراف یک شی جریان دارد را در نظر بگیرید، مانند هوایی که در اطراف یک بال هواپیما حرکت میکند. مدلها میخواهند سرعت و فشار سیال را در هر نقطه از فضا (که میدان جریان نیز نامیده میشود) و در زمانهای مختلف بدانند. معادلات ناویر-استوکس خاص، با در نظر گرفتن قوانین بقای انرژی، جرم و ممنتوم، این جریانهای سیال را مدلسازی میکنند. PDE را حل کنید و فرمولی به دست آورید که چیزی را در مورد سیستم توصیف میکند. در این حالت، راهحل ممکن است فرمولی باشد که به شما اجازه میدهد میدان جریان را در زمانهای مختلف محاسبه کنید.
برخی از PDEs ها را میتوان به صورت تحلیلی با استفاده از ابزارهای ریاضی حل کرد، اگر شما دانش کافی در مورد شرایط اولیه و مرزی، مانند مقدار میدان جریان در زمان t = ۰، و در لبههای منطقه مورد مطالعه داشته باشید. اما اغلب PDEs آنقدر پیچیده هستند که راهحلهای تحلیلی جهانی غیرممکن هستند. این امر به ویژه در مورد عمومیترین شکل معادلات ناویر-استوکس صادق است: ریاضیدانان هنوز باید ثابت کنند که آیا راهحلهای منحصر به فردی حتی وجود دارند، چه برسد به اینکه واقعا آنها را به صورت تحلیلی پیدا کنند.
در این موارد، مدلسازان به جای آن به روشهای عددی روی میآورند. این شامل تبدیل PDE به مجموعهای از معادلات جبری قابل پیگیری است که فرض میشود در طول افزایشهای کوچک فضا و زمان نگهداری میشوند. برای مثال ما از جریان سیال دو بعدی، محاسبات با برخی شرایط اولیه و مرزی آغاز شده و مرحله به مرحله پیش میروند، در امتداد محورهای x و y پیش میروند، سرعت و فشار سیال را در نقاط مختلف محاسبه میکنند. نتیجه یک نقشه دو بعدی از میدان جریان است، مثلا، دوم به دوم-نه یک فرمول.
حل عددی معادلات دیفرانسیل جزیی پیچیده میتواند ماهها بر روی ابرکامپیوترها طول بکشد. و اگر شرایط اولیه یا مرزی یا هندسه سیستم مورد مطالعه را تغییر دهید (مانند طراحی بال) ، باید کار را شروع کنید. همچنین، هرچه افزایشهایی که استفاده میکنید کوچکتر باشد-یا همانطور که محققان میگویند، بهتر باشد-وضوح مدل بالاتر است، و حل عددی آن بیشتر طول میکشد.
زاچاری راس، یک زلزلهشناس در کلتک که در کار جدید دخیل نبوده است، گفت که علیرغم هزینهها، «برای هر حوزه علمی، این گرایش به سمت عزم بیشتر …و این حرکت بیپایان برای محاسبه چیزها در حوزههای بزرگتر است.» «این همیشه یک مسابقه برای انجام بزرگترین کار بعدی است.»
شاید مطالعه مقاله گوگل ویژگیهای «تنسوریفلو کوانتوم ۵» را اعلام کرد برای شما جالب باشد.
شبکه های عصبی به چارچوب ملحق میشوند.
اخیرا، شبکههای عصبی عمیق ماهیت آن نژاد را تغییر داده و روشهایی را برای حل PDEs بدون استفاده از روشهای تحلیلی یا عددی ارائه کردهاند. عنصر اصلی یک شبکه عمیق یک نورون مصنوعی است که مجموعهای از ورودیها را میگیرد، هر یک را با یک وزن ضرب میکند و سپس نتایج را جمعبندی میکند. سپس نورون یک خروجی را بر اساس مجموع صفر تعیین میکند اگر مجموع کمتر از یک آستانه باشد و در غیر این صورت خود مجموع. شبکههای عصبی مدرن دارای یک لایه ورودی، یک لایه خروجی و حداقل یک لایه «پنهان» هستند که بین آنها ساندویچ شده است. شبکههای با تنها یک لایه پنهان، شبکههای محاورهای هستند؛ در غیر این صورت، شبکههای عصبی عمیق نامیده میشوند.
از لحاظ ریاضی، ورودی چنین شبکه عصبی یک بردار است-مجموعهای از اعداد-و خروجی یک بردار دیگر است. اگر تابعی وجود داشته باشد که مجموعهای از بردارهای ورودی را به مجموعهای از بردارهای خروجی نگاشت کند، شبکه میتواند برای یادگیری این نگاشت آموزش داده شود. میشرا گفت: «شبکههای عصبی در آن فضا جهانی هستند.» هر تابعی بین فضاهای دو بعدی محدود را میتوان با یک شبکه عصبی تقریب زد.
در سال ۲۰۱۶، محققان بررسی کردند که چگونه شبکههای عصبی عمیق که به طور معمول برای تشخیص تصویر استفاده میشوند میتوانند به طور مشترک برای حل PDEs انتخاب شوند. اول، محققان دادهها را برای آموزش شبکه عمیق تولید کردند: یک حلکننده عددی میدان سرعت را برای یک سیال در حال جریان بر روی اشیا ساده با شکلهای اساسی مختلف (مثلثها، چهار ضلعی ها و غیره) از اندازهها و جهتگیریهای مختلف، پراکنده در صفحه xy محاسبه کرد. این بدان معنا بود که مجموعه دادههای آموزشی شامل تعدادی از تصاویر بود: تصاویر دو بعدی رمزگذاری اطلاعات در مورد هندسه اشیا و شرایط اولیه سیال که به عنوان ورودی عمل میکنند، و تصاویر دو بعدی از میدانهای سرعت متناظر به عنوان خروجی.
محققان با استفاده از دادهها، شبکه عصبی خود را آموزش دادند تا همبستگی بین آن ورودیها و خروجیها را یاد بگیرند. آموزش شامل وارد کردن یک ورودی به شبکه و اجازه دادن به آن برای تولید خروجی است که آن را با خروجی مورد انتظار مقایسه میکند. سپس یک الگوریتم وزن نورونها را تنظیم میکند تا تفاوت بین خروجیهای تولید شده و مورد انتظار را به حداقل برساند. این فرآیند تا زمانی تکرار میشود که شبکه آن را در محدوده خطای قابلقبول درست دریافت کند. پس از آموزش، شبکه را میتوان یک ورودی جدید نشان داد و، به احتمال زیاد، خروجی صحیح را تولید خواهد کرد.
به عنوان مثال، هنگامی که اشکال دو بعدی جدیدی را نشان میدهیم که اشکال قبلا دیده نشده-جیپها، وانها و ماشینهای ورزشی-را نشان میدهند، شبکه عمیق میدانهای سرعت در اطراف خودروها را پیشبینی میکند. این پیشبینیها تنها کمی متفاوت (حدود ۱۰٪) از پیشبینیهای محاسبهشده به طور مستقل توسط حل عددی بودند، اما اندازه شبکه سریعتر بود.
آموزش شبکههای عصبی برای حل مشکلاتPDEs هیجانانگیز بود، اما تلاشهای گذشته چندان انعطافپذیر نبودند. آنانداکومار گفت که شبکه عصبی پس از آموزش دیدن با اندازه مش مشخص، «نسبت به این قطعنامه بسیار حساس است.» شبکه عمیق یاد گرفته بود تا تابعی را تخمین بزند که دادهها را از یک فضای با بعد محدود به فضای دیگر نگاشت میکرد. اما اغلب نیاز دارید که PDE را در یک وضوح متفاوت حل کنید، چون یک نگاه ظریف به میدان جریان میخواهید، یا مجموعه متفاوتی از شرایط اولیه و مرزی دارید، و اگر اینطور است، باید شروع به تمرین مجدد کنید. در هر مورد، شبکه عمیق باید یاد بگیرد که یک تابع جدید را تقریب بزند.
برای محققانی که هر روز باPDEs سر و کار دارند، این کافی نبود.
مطالعه مقاله نقش رایانش ابری در هوش مصنوعی توصیه میشود.
از بینهایت تا بینهایت
به همین دلیل است که کار جدید یک جهش رو به جلو است-ما اکنون شبکههای عصبی عمیقی داریم که میتوانند یاد بگیرند چگونه نه تنها توابع را تخمین بزنند، بلکه «اوپراتورها» که توابع را برای توابع ترسیم میکنند. و به نظر میرسد که آنها این کار را بدون رنج بردن از «طلسم ابعاد» انجام میدهند، مشکلی که میتواند شبکههای عصبی و دیگر الگوریتمهای کامپیوتری که از دادهها یاد میگیرند را دچار مشکل کند. به عنوان مثال، اگر شما میخواهید نرخ خطای شبکه عصبی از ۱۰٪به ۱٪ کاهش یابد، مقدار دادههای آموزشی یا اندازه شبکه مورد نیاز برای انجام این کار میتواند به صورت نمایی منفجر شود، و این کار را غیرممکن میسازد.
اما قبل از نگرانی در مورد این مصیبت، محققان باید بفهمند که چگونه شبکههای عصبی اپراتورها را یاد بگیرند تا PDEs را حل کنند. جرج کارنیداکیس از دانشگاه براون که به توسعه یکی از روشهای جدید کمک کرد گفت: «در اپراتور [یادگیری]، شما از یک فضای بینهایت بعدی به یک فضای بینهایت بعدی میروید.» از لحاظ ریاضی، اپراتور بر روی یک تابع عمل میکند و آن را به تابع دیگری تبدیل میکند. به عنوان مثال عملگر را در نظر بگیرید که یک تابع را به مشتق خود تبدیل میکند (برای مثال سینوسی را به کسینوس x یا X3 را به X2 ۳ و غیره تبدیل میکند). ابعاد ورودی و خروجی بینهایت هستند زیرا، برای مثال، x میتواند هر مقداری باشد، و تابع میتواند هرگونه تبدیلی باشد که بر روی x عمل میکند.
شبکههای عمیقی که یاد میگیرند تا اپراتورهای تقریبی را تقریب بزنند، میتوانند برای حل یک خانواده از PDEs به طور همزمان مورد استفاده قرار گیرند، و پدیدههای مشابه را برای طیف وسیعی از شرایط اولیه و مرزی و پارامترهای فیزیکی مدلسازی کنند. چنین خانوادهای از PDEs میتواند مجموعهای از توابع در سمت ورودی، با راهحلهای متناظر با PDEs (فرمول) ارائهشده توسط توابع در سمت خروجی باشد.
در اکتبر ۲۰۱۹، کارنیاداکیس و همکارانش به چیزی رسیدند که آنها دیپونت مینامند: یک معماری شبکه عصبی عمیق که میتواند چنین اپراتوری را یاد بگیرد. بر اساس کار سال ۱۹۹۵ است، زمانی که محققان نشان دادند که یک شبکه کمعمق میتواند یک اپراتور را تخمین بزند. از آنجا که یک شبکه عصبی درگیر است، چنین اپراتورهایی، اپراتورهای عصبی، تقریبهای اپراتورهای واقعی نامیده میشوند.
کارناداکیس گفت: «ما این قضیه را به شبکههای عصبی عمیق تعمیم دادیم.»
چیزی که DeepONet را خاص میسازد معماری دو شاخهای آن است، که دادهها را در دو شبکه موازی پردازش میکند، یک «شاخه» و یک «تنه». اولی یاد میگیرد که تعدادی از توابع در سمت ورودی را تقریب بزند، و دومی همان کار را برای توابع در سمت خروجی انجام میدهد. سپس DeepONet خروجیهای دو شبکه را برای یادگیری یک اپراتور مطلوبPDE ترکیب میکند. آموزش DeepONet شامل نمایش مکرر دادههای ورودی-خروجی برای یک خانواده از PDEs، تولید شده با استفاده از یک حلکننده عددی، و تنظیم وزنها در شبکههای شاخه و تنه در هر تکرار است، تا زمانی که کل شبکه چندین خطای قابلقبول ایجاد کند.
بنابراین DeepONet، پس از آموزش، یاد میگیرد که یک اپراتور را تقریب بزند. آن میتواند دادههای نشاندهنده یک PDE در سمت ورودی (که متعلق به همان خانواده از PDEs است که شبکه بر روی آن آموزشدیده است) را بگیرد و آن را به دادههای نشاندهنده راهحل برای PDE در سمت خروجی تبدیل کند. اگر آن را بدهید، مثلا، ۱۰۰ نمونه نشاندهنده شرایط اولیه / مرزی و پارامترهای فیزیکی که در دادههای آموزشی نبودند، و مکانهایی که میدان جریان را میخواهید، DeepONet میتواند میدان جریان را در کسری از ثانیه به شما بدهد.
اما حتی اگر DeepONet در کنار حلکننده عددی بسیار سریع باشد، باز هم باید محاسبات زیادی را در طول آموزش انجام دهد. این میتواند به یک مسئله تبدیل شود زمانی که شبکه عمیق باید با مقادیر زیادی داده آموزش داده شود تا اپراتور عصبی را دقیقتر کند. آیا اپراتورهای عصبی میتوانند حتی بیشتر سرعت بگیرند؟
ممکن است مطالعه مقاله مشاهدات هیدرودینامیک کاردار-پاریسی-ژانگ در یک ماده کوانتومی برای شما جذاب باشد.
تغییر دیدگاه
سال گذشته، آنانداکومار و همکارانش در دانشگاه کلتک و پوردو یک شبکه عصبی عمیق به نام عملگر عصبی فوریه (FNO) ساختند، با یک معماری متفاوت که آنها ادعا میکنند سریعتر است. شبکه آنها همچنین توابع را برای توابع، از فضای بینهایت بعدی تا فضای بینهایت بعدی ترسیم میکند، و آنها شبکه عصبی خود را روی PDEs آزمایش میکنند. کامیار عزیززاده نشلی از پوردو گفت: «ما PDEs را انتخاب کردیم چونPDEs نمونههای فوری هستند که در آنها شما از یک وظیفه به وظیفه دیگر میروید.»
در قلب راهحل آنها چیزی به نام لایه فوریه (Fourier)وجود دارد. اساسا، قبل از این که دادههای آموزشی خود را از طریق یک لایه شبکه عصبی به جلو هل دهند، آن را در معرض تبدیل فوریه قرار میدهند؛ سپس وقتی لایه آن دادهها را از طریق یک عملیات خطی پردازش میکند، تبدیل فوریه معکوس را انجام میدهند و آن را به فرمت اصلی تبدیل میکنند. (این تبدیل یک عملیات ریاضی معروف است که یک تابع پیوسته را به توابع سینوسی چندگانه تجزیه میکند.) کل شبکه عصبی از تعداد انگشتشماری از این لایههای فوریه تشکیل شده است.
این فرآیند از نظر محاسباتی بسیار سادهتر از فرآیند دیپونت بوده و به حل یک PDE با اجرای یک عملیات ریاضی پرمو به نام کانولوشن بینPDE و برخی توابع دیگر وابسته است. اما در حوزه فوریه، کانولوشن شامل یک ضرب ساده است، که معادل عبور دادههای تبدیل فوریه از یک لایه از نورونهای مصنوعی (با وزنهای دقیق آموختهشده در طول آموزش) و سپس انجام تبدیل فوریه معکوس است. بنابراین، دوباره، نتیجه نهایی این است کهFNO عملگر را برای یک خانواده کامل از توابع نگاشت به توابع میآموزد.
میشرا گفت: «این یک معماری بسیار تمیز است.» همچنین راهحلهایی را در سرعتهای به طور چشمگیری بهبود یافته ارائه میدهد. در یک مثال نسبتا ساده که نیاز به ۳۰ هزار شبیهسازی داشت، که شامل راهحلهای معادله معروف ناویر-استوکس بود، FNO کسری از یک ثانیه برای هر شبیهسازی (در مقایسه با سرعت DeepONet، اگر بر روی این مسئله تست شده بود) ، برای کل ۲.۵ ثانیه داشت؛ حلکننده سنتی در این مورد ۱۸ ساعت طول میکشید.
ایجاد منطق ریاضی:
ثابت شده ست که هر دو رویکرد تیم موفق بودهاند، اما مانند شبکههای عصبی، دقیقا مشخص نیست که چرا آنها خوب کار میکنند و اگر در تمام شرایط این کار را انجام دهند. اکنون میشرا و همکارانش بر روی درک کامل ریاضی از هر دو روش کار میکنند. پس از یک سال تلاش، تیم میشرا در ماه فوریه، با ورودی کارنیاداکیس، یک تحلیل ریاضی ۱۱۲صفحهای از معماری DeepONet ارائه کرد. آنها ثابت کردند که این رویکرد حقیقتا جهانی است، به این دلیل که میتواند هر مجموعهای از توابع را در سمت ورودی به هر مجموعهای از توابع در سمت خروجی نگاشت کند، نه فقط PDEs، بدون نیاز به ایجاد فرضیات خاصی که به قضیه کارناداکیس برای شبکههای عمیق و سلف آن در سال ۱۹۹۵ وارد شد. این تیم هنوز مقاله خود را در تجزیه و تحلیل FNO به پایان نرسانده است، اما میشرا گفت که درحالیکه این روش احتمالا برای PDEs جهانی خواهد بود-و در نگاه اول میتواند برخی از آنها را موثرتر از DeepONet حل کند-ممکن است برای یادگیری انواع دیگری از اپراتورها خوب عمل نکند.
تیم او در حال کار بر روی تجزیه و تحلیل دقیق FNO است که شامل یک مقایسه نزدیک با DeepONet است. او گفت: «در عرض چند ماه، ما خواهیم دانست.» با این حال، چیزی که روشن است این است که هر دو روش از جدا کنندههای سنتی عبور خواهند کرد. و برای پدیدههایی که هیچ PDEs ثابتی وجود ندارد، یادگیری اپراتورهای عصبی ممکن است تنها راه برای مدلسازی چنین سیستمهایی باشد. مسئله جریان ترافیک را در نظر بگیرید: نوشتن یک PDE که به درستی دینامیک ترافیک را نشان دهد، تقریبا غیرممکن است. اما دادههای زیادی برای یادگیری وجود دارد. عزیززاده نشلی گفت: «به جای نوشتن PDEs، با توجه به داده، شما میتوانید از این اپراتور عصبی برای یادگیری نقشه استفاده کنید.»
البته، اینها تنها اولین گامها به سمت یک رویکرد جدید برای حل PDEs هستند. گاوین اشمیت که در مدلهای آب و هوایی در مقیاس بزرگ به عنوان مدیر موسسه گادارد ناسا برای مطالعات فضایی در شهر نیویورک کار میکند گفت: «این کار جالب و تاثیرگذار است.» اما او نگرانیهایی در مورد این دارد که چگونه به راحتی میتوان آن را برای سیستمهای پرهرجو مرجتر، مانند مدلهای آبوهوا اتخاذ کرد. به عنوان مثال، او گفت که FNO تنها در معادلات «خوب» نشان داده شدهاست، نه در معادلات به سختی و پیچیدگی معادلات به کار رفته در مدلسازی آب و هوا.
با این حال، از دیدگاه محاسباتی، خبرهای خوب بیشتری وجود دارد. تیم میشرا نشان داده است که تکنیکهای جدید از ابعاد رنج نمیبرند. هنگامی که آنها DeepONet را برای تعدادی از موارد تجزیهوتحلیل کردند، او گفت، «ما در واقع ثابت میکنیم که این امر، طلسم بعد بودن را، خواهد شکست، که بسیار خوب است.» یافتههای مقدماتی نشان میدهند که عملگر عصبی فوریه نیز نفرین نشده است. «این نظریه به زودی مطرح میشود.»
کارنیداکیس گفت که شکستن این طلسم حیاتی است اگر اپراتورهای عصبی قرار است جایگزین سولورهای PDE سنتی شوند. «[این] آینده یادگیری ماشین علمی است.»
این متن با استفاده از ربات مترجم مقاله تکنولوژی ترجمه شده و به صورت محدود مورد بازبینی انسانی قرار گرفته است.در نتیجه میتواند دارای برخی اشکالات ترجمه باشد.
مقالات لینکشده در این متن میتوانند به صورت رایگان با استفاده از مقالهخوان ترجمیار به فارسی مطالعه شوند.
مطلبی دیگر از این انتشارات
ولعِ ارتباطات اجتماعی در دوران کرونا
مطلبی دیگر از این انتشارات
اولین شبکه کوانتومی چند گرهی راه را برای اینترنت کوانتومی هموار میکند.
مطلبی دیگر از این انتشارات
۷ ایده ریلز اینستاگرام برای ارتباط بهتر با مخاطبینتان