<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
    <channel>
        <title>نوشته های هوش مصنوعی</title>
        <link>https://virgool.io/feed/@ai-ml</link>
        <description>هوش مصنوعی، یادگیری ماشین و یادگیری عمیق</description>
        <language>fa</language>
        <pubDate>2026-04-15 06:01:31</pubDate>
        <image>
            <url>https://files.virgool.io/upload/users/1857172/avatar/0Dm8UN.jpg?height=120&amp;width=120</url>
            <title>هوش مصنوعی</title>
            <link>https://virgool.io/@ai-ml</link>
        </image>

                    <item>
                <title>ابزار چت جدید OpenAI معروف به ChatGPT چیست؟</title>
                <link>https://virgool.io/@ai-ml/%D8%A7%D8%A8%D8%B2%D8%A7%D8%B1-%DA%86%D8%AA-%D8%AC%D8%AF%DB%8C%D8%AF-openai-%D9%85%D8%B9%D8%B1%D9%88%D9%81-%D8%A8%D9%87-chatgpt-%DA%86%DB%8C%D8%B3%D8%AA-zmlg2ent1z5j</link>
                <description>مدل زبان بزرگ ChatGPT توسط OpenAI آموزش داده شده است. با استفاده از آخرین تکنولوژی ها و الگوریتم های مدلسازی زبان، ChatGPT به عنوان یک مدل زبان بزرگ با توانایی توصیف، تلفظ و ترجمه مطالب با دقت بالا معروف است.هوش مصنوعی و چت بات جدید chatgptاین مدل با آموزش بر روی مجموعه بزرگی از متن ها و داده های زبان، توانایی توصیف و جواب دادن به سوالات مختلف را دارد. به عنوان مثال، می توانید با استفاده از ChatGPT، سوالات در مورد تاریخ، علم، فناوری و سایر موضوعات را بپرسید و گرایش خود را در موضوع مشخص بالا ببرید.با استفاده از تکنولوژی های پیشرفته، ChatGPT قادر به تولید متن های عالی با ساختار خوب و معنای مناسب است. برای این منظور، می توانید از آن برای تولید متن های مختلف، مانند روزنامه نگاری، نوشتن داستان و یا ترجمه متن ها به زبان های مختلف بهره ببرید!از همه مهمتر همین متن توسط ChatGPT تولید شده است!!!!!پاسخ chatgpt</description>
                <category>هوش مصنوعی</category>
                <author>هوش مصنوعی</author>
                <pubDate>Fri, 03 Feb 2023 19:16:38 +0330</pubDate>
            </item>
                    <item>
                <title>دوره رایگان پایتون</title>
                <link>https://virgool.io/@ai-ml/%D8%AF%D9%88%D8%B1%D9%87-%D8%B1%D8%A7%DB%8C%DA%AF%D8%A7%D9%86-%D9%BE%D8%A7%DB%8C%D8%AA%D9%88%D9%86-lh38nqjeyp2o</link>
                <description> امروزه روی آوری به پایتون در بین مهندسان، دانشمندان و تحلیلگران بسیار فراگیر شده است و تقاضا برای یادگیری آن روز به روز افزایش میابد، در نتیجه نیاز به دوره آموزش برنامه نویسی پایتون بیش از هر زمانی احساس خواهد شد. از طرفی یادگیری پایتون نسبت به سایر زبان‌های برنامه‌نویسی آسان‌تر است. این ویژگی همراه با کاربردهای گسترده باعث شده که پایتون به یکی از محبوب‌ترین زبان‌های برنامه‌نویسی در سال‌های اخیر تبدیل‌ شود.آموزش رایگان پایتونحال اگر برای هوش مصنوعی میخواهید پایتون را بیاموزید پیشنهاد میکنم این پست را ببینید https://class.vision/product/%d8%a2%d9%85%d9%88%d8%b2%d8%b4_%d9%be%d8%a7%db%8c%d8%aa%d9%88%d9%86_%d8%a8%d8%b1%d8%a7%db%8c_%d9%87%d9%88%d8%b4_%d9%85%d8%b5%d9%86%d9%88%d8%b9%db%8c/ </description>
                <category>هوش مصنوعی</category>
                <author>هوش مصنوعی</author>
                <pubDate>Tue, 10 Jan 2023 16:58:56 +0330</pubDate>
            </item>
                    <item>
                <title>کلیات قانون جدید چین برای مقابله با«دیپ فیک»!</title>
                <link>https://virgool.io/@ai-ml/%DA%A9%D9%84%DB%8C%D8%A7%D8%AA-%D9%82%D8%A7%D9%86%D9%88%D9%86-%D8%AC%D8%AF%DB%8C%D8%AF-%DA%86%DB%8C%D9%86-%D8%A8%D8%B1%D8%A7%DB%8C-%D9%85%D9%82%D8%A7%D8%A8%D9%84%D9%87-%D8%A8%D8%A7%D8%AF%DB%8C%D9%BE-%D9%81%DB%8C%DA%A9-q9tgnl3fax8a</link>
                <description>چین در ماه ژانویه، اولین مجموعه مقررات خود را در مورد ویدئوهای جعل عمیق یا دیپ فیک منتشر می کند و از این طریق کنترل محتوای اینترنتی جعلی را افزایش می دهد.به گزارش فارس به نقل از سی ان بی سی، دیپ فیک ها تصاویر یا ویدئوهایی هستند که به صورت مصنوعی تولید یا تغییر یافته اند و با استفاده از نوعی هوش مصنوعی ساخته می شوند. از این فناوری می توان برای تغییر یک ویدیوی موجود استفاده کرد، برای مثال با قرار دادن چهره یک سیاستمدار بر روی یک ویدیوی موجود یا حتی ایجاد سخنرانی جعلی تا دروغ پراکنی در فضای مجازی ساده تر شود.نتیجه این کار انتشار ویدئوهای ساختگی است که به نظر می رسد واقعی هستند اما اینطور نیست. پکن قوانین خود را در این مورد در اوایل سال جاری اعلام کرد و آنها را در دسامبر نهایی کرد. این قوانین از 10 ژانویه اجرایی خواهند شد.در اینجا برخی از مفاد این مقررات کلیدی آورده شده است:- اگر قرار است از تصویر افراد در هر فناوری جعل عمیق استفاده شود، کاربران باید رضایت دهند.- از خدمات جعل عمیق نمی توان برای انتشار اخبار جعلی استفاده کرد.- در خدمات جعل عمیق باید هویت واقعی کاربران احراز شود.- محتوای جعل عمیق باید با نوعی اعلان منتشر شود تا کاربران بدانند که تصویر یا ویدیوی اصلی با فناوری خاصی تغییر یافته است.- تولید محتوای مغایر با قوانین موجود ممنوع است، و همچنین انتشار محتوایی که امنیت و منافع ملی را به خطر می اندازد، به وجهه ملی آسیب می رساند یا اقتصاد را مختل می کند، ممنوع است.اداره قدرتمند فضای مجازی چین تنظیم کننده این قوانین است. از پایان سال 2020، چین به دنبال مدیریت غول‌های فناوری این کشور بوده و مقررات گسترده‌ای را در حوزه‌های مختلف از ضد انحصار تا حفاظت از داده‌ها وضع کرده است. اما این کشور همچنین به دنبال تنظیم فناوری های نوظهور بوده و در قوانین فنی خود از هر کشور دیگری فراتر رفته است. https://class.vision </description>
                <category>هوش مصنوعی</category>
                <author>هوش مصنوعی</author>
                <pubDate>Mon, 26 Dec 2022 21:49:18 +0330</pubDate>
            </item>
                    <item>
                <title>✍?پیش بینی بحران ها و همه گیری های جهانی به کمک هوش مصنوعی</title>
                <link>https://virgool.io/@ai-ml/%D9%BE%DB%8C%D8%B4-%D8%A8%DB%8C%D9%86%DB%8C-%D8%A8%D8%AD%D8%B1%D8%A7%D9%86-%D9%87%D8%A7-%D9%88-%D9%87%D9%85%D9%87-%DA%AF%DB%8C%D8%B1%DB%8C-%D9%87%D8%A7%DB%8C-%D8%AC%D9%87%D8%A7%D9%86%DB%8C-%D8%A8%D9%87-%DA%A9%D9%85%DA%A9-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-zr9abuxwmy8e</link>
                <description>✍?پیش بینی بحران ها و همه گیری های جهانی به کمک هوش مصنوعیتیمی از محققان دانشگاه براون و موسسه فناوری ماساچوست می گویند راه هایی برای پیش بینی وقوع بلایای طبیعی و همه گیری های جهانی با کمک هوش مصنوعی وجود دارد.در این مطالعه جدید، آن ها الگوریتم ‌های آماری را که به داده‌ های کمتری برای پیش ‌بینی دقیق نیاز دارند، با یک یادگیری ماشینی قدرتمند (کاربرد هوش مصنوعی) ترکیب کردند تا با موفقیت از نیاز به داده ‌های بیش از حد چشم پوشی کنند.جورج کارنیاداکیس، پژوهشگر ارشد این مطالعه در این رابطه می گوید: باید متوجه باشید که این رویدادهاتصادفی هستند. شیوع یک بیماری همه گیرمانند کرونا، فاجعه زیست محیطی در خلیج مکزیک، زلزله، آتش سوزی های عظیم و سونامی رویدادهای نادری هستند و چون به ندرت رخ می دهند، اطلاعات آماری متنوعی از آن ها وجود ندارد. به طور کلی ما نمونه های کافی از گذشته برای پیش بینی آن ها در آینده نداریم. به همین دلیل محققان در تلاش هستند تا بدانند چگونه  می توانیم از بهترین داده ممکن برای به حداقل رساندن تعداد نقاط داده مورد نیاز خود استفاده کنیم؟منبع: @HomeAI</description>
                <category>هوش مصنوعی</category>
                <author>هوش مصنوعی</author>
                <pubDate>Sun, 25 Dec 2022 13:49:36 +0330</pubDate>
            </item>
                    <item>
                <title>رونمایی مدل جدید هوش مصنوعی Point-E  توسط OpenAI</title>
                <link>https://virgool.io/DigitalTransformation/%D8%B1%D9%88%D9%86%D9%85%D8%A7%DB%8C%DB%8C-%D9%85%D8%AF%D9%84-%D8%AC%D8%AF%DB%8C%D8%AF-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-point-e-%D8%AA%D9%88%D8%B3%D8%B7-openai-oqgfzaxt7ocu</link>
                <description>✍?استارتاپ OpenAI از هوش مصنوعی Point-E برای تبدیل متن به مدل‌های سه‌ بعدی رونمایی کردسرعت این هوش مصنوعی بسیار بالاتر از هوش مصنوعی DreamFusion گوگل بوده و تنها در عرض چندین ثانیه تبدیل تصاویر را انجام می‌دهد. این هوش مصنوعی در صنایع و برنامه‌های مختلفی نظیر فیلم‌های پرفروش مدرن و بازی‌های ویدیویی و VR و AR کاربرد دارد.سیستم‌های هوش مصنوعی تبدیل متن به تصویر مانند DALL-E 2 و Craiyon از OpenAI در سال‌های اخیر به‌سرعت محبوبیت زیادی پیدا کرده‌اند. تبدیل متن به مدل‌های سه‌بعدی نیز شاخه‌ای از این تحقیق محسوب می‌شود. https://class.vision استارتاپ OpenAI اعلام کرده که برای تولید یک شیء سه‌بعدی از یک متن، ابتدا یک تصویر با استفاده از مدل متن به تصویر نمونه‌برداری‌‌شده و سپس یک شیء سه‌بعدی براساس تصویر نمونه‌برداری‌شده تهیه می‌شود که در زمان بسیار کوتاهی این کار انجام خواهد شد.</description>
                <category>هوش مصنوعی</category>
                <author>هوش مصنوعی</author>
                <pubDate>Sun, 25 Dec 2022 13:46:53 +0330</pubDate>
            </item>
                    <item>
                <title>عمرتان زیادی کرده که دکترا بخوانید؟</title>
                <link>https://virgool.io/@ai-ml/%D8%B9%D9%85%D8%B1%D8%AA%D8%A7%D9%86-%D8%B2%DB%8C%D8%A7%D8%AF%DB%8C-%DA%A9%D8%B1%D8%AF%D9%87-%DA%A9%D9%87-%D8%AF%DA%A9%D8%AA%D8%B1%D8%A7-%D8%A8%D8%AE%D9%88%D8%A7%D9%86%DB%8C%D8%AF-lil3gycmq4hp</link>
                <description>اخیرا آقای لکان (یکی از سه‌ بزرگ دیپ‌لرنینگ) توییتی زده و به مورد Aditya Ramesh اشاره کرد. فردی که لیسانسش رو از دانشگاه NYU گرفته و قصد داشت تا وارد دوره دکتری شود اما با یک کارآموزی در OpenAI مسیرش تغییر کرده و در آن جا مانده و در نهایت با مدرک لیسانس تبدیل به نویسنده اصلی مقاله مدل معروف Dall-E می‌شود. آقای بهنام نیشابور محقق گوگل هم توییت لکان را کوت کرده و نکات ریزتری برای تایید &quot;نباید برای یادگیری ماشین دکترا خواند&quot; به آن اضافه کرده است. نکته اصلی که تحصیلات تکمیلی برای زمینه‌ای مثل ML آورریتد است. چرا؟ چون که یک نفر بدون هیچ گونه پیش زمینه خاصی می‌تواند به این فیلد وارد شده و با اندکی وقت گذاشتن، حتی می‌تواند به راحتی در کنفرانس‌های مطرح دنیا مقاله‌ای چاپ کند. منابع آموزشی ML روز به روز گسترده‌تر و در دسترس‌تر می‌شوند و واقعا لازم نیست کسی برای وارد شدن به وادی پژوهشگری یادگیری ماشین بیاید و ۵ الی ۶ سال از عمرش را در ارشد یا دکتری هدر دهد. (و خودمانیم، رشته‌‌هایی مثل فیزیک را با ML مقایسه کنید. طرف در فیزیک تا بخواهد به جایی برسید باید مو سفید کند اما امروزه از صفر تا صد ماشین لرنینگ را با این تئوری‌های آبکی که دارد می‌توان در کمتر از دو سال طی نمود)کلاس ویژن: دوره های تخصصی هوش مصنوعی و یادگیری ماشین https://class.vision نکته‌ دیگری که آقای نیشابور اشاره کرده است این است که تعداد موقعیت‌های دکترای یادگیری ماشین روز به روز بیشتر می‌‌شود اما از آن طرف تعداد شغل‌هایی که به مدرک دکتری یادگیری ماشین نیاز دارد در آینده روز به روز کمتر می‌شود. در واقع با داشتن دکتری شما over-qualified می‌شوید و از طرف دیگر هم مگر آکادمی چه قدر موقعیت شغلی می‌تواند داشته باشد؟ در مقابل، صنعت اما بیش از ML Researcher به ML Engineer‌ها نیازمند است. کسی که بتواند چیزی را واقعا بسازد. دوره دکتری باعث دوری نسبی از شما صنعت و مهارت‌های آن خواهد شد.  آقای نیشابور در انتها به نتایج تحقیقی اشاره کرده که در آن گفته شده درصد زیادی از دانشجویان تحصیلات تکمیلی دچار افسردگی و اضطراب شدید هستند.نکته دیگری که ما به صحبت‌های بالا اضافه می‌توانیم بکنیم این است که جایگاه متفاوت یادگیری ماشین و به طور عام هوش مصنوعی نسبت به سایر علوم را باید در نظر گرفت. هوش مصنوعی در مدت ۷۰ سال اخیری که از خدا عمر گرفته است، همچنان حوزه یکپارچه‌ای نبوده است. هر از چند گاهی ایده‌ای آمده است و با هوش مصنوعی وارد بهاری شده و در نهایت در زمستانی دفن شده است. گاهی منطق‌دان‌ها به آن وارد شده‌اند و با دیدشان روش‌های سیستم‌های خبره و منطق را برای هوش مصنوعی توسعه داده‌اند. گاهی برقی‌ها وارد شده‌اند و مفاهیم سیگنالی را در حوزه هوش مصنوعی غالب کرده‌اند و این اواخر هم ریاضی‌دان‌ها و آماردان‌ها وارد شده و پارادایم یادگیری ماشین را پادشاه هوش مصنوعی کرده‌اند. از حدود ۲۰۱۲ به این ور هم شبکه‌های دیپ (شاید مدیون پیشرفت‌‌های سخت‌افزاری) فرمان بازی را به دست گرفته و بهاری‌ترین دوران هوش مصنوعی را رقم زده‌اند. اما واقعیت این است که یادگیری عمیق نیز اکنون احتمالا وارد پاییز خود شده است (در این مورد در آینده احتمالا صحبت می‌کنیم). مسیر تحقیقاتی هوش مصنوعی و یادگیری ماشین احتمال دارد به زودی دوباره وارد زمستان سخت شده و تمامی سرمایه‌گذاری‌های تحقیقاتی بسوزند. البته که بحث دنیای صنعت فرق می‌کند و همین الان بسیاری راه‌حل‌های یافت شده در دنیای آکادمی آماده هستند تا به دنیای صنعت و کاربرد اعمال شوند. در همین راستا شاید پیشنهاد ML Engineer شدن به جای ML Researcher شدن پیشنهاد عافیت داری برای دین و دنیا باشد. پی‌نوشت-۲: البته اگر در بلاد کفر نیستید قاعدتا برای رسیدن به جایی مانند گوگل یا کوچکتر از آن مسیری جز اپلای تحصیلی برای ساختن رزومه و تقویت حلقه تاثیر شاید نیست. بحث کلی این است که در شرایط عادی، دکترای یادگیری ماشین معنی چندانی در دنیای امروز ندارد.لینک توییت لکان:https://twitter.com/ylecun/status/1605450677806895104لینک توییت نیشابور:https://twitter.com/bneyshabur/status/1605677285255675904منبع: @nlp_stuff</description>
                <category>هوش مصنوعی</category>
                <author>هوش مصنوعی</author>
                <pubDate>Sun, 25 Dec 2022 13:44:22 +0330</pubDate>
            </item>
                    <item>
                <title>اشتباهات جالب هوش مصنوعی</title>
                <link>https://virgool.io/@ai-ml/%D8%A7%D8%B4%D8%AA%D8%A8%D8%A7%D9%87%D8%A7%D8%AA-%D8%AC%D8%A7%D9%84%D8%A8-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-vxapahmswr1i</link>
                <description>فناوری هوش مصنوعی به میزان زیادی در اختیار کاربران انتهایی قرار گرفته است. در اپلیکیشن‌ها و برنامه‌های آموزش زبان‌های خارجی، از ربات ها برای آموزش زبان انگلیسی استفاده می شود و شرکت هایی مانند تسلا و آمازون اکنون روبات‌هایی در انبارهای خود دارند گه با هوش مصنوعی کالاها را برای مشتری‌های گردآوری و بسته‌بندی و ارسال می‌کنند. یکی از معروف ترین ربات های جهان، سوفیا ، حتی با CNBC مصاحبه کرده و می تواند یک مکالمه تاثیرگذار داشته باشد. برنامه‌های ویرایش عکس و تولیدکننده عکس انبوهی هم در حال حاضر از هوش مصنوعی استفاده می‌کنند.اما هوش مصنوعی هنوز رخنه‌هایی دارد و برخی چیزها را نمی‌تواند درست تجزیه و تحلیل کند. بیشتر به خاطر اینکه ماده خامی که به خورد برنامه داده می‌شود داده‌ها و عکس‌ها درست و حسابی و نه عکس‌هایی با سایه و روشن و پرسپکتیو گیج کننده هستند. پس اگر هوش مصنوعی را با این عکس‌ها یا داده‌ها مواجه کنیم، نباید انتظار پاسخ خوب داشته باشید!اگر به تاریخچه‌ی هوش مصنوعی علاقه دارید این پست هم مطالعه کنید: https://class.vision/blog/%d8%aa%d8%a7%d8%b1%db%8c%d8%ae%da%86%d9%87%db%8c-%d9%87%d9%88%d8%b4-%d9%85%d8%b5%d9%86%d9%88%d8%b9%db%8c/ </description>
                <category>هوش مصنوعی</category>
                <author>هوش مصنوعی</author>
                <pubDate>Sun, 18 Dec 2022 16:21:16 +0330</pubDate>
            </item>
                    <item>
                <title>مبارزه خبرنگاران با سوگیری تبعیض‌آمیز هوش مصنوعی</title>
                <link>https://virgool.io/@ai-ml/%D9%85%D8%A8%D8%A7%D8%B1%D8%B2%D9%87-%D8%AE%D8%A8%D8%B1%D9%86%DA%AF%D8%A7%D8%B1%D8%A7%D9%86-%D8%A8%D8%A7-%D8%B3%D9%88%DA%AF%DB%8C%D8%B1%DB%8C-%D8%AA%D8%A8%D8%B9%DB%8C%D8%B6-%D8%A2%D9%85%DB%8C%D8%B2-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-l6udvy1ervvq</link>
                <description>در سال ۲۰۲۰ میلادی شرکت مایکروسافت ده‌ها کارمند اتاق خبرش را اخراج کرد و هوش مصنوعی را جایگزین آنها ساخت.اندکی پس از آن که ربات‌های گزارشگر مایکروسافت کارشان را شروع کردند، الگوریتم تهیه اخبار، موضوعی را در مورد Jade Thirwell، خواننده و ترانه سرای انگلیسی گروه موسیقی Little Mix و دیدگاه‌های شخصی او در مورد نژادپرستی منتشر کرد؛ اما با عکسی اشتباه. به جای تصویر Thirwell در این مطلب تصویر همکارش در این گروه موسیقی، Leigh-Ann Pinnock منتشر شد. این مطلب نگاهی دارد به شیوه‌هایی که خبرنگاران از راه آنها می‌توانند با جهت‌گیری تبعیض‌آمیز هوش مصنوعی مبارزه کنند.  https://class.vision/blog/%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%DA%86%DB%8C%D8%B3%D8%AA%D8%9F/ ناتوانی هوش مصنوعی در شناخت چهره‌های افراد رنگین‌پوست یک موضوع بسیار نگران‌کننده است. در سال ۲۰۲۱ فیلم مستند Coded Bias درباره کشف شگفتی‌آور Joy Buolamwini، یک متخصص کامپیوتر در M.I.T Media Lab ساخته شد که دریافته بود نرم‌افزار تشخیص چهره هوش مصنوعی نمی‌تواند چهره‌های افراد سیه‌چرده را تشخیص دهد و همچنین زنان را با دقت نمی‌شناسد.</description>
                <category>هوش مصنوعی</category>
                <author>هوش مصنوعی</author>
                <pubDate>Sat, 10 Dec 2022 18:50:59 +0330</pubDate>
            </item>
                    <item>
                <title>قطار self-supervised به ایستگاه tabular data رسید!</title>
                <link>https://virgool.io/@ai-ml/%D9%82%D8%B7%D8%A7%D8%B1-self-supervised-%D8%A8%D9%87-%D8%A7%DB%8C%D8%B3%D8%AA%DA%AF%D8%A7%D9%87-tabular-data-%D8%B1%D8%B3%DB%8C%D8%AF-h3r0sp7h3jzh</link>
                <description>قطعا در مدح self-supervied  learning زیاد شنیدید. یکی از محدودیت‌های اصلی self-supervised learning اینه که خیلی وابسته به دامین و مودالیتیه. مثلا روش‌های حوزه تصویر به سختی برای حوزه متن قابل انجامه. حالا مردانی مرد از google research به پا خاسته‌اند و سعی کردند روشی عمومی برای self supervised learning ارایه کنند که حتی بر روی tabular data هم بتونه جواب بده. معماری کلی این روش رو در تصویر زیر می‌تونید ببینید. مانند همه روش‌های SSL که در NLP بررسی کردیم، طبیعتا اینجا هم فاز pre-training و fine-tuning داریم که اساسا وجود همین پارادایم هم باعث میشه در محیط‌هایی که داده لیبل‌دار کمتری وجود داره بهتر عمل بکنه. ایده اصلی در فاز pre-training هست که از denoising auto encoderها الهام گرفته شده. در این روش به ازای یه batch از داده ترین به صورت رندم یک زیرمجموعه‌ای از فیچرها انتخاب میشه و این فیچرها رو corrupt می‌کنند. روش corruption هم به این صورته که به صورت رندم با همون فیچرها از سمپل‌های دیگه جایگزین میشه. حالا همون‌طور که در قسمت بالای تصویر می‌بینید دیتای سالم و دیتای corruptشده به ‌طور همزمان (تعریف همزمان اینه که دو تا شبکه داریم که full parameter sharing انجام دادند) به یک شبکه انکودر f داده می‌شه که داده رو به فضای بزرگتری می‌برند و سپس به یک شبکه g داده می‌شه که داده رو به فضای کوچکی میبره و بعد با استفاده از InfoNCE که یه loss function مشهور در عرصه SSL هست تفاوت خروجی شبکه به ازای دیتای corruptشده و دیتای سالم به دست میاد و کار ترینینگ انجام میشه (InfoNCE عملا شبیه یه categorical cross entropy عمل می‌کنه که به ازای نمونه‌های شبیه به هم مقدار کمی خروجی می‌ده و به ازای نمونه‌های negative که دور از هم هستند هم مقدار زیادی رو خروجی میده). در فاز fine tuning عملا شبکه g  کنار گذاشته میشه و یک classifier head بر روی شبکه f گذاشته میشه و کل شبکه fine tune میشه.برای تست این روش هم از دیتاست OpenML-CC18 استفاده شده که ۷۲ تسک دسته‌بندی داره و چون این مساله برای tabular data بوده ۳ تا از دیتاست‌هاش رو (CIFAR , MNIST, Fashion MNIST) کنار گذاشتند و عملا بر روی ۶۹ دیتاست تست گرفتند که روی برخی حتی با داده کمتر، بهبود هم داشته. مقاله خیلی جمع و جور و به زبان ساده و با جزییات تکنیکال نوشته شده و توصیه می‌کنیم حتما بخونید.لینک مقاله:https://arxiv.org/abs/2106.15147لینک گیت‌هاب:https://github.com/clabrugere/pytorch-scarfآموزش هوش مصنوعی: https://class.vision منبع: کانال تلگرام @nlp_stuff</description>
                <category>هوش مصنوعی</category>
                <author>هوش مصنوعی</author>
                <pubDate>Sat, 10 Dec 2022 18:49:13 +0330</pubDate>
            </item>
                    <item>
                <title>تخفیف ویژه دوره های هوش مصنوعی مکتب خونه! 45%</title>
                <link>https://virgool.io/@ai-ml/%D8%AA%D8%AE%D9%81%DB%8C%D9%81-%D9%88%DB%8C%DA%98%D9%87-%D8%AF%D9%88%D8%B1%D9%87-%D9%87%D8%A7%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D9%85%DA%A9%D8%AA%D8%A8-%D8%AE%D9%88%D9%86%D9%87-45-uoqv2xycfwlb</link>
                <description>اگر به هوش مصنوعی و یادگیری ماشین علاقه دارید، این فرصت را از دست ندهید.با لینکهای زیر تخفیف 45 درصدی مکتب خونه برای دوره های زیر تا 20 آذر فعال است:✔️بینایی کامپیوتر و پردازش تصویر -  اخوان پورکد تخفیف: PopMK-14010920 https://class.vision/product/opencv/ دوره های فارسی هوش مصنوعی✔️بینایی کامپیوتر و پردازش تصویر -  اخوان پور✔️آموزش پایتون مقدماتی - جادی✔️آموزش برنامه‌نویسی با پایتون (پیشرفته) - جادی✔️آموزش یادگیری ماشین (Andrew NG)✔️آموزش شبکه عصبی و یادگیری عمیق  (Andrew NG)✔️آموزش هوش مصنوعی برای همه (Andrew NG)✔️آموزش یادگیری ماشین - دکتر منثوری و سهیل تهرانی‌پور✔️آموزش برنامه‌نویسی با نرم‌افزار متلب - معین سلیمی✔️آموزش Git - وحید نائینی✔️آموزش داکر مقدماتی - صادق کریمی دستگردی</description>
                <category>هوش مصنوعی</category>
                <author>هوش مصنوعی</author>
                <pubDate>Fri, 09 Dec 2022 17:52:09 +0330</pubDate>
            </item>
                    <item>
                <title>طراحی داخلی خانه با هوش مصنوعی! امتحان کنید!!</title>
                <link>https://virgool.io/@ai-ml/%D8%B7%D8%B1%D8%A7%D8%AD%DB%8C-%D8%AF%D8%A7%D8%AE%D9%84%DB%8C-%D8%AE%D8%A7%D9%86%D9%87-%D8%A8%D8%A7-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D8%A7%D9%85%D8%AA%D8%AD%D8%A7%D9%86-%DA%A9%D9%86%DB%8C%D8%AF-i7hs3l0ydrcl</link>
                <description>طراحی داخلی (به انگلیسی: Interior Design)، هنر و علم ارتقای فضای داخلیِ ساختمان برای دستیابی به محیطی سالم‌تر و زیباتر برای افرادی است که از فضا استفاده می کنند. طراح داخلی کسی است که چنین پروژه‌های ارتقایی را برنامه‌ریزی، تحقیق، هماهنگی و  مدیریت می کند. طراحی داخلی یک حرفه چند وجهی است که شامل توسعۀ مفهومی،  برنامه‌ریزی فضا، بازرسی سایت، برنامه نویسی، تحقیق، ارتباط با ذینفعان یک  پروژه، مدیریت ساخت و اجرای طرح است.هوش مصنوعی (به انگلیسی:   smart mind یا  fake mind یا Artificial intelligence) (به اختصار: AI)، هوشی است که توسط ماشین‌ها ظهور پیدا می‌کند، در مقابل هوش طبیعی که توسط جانوران شامل انسان‌ها نمایش می‌یابد. حال هوش مصنوعی در این ساتارتاپ به کمک طراحی داخلی آمده!!!تو این سایت عکس از محیط داخل خونه بهش بدید و یه دیزاین جذاب که با هوش مصنوعی تولید شده تحویل بگیرید.Home Interior design and ideas based on already existing image.https://interiorai.comاگر به هوش مصنوعی علاقه دارید و دوست دارید یاد بگیرید:https://class.vision</description>
                <category>هوش مصنوعی</category>
                <author>هوش مصنوعی</author>
                <pubDate>Fri, 25 Nov 2022 15:02:04 +0330</pubDate>
            </item>
                    <item>
                <title>ردیابی در لحظه ی تغییرات سلولی با هوش مصنوعی!</title>
                <link>https://virgool.io/@ai-ml/%D8%B1%D8%AF%DB%8C%D8%A7%D8%A8%DB%8C-%D8%AF%D8%B1-%D9%84%D8%AD%D8%B8%D9%87-%DB%8C-%D8%AA%D8%BA%DB%8C%DB%8C%D8%B1%D8%A7%D8%AA-%D8%B3%D9%84%D9%88%D9%84%DB%8C-%D8%A8%D8%A7-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-e8yzzqammjiv</link>
                <description>پژوهشگران راهی برای مشاهده نمونه‌های سلولی ومطالعه تغییرات مورفولوژیکی یا تغییر در شکل وساختار سلول‌ها پیدا کرده‌اند. این اتفاق مهمی است،زیرا سلول‌ها، واحد اساسی حیات و آجرهای سازنده موجودات زنده هستندوپژوهشگران بایدبتوانند آنچه را که می‌تواند بر سلول‌ها مانند اندازه، شکل و چگالی آنها تأثیربگذارد،مشاهده کنند.به طور معمول،نمونه‌های سلولی به شکل مستقیم از طریق میکروسکوپ توسط دانشمندان برای مشاهده و کشف هر گونه تغییر در سلول‌ها مشاهده می‌شوند.آنها به دنبال تغییرات مورفولوژیکی در ساختارهای سلولی بودند. اما اکنون می‌توانند از هوش مصنوعی برای انجام این مشاهدات استفاده کنند.پژوهشگران اکنون از طریق استفاده از علوم کامپیوتر و زیرمجموعه‌ای از هوش مصنوعی به نام فناوری یادگیری عمیق می‌توانند این روش‌ها را برای تشخیص آنالیز سلولی ترکیب کنند.پژوهشگران از الگوریتم‌های مبتنی بر یادگیری عمیق برای خودکار کردن فرآیند تصویربرداری سلولی استفاده کرده‌اند که اغلب به صورت دستی انجام می‌شود و فرآیندی طولانی است.اگر دوست دارید با تکنیک های هوش مصنوعی آشنا شوید؛ همین امروز شروع کنید» ss.vision/ </description>
                <category>هوش مصنوعی</category>
                <author>هوش مصنوعی</author>
                <pubDate>Fri, 25 Nov 2022 14:58:03 +0330</pubDate>
            </item>
                    <item>
                <title>دوره های رایگان هوش مصنوعی دانشگاه استنفورد</title>
                <link>https://virgool.io/@ai-ml/%D8%AF%D9%88%D8%B1%D9%87-%D9%87%D8%A7%DB%8C-%D8%B1%D8%A7%DB%8C%DA%AF%D8%A7%D9%86-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D8%AF%D8%A7%D9%86%D8%B4%DA%AF%D8%A7%D9%87-%D8%A7%D8%B3%D8%AA%D9%86%D9%81%D9%88%D8%B1%D8%AF-f6owlxicqyxu</link>
                <description>?CS 224N: Natural Language Processing with Deep Learning http://web.stanford.edu/class/cs224n/?CS 224S: Spoken Language Processinghttps://web.stanford.edu/class/cs224s/?CS 224U: Natural Language Understandinghttps://web.stanford.edu/class/cs224u/?CS 224V: Conversational Virtual Assistants with Deep Learninghttps://web.stanford.edu/class/cs224v/?CS 224W: Machine Learning with Graphshttps://web.stanford.edu/class/cs224w/همچنین اگر دوست دارید فارسی هوش مصنوعی را بیاوزید، سایت کلاس ویژن را حتما توصیه میکنم: https://class.vision/ </description>
                <category>هوش مصنوعی</category>
                <author>هوش مصنوعی</author>
                <pubDate>Thu, 24 Nov 2022 13:26:13 +0330</pubDate>
            </item>
                    <item>
                <title>آموزش پردازش تصویر و بینایی ماشین با OpenCV</title>
                <link>https://virgool.io/@ai-ml/%D8%A2%D9%85%D9%88%D8%B2%D8%B4-%D9%BE%D8%B1%D8%AF%D8%A7%D8%B2%D8%B4-%D8%AA%D8%B5%D9%88%DB%8C%D8%B1-%D9%88-%D8%A8%DB%8C%D9%86%D8%A7%DB%8C%DB%8C-%D9%85%D8%A7%D8%B4%DB%8C%D9%86-%D8%A8%D8%A7-opencv-kga0yqvsjbw9</link>
                <description>کتابخانه ی OpenCV یا Open Computer Vision Library به مجموعه‌ای از کتابخانه‌های  برنامه‌نویسی پردازش تصویر و بینایی ماشین گفته می‌شود. OpenCV که بیشتر  روی پردازش تصویر Real time یا بی‌درنگ متمرکز است دارای بیش از 2500  الگوریتم بهینه شده شامل مجموعه‌ای جامع از الگوریتم‌های بینایی کامپیوتر و  یادگیری ماشین است. OpenCV کتابخانه‌ای چندسکویی است که توسط سیستم  عامل‌های گوناگونی همچون ویندوز، لینوکس، Mac Os، IOS و اندروید پشتیبانی  می‌شود. همچنین OpenCV دارای رابط برنامه‌نویسی به زبان‌های C++ ، C،  پایتون، جاوا و متلب نیز هست.چند وقت پیش یک دوره ی جامع با زبان پایتون تو مکتب خونه منتشر شده که برای علاقه مندا خیلی توصیه میشه.اگر به این دوره علاقه دارید کد تخفیف classvision را میتونید استفاده کنید. https://class.vision/product/opencv/ دوره آموزش پردازش تصویر و بینایی ماشین با OpenCV برای ایجاد یک پایه  قوی در بینایی کامپیوتر طراحی شده است. در این دوره شما درک کاملی از  تقریبا تمام ابزارهای OpenCV برای پردازش تصویر، بینایی کامپیوتری، پردازش  ویدئو و اصول اولیه هوش مصنوعی خواهید داشت. تمامی مفاهیم آموزش داده شده  در این دوره در پایتون پیاده‌سازی شده و دوره پیش رو شامل مباحث تئوری به  همراه پیاده‌سازی های عملی است. به این ترتیب به کمک دوره آموزش بینایی  ماشین و پردازش تصویر می‌توانید علاوه بر یادگیری موضوعات و مباحث ارائه  شده به صورت تئوری، در محیطی عملی نیز آموخته‌های خود را مورد ارزیابی قرار  دهید و به این ترتیب دانش خود در این زمینه را کامل‌تر از گذشته کنید.آموزش بینایی ماشین در OpenCV زبان pythonاز جمله موضوعات مورد بحث در این دوره می‌توان به موارد زیر اشاره کرد:مفاهیم پایه‌ی تصویر و بینایی کامپیوترکار با ویدیو و ایجاد رابط گرافیکی در OpenCVایجاد و تحلیل تصاویر باینریبهبود تصویر و فیلترگذاری روی تصاویرپردازش تصویر پیشرفته و عکاسی محاسباتیتبدیل‌های هندسی و ویژگی‌های تصویرشناسایی و تشخیص چهرهبخش‌بندی و بازشناسی تصویرتحلیل ویدئویادگیری عمیق در دوره آموزش پردازش تصویر و بینایی ماشین با OpenCv برای چه کسانی مناسب است؟در تمام مراحل تهیه و تولید دوره آموزش پردازش تصویر و بینایی ماشین با  OpenCv سعی شده است که آموزش‌های ارائه شده در این دوره برای همه  علاقه‌مندان کارآمد و مفید باشند. به طور مشخص دوره آموزش پردازش تصویر با  OpenCv برای گروه‌های زیر تهیه شده است:تمامی افراد علاقه مند به هوش مصنوعی و بینایی کامپیوتردانشجویان و مهندسان برق و کامپیوترافرادی که در زمینه رباتیک مشغول به کار و تحقیق هستندمحققان حوزه بینایی کامیپوتر و یادگیری عمیقOpenCV</description>
                <category>هوش مصنوعی</category>
                <author>هوش مصنوعی</author>
                <pubDate>Thu, 24 Nov 2022 12:42:46 +0330</pubDate>
            </item>
                    <item>
                <title>ما به تو مدیونیم آقای SE!</title>
                <link>https://virgool.io/@ai-ml/%D9%85%D8%A7-%D8%A8%D9%87-%D8%AA%D9%88-%D9%85%D8%AF%DB%8C%D9%88%D9%86%DB%8C%D9%85-%D8%A2%D9%82%D8%A7%DB%8C-se-yhcf6peuwxzp</link>
                <description>اگر در حوزه تحلیل داده و یادگیری ماشین فعالیت می‌کنید، احتمالا مواقعی پیش اومده که به سمت جمع‌آوری داده و ایجاد دیتاست رفتید. روش‌های مختلفی برای جمع‌آوری داده وجود داره اما در این پست می‌خوایم یک مقاله از گوگل رو برای شما معرفی کنیم که سعی کرده یک چارچوب مدون برای جمع‌آوری داده ارایه کنه و در این راه از مفاهیم موجود در توسعه نرم‌افزار الهام گرفته. اگر به یادگیری ماشین علاقه دارید همین امروز یادگیری را شروع کنید: https://class.vision در این مقاله توضیح داده شده که فرآیند ایجاد دیتاست، یک فرآیند ۵ مرحله‌ای و چرخه‌ای است که تصویر اون رو می‌تونید در پایین ببینید. این ۵ مرحله عبارتند از: بررسی نیازمندی‌ها، طراحی، اجرا، تست و نگهداری که این ۵ مرحله نیز تداعی کننده متدولوژی‌های مشهور در دنیای مهندسی نرم افزار هستند. نکته قابل توجه، تاکید گوگل بر تولید artifact در هر مرحله است. به این معنا که در هر مرحله باید داکیومنتی آماده بشه که به عنوان خروجی اون مرحله محسوب میشه و برای اون نیز تمپلیت‌هایی در انتهای مقاله آورده شده که کار رو روی زمین بیارند. توضیحات هر یک از این ۵ مرحله در یک جدول و در انتهای این پست در تصاویر آورده شده (ورق بزنید). یکی از مهم‌ترین مراحل، مرحله تسته که به دو صورت تست پذیرش (برای اطمینان از تطابق با نیازمندی‌ها) و تست‌های خصمانه مطرح میشه و برای پیاده‌سازی هم همان متد‌های معروف unit testing در مهندسی نرم‌افزار می‌تونه مورد استفاده قرار بگیره. مثلا فرض کنید چنانچه دیتاست از داخل یک سازمان جمع‌آوری میشه تست‌هایی طراحی بشه که از عدم افشای اطلاعات محرمانه شرکا اطمینان حاصل بشه. در ادامه هم برخی درس‌هایی که از حوزه مهندسی نرم‌افزار گرفتیم رو برای جمع‌آوری دیتاست هم اعمال می‌کنه. مثلا:- به دیتاست به چشم یه گناهکار نگاه کنید مگر اینکه خلافش ثابت بشه (در واقع همیشه شکاک باشید که یه جای کار می‌لنگه و بابتش تست کیس‌های مناسب طراحی کنید)- پیش‌فرض‌هایی که باهاش به سراغ جمع‌آوری دیتاست رفتید رو گردآوری کنید و کنترل ورژن انجام بدید (در داکیومنت خروجی مرحله آنالیز نیازمندی‌ها و یا طراحی می‌تونه دیده بشه)- حتما در مسیر توسعه دیتاست، peer review داشته باشید که از نون شب واجب‌تره- برای بررسی توزیع پارامتر‌های دیتاست از ابزارهای مصورسازی استفاده کنید. (یکی از سکشن‌های تمپلیت مربوط به خروجی فاز آنالیز نیازمندی‌ها که در انتهای مقاله اومده، distributional requirements هست  که در اون توزیع لازم برای برخی پارامتر‌ها توضیح داده میشه. مثلا ممکنه دیتاست باید طوری جمع‌آوری بشه که فلان پارامتر توزیع نرمال داشته باشه و این واقعیت باید در داکیومنت فاز آنالیز نیازمندی‌ها دیده بشه)- حتما نواقص و محدودیت‌های دیتاست‌تون رو بدونید و یادداشت کنید به جای اینکه روی سرش قسم بخوریدو در آخر باید بگیم که بارها موارد استفاده از پارادایم‌های نرم‌افزاری در توسعه مدل‌های یادگیری ماشین رو دیدیم و این بار شاهد استفاده از این پاردایم‌ها در ایجاد دیتاست بودیم که اهمیت توانمندی در حوزه مهندسی نرم‌افزار رو برای دیتاساینتیست ‌ها بیش از پیش نشون میده و در پایان فقط می‌تونیم بگیم ما دیتاساینتیست‌ها به تو مدیونیم ای مهندسی نرم‌افزار!لینک مقاله:https://arxiv.org/abs/2010.13561منبع این پست: کانال تلگرامی https://t.me/nlp_stuff</description>
                <category>هوش مصنوعی</category>
                <author>هوش مصنوعی</author>
                <pubDate>Thu, 24 Nov 2022 12:35:40 +0330</pubDate>
            </item>
                    <item>
                <title>فیس بوک برنامه هوش مصنوعی خود را بعد از دو روز از دسترس خارج کرد</title>
                <link>https://virgool.io/@ai-ml/%D9%81%DB%8C%D8%B3-%D8%A8%D9%88%DA%A9-%D8%A8%D8%B1%D9%86%D8%A7%D9%85%D9%87-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D8%AE%D9%88%D8%AF-%D8%B1%D8%A7-%D8%A8%D8%B9%D8%AF-%D8%A7%D8%B2-%D8%AF%D9%88-%D8%B1%D9%88%D8%B2-%D8%A7%D8%B2-%D8%AF%D8%B3%D8%AA%D8%B1%D8%B3-%D8%AE%D8%A7%D8%B1%D8%AC-%DA%A9%D8%B1%D8%AF-spjoa8vkev0n</link>
                <description>هدف از پروژه Galactica یا برنامه هوش مصنوعی فیس بوک افزایش اطلاعات در علوم مختلف با استفاده از هوش مصنوعی برای غربال کردن ۴۸ میلیون مقاله و کتاب درسی بود. به گفته کارشناسانی که این برنامه را آزمایش کرده اند، این برنامه انواع مزخرفات را مطرح می کند، و برخی از چیزهایی که می‌گوید «توهین‌آمیز و خطرناک» بوده اند.خبر مرتبط: https://www.spiceworks.com/tech/artificial-intelligence/news/meta-galactica-large-language-model-criticism/ این آزمایش همچنین دستورالعمل های نادرستی در مورد نحوه ساخت ناپالم ماده ای که برای ساختن بمب استفاده می شود، در وان حمام ارائه کرده است. چند روز پس از انتشار این نرم افزار، روسای متا مجبور شدند آن را از اینترنت خارج کنند.این شبکه اجتماعی اعلام کرده است: &quot;هیچ تضمینی برای خروجی واقعی یا قابل اعتماد مدل‌های زبان، حتی مدل‌های بزرگی که بر روی داده‌های با کیفیت بالا مانند Galactica آموزش دیده‌اند، وجود ندارد. هرگز توصیه‌های یک مدل زبان را بدون بررسی آن دنبال نکنید.&quot;فیس بوک تأکید کرده است: &quot;مدل های زبانی بعضا قابل اعتماد هستند اما اغلب حاوی اشتباه هستند.&quot;اگر به هوش مصنوعی و یادگیری ماشین علاقه مند هستید، همین امروز شروع کنید: https://class.vision/ هوش مصنوعی Galacticaکه قبلاً به‌عنوان واحد تحقیقات هوش مصنوعی فیس‌بوک شناخته می‌شد، کار خود را روی این هوش مصنوعی مبتنی بر یادگیری ماشینی آغاز کرد تا محتواهای علمی را سازماندهی کند. هفته گذشته نسخه آزمایشی  Galactica منتشر شد، ولی بلافاصله نظر منتقدان را به خود جلب کرد. منتقدان  می‌گفتند این ابزار برای استفاده عمومی هنوز آماده نیست و محتوایی تولید  می‌کند که صحت آن تأیید نشده است.تیم Meta AI این هوش مصنوعی را برای تولید محتوای  تحقیقاتی، حل کردن برخی مسائل ریاضی و حتی خلاصه‌سازی برخی مقاله‌ها طراحی  کرده است. با این وجود، منتقدان می‌گویند Galactica هنوز نمی‌تواند چنین  اهدافی را محقق کند.در ابتدا به نظر می‌رسید Galactica روشی هوشمندانه برای نشر مقاله‌های  علمی و توسعه دانش است. برای مثال اگر فردی بخواهد آخرین تحقیقات در مورد  موضوعی مانند محاسبات کوانتومی را درک کند، احتمالاً باید صدها مقاله را  مطالعه کند که کار سختی است. هوش مصنوعی Galactica با این هدف طراحی شده  بود تا کاربر بتواند با پرسیدن یک سؤال ساده مانند محاسبات کوانتومی چیست؟ به پاسخی روشن‌تر و خلاصه‌شده از انبوهی از داده‌ها دست پیدا کند.منتقدان می‌گویند Galactica نمی‌تواند در حال حاضر در دسترس عموم قرار  بگیرد و اطلاعات درستی ارائه نمی‌کند. باید دید در ادامه متا چه تصمیمی در  مورد هوش مصنوعی Galactica می‌گیرد و سرنوشت آن به چه سمتی خواهد رفت.منبع:https://digiato.com/article/2022/11/21/meta-trained-ai-48-million-science-papers</description>
                <category>هوش مصنوعی</category>
                <author>هوش مصنوعی</author>
                <pubDate>Thu, 24 Nov 2022 12:28:03 +0330</pubDate>
            </item>
                    <item>
                <title>اورفیت‌کردن در حکمرانی</title>
                <link>https://virgool.io/@ai-ml/%D8%A7%D9%88%D8%B1%D9%81%DB%8C%D8%AA-%DA%A9%D8%B1%D8%AF%D9%86-%D8%AF%D8%B1-%D8%AD%DA%A9%D9%85%D8%B1%D8%A7%D9%86%DB%8C-dyajyeyxuvwp</link>
                <description>موضوع علم یادگیری ماشین، تعمیم (Generalization) است. به خاطر همین هدف قرار گرفتن تعمیم، مفاهیم یادگیری ماشین می‌توانند شهودی برای همه قضایای دیگر از جمله اقتصاد و سیاست و حکمرانی قرار گیرند. یکی از پایه‌ای ترین این مفاهیم، بیش‌برازش یا overfiting است. همانطور که می‌دانید ما وقتی می خواهیم یک مدل را به منظور رسیدن به یک هدف آموزش دهیم، از ‌آنجایی که ممکن است این هدف به صورت مستقیم قابل دسترسی نباشد، مدل را بر روی یک proxy به امید رسیدن به آن هدف آموزش می‌دهیم. مثلا ما می‌خواهیم یک مدل دسته‌بندی تصاویر سگ‌ها و گربه‌ها را با هدف بیشتر کردن دقت آن آموزش دهیم، اما از آن جا که معیار دقت قابل بهینه‌سازی نیست و همچنین نمی‌توانیم تمام سگ و گربه‌های دنیا را تصویربرداری کنیم، ما مدل را بر روی تابع هزینه کراس انتروپی و البته بر روی مجموعه محدودی از دادگان آموزش می‌دهیم. حال در فرآیند آموزش ممکن است پس از مدتی میزان عملکرد ما بر روی این پراکسی بهبود یابد اما فاصله ما از هدف اصلی بیشتر و بیشتر شود. https://class.vision/ به موازات بیش‌برازش،‌ در علم اقتصاد قانونی به نام گودهارت وجود دارد که بیان می‌کند &quot;وقتی یک شاخص اندازه‌گیری به یک هدف تبدیل شود، دیگر شاخص خوبی نخواهد بود&quot;. برای مثال فرض کنید شما رییس یک دانشگاه هستید و سعی دارید تا کیفیت علمی دانشگاه را افزایش دهید و به همین جهت بر روی تعداد مقالات منتشرشده و تعداد ارجاعات ‌آن‌ها، سیاست‌های تشویقی اعمال می‌کنید. در ابتدا کیفیت علمی دانشگاه اندکی رشد می‌کند اما پس از مدتی مشاهده می‌کنید که تعداد مقالات و ارجاعات چند برابر شده اما با انبوهی از مقالات بی کیفیت و همچینن خودارجاعی‌های بین نویسندگان مختلف ‌آن‌ها مواجه هستید. به همین دلیل شاخص تعداد مقالات دیگر نمی‌تواند یک شاخص خوبی برای افزایش کیفیت علمی دانشگاه شما باشد.حال آقای Dickstein پژوهشگر Google Brain، در بلاگی با تناظر اورفیت و قانون گودهارت پا را فراتر گذاشته و صورت قوی‌تری از قانون گودهارت را ارائه کرده است: &quot;وقتی یک شاخص اندازه‌گیری به یک هدف تبدیل می‌شود، وقتی بیش از حد در آن کارآمد می شویم، هدف اصلی که به دنبال آن بودیم بدتر می شود&quot; برای مثال ممکن است هدف، پیداکردن حکمرانانی با بیشترین میزان مقبولیت و انتفاع در میان مردم باشد و شاخص این کار را آرای مردمی قرار دهیم. حال اگر فقط بر این شاخص تکیه کنیم، ممکن است تنها افراد صاحب سرمایه و رسانه‌ به قدرت برسند که قابلیت دستکاری افکار عمومی را دارند و در نهایت منجر به ظهور الیگارشی شوند. و یا این که هدف ما داشتن جامعه آگاه و متفکر باشد و برای رسیدن به این هدف شاخص آزادی تبادل اطلاعات را قرار دهیم، در صورت تکیه بر تنها این شاخص در نهایت ممکن است با پدیده‌های حباب فیلتر و رواج تئوری‌های توطئه و شبه علم مواجه شویم. Dickstein در این بلاگ این قبیل‌ مثال‌ها را به خوبی توضیح داده و سپس سعی می‌کند تا با بررسی راهکار‌های حل اورفیت تناظری از آن‌ها را برای حل مشکلات دیگر مطرح شده ارائه کند. از جمله این راهکار‌ها می‌توان به اضافه کردن هزینه منظم‌سازی (regularization)، تزریق نویز به سیستم، توقف زودهنگام و محدودکردن ظرفیت مدل یا بیشترکردن ظرفیت آن (پی‌نوشت را ببینید!) را ارائه داد. برای مثال برای حل مشکل حباب فیلتر که در آن فرد دچار انزوای فکری می‌شود و الگوریتم‌های توصیه‌گر فقط محدوده علاقه او را به او نشان می‌دهند، می‌توانیم هر از گاهی با نویز عمل کنیم و او را از حباب‌هایی که به لحاظ فرهنگی و ایدئولوژیک با سلیقه و ذائقهٔ او همخوانی دارند خارج کنیم. خواندن این بلاگ (که مورد تایید آقامون کارپثی هم هست) را به همه شما توصیه می‌کنیم.پی‌نوشت: یکی از جالب‌ترین مثال‌های بررسی شده در اینجا، میزان تریدآف بین شفافیت و privacy است. در صورتی که این تریدآف در میانه باشد ممکن است اقلیتی از آن و رانت اطلاعاتی به منظور تسلط بر سایرین استفاده کنند که نهایتا منجر به بدترشدن وضع می‌شود. دو راهکار پیشنهادی برای این حالت می‌تواند این باشد که یا مدل را کوچکتر کنیم و دسترسی همه به شفافیت و هر نوع اطلاعاتی از سایرین را ببندیم تا کسی قدرت سواستفاده از اطلاعات را نداشته باشد و یا این که راهکار بسیار بزرگترکردن مدل را در پیش بگیریم. این راهکار بسیار شبیه به موضوع overparameterization در یادگیری ماشین است که اخیرا بسیار مورد توجه قرار گرفته است. در این حالت بایستی روی همه چیز شفافیت داشته باشیم، در حدی که همه افراد از همه اطلاعات هم خبر داشته باشند، در این صورت دیگر امکان سواستفاده از اطلاعات پیش نخواهد آمد!لینک بلاگ:https://sohl-dickstein.github.io/2022/11/06/strong-Goodhart.html#read#blogمنبع: کانال تلگرامی@nlp_stuff</description>
                <category>هوش مصنوعی</category>
                <author>هوش مصنوعی</author>
                <pubDate>Sun, 20 Nov 2022 14:56:01 +0330</pubDate>
            </item>
                    <item>
                <title>ویدوی رایگان آموزش پایتون - دانشگاه هاروارد!</title>
                <link>https://virgool.io/@ai-ml/%D9%88%DB%8C%D8%AF%D9%88%DB%8C-%D8%B1%D8%A7%DB%8C%DA%AF%D8%A7%D9%86-%D8%A2%D9%85%D9%88%D8%B2%D8%B4-%D9%BE%D8%A7%DB%8C%D8%AA%D9%88%D9%86-%D8%AF%D8%A7%D9%86%D8%B4%DA%AF%D8%A7%D9%87-%D9%87%D8%A7%D8%B1%D9%88%D8%A7%D8%B1%D8%AF-s891bqpnrhby</link>
                <description>دورانی که برنامه نویسان مجذوب زبان هایی مانند C++ و جاوا بودند، گذشته  است. در حال حاضر هم برنامه نویسان مبتدی و هم برنامه نویسان ارشد، پایتون  را به عنوان زبان برنامه نویسی خود انتخاب می کنند.زبان برنامه نویسی پایتون یک زبان برنامه‌نویسی شیءگرا، تفسیری، سطح بالا، و همه منظوره است، که خیدو فان روسوم آن را طراحی کرده‌است، و اولین بار در سال ۱۹۹۱ منتشر شده‌است.آموزش رایگان پایتونطبق گواهینامه Open Source Initiative (مجوز متن باز) و مجوز عمومی GPL ، تمام نسخه های مدرن پایتون منبع باز هستند. پایتون در واقع  کاملا رایگان است، حتی برای استفاده تجاری.اگر میخواهید پایتون را یاد بگیرید 2 منبع خیلی کاربردی بهتون معرفی میکنم:منبع 1، اگر زبان خوبی دارید، آموزش پایتون از دانشگاه هاروارد را پیشنهاد میکنم:? فیلم کلاس (https://www.youtube.com/playlist?list=PLhQjrBD2T3817j24-GogXmWqO5Q5vYy0V)? سایت استاد (https://cs50.harvard.edu/python/2022/weeks/0/) اگر دوست دارید فارسی بخوانید نیز، دوره ی رایگان آقای اخوان، که مدرس دیپ لرنینگ و هوش مصنوعی مطرحی هستند هم خیلی توصیه میشه:آموزش Python(پایتون) برای هوش مصنوعی https://class.vision/product/%D8%A2%D9%85%D9%88%D8%B2%D8%B4_%D9%BE%D8%A7%DB%8C%D8%AA%D9%88%D9%86_%D8%A8%D8%B1%D8%A7%DB%8C_%D9%87%D9%88%D8%B4_%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C/ </description>
                <category>هوش مصنوعی</category>
                <author>هوش مصنوعی</author>
                <pubDate>Fri, 18 Nov 2022 07:05:30 +0330</pubDate>
            </item>
                    <item>
                <title>هوش مصنوعی در جام جهانی ۲۰۲۲ به کمک قطر می‌آید</title>
                <link>https://virgool.io/@ai-ml/%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D8%AF%D8%B1-%D8%AC%D8%A7%D9%85-%D8%AC%D9%87%D8%A7%D9%86%DB%8C-%DB%B2%DB%B0%DB%B2%DB%B2-%D8%A8%D9%87-%DA%A9%D9%85%DA%A9-%D9%82%D8%B7%D8%B1-%D9%85%DB%8C-%D8%A2%DB%8C%D8%AF-kmllmngfunbd</link>
                <description>قطر یک مرکز فناوری راه اندازی کرده است که در آن از هوش مصنوعی برای تحت نظر گرفتن تماشاگران، پیش‌بینی افزایش جمعیت و کنترل دمای ورزشگاه استفاده می‌شود.بیش از ۱۰۰ متخصص به صورت شبانه‌روزی در مرکز کنترل و فرماندهی اسپایر(Aspire) فعالیت خواهند کرد و بر تصاویری که از طریق ۲۰۰ هزار واحد یکپارچه از ۲۲ هزار دوربین امنیتی در هر هشت استادیوم ثبت شده و روی نمایشگر آنها ظاهر می‌شود، نظارت می‌کنند.از این اتاق، آنها می‌توانند دروازه‌های ورودی را کنترل کنند، از وجود آب لوله‌کشی اطمینان حاصل کنند و تهویه مطبوع را حفظ کنند.فناوری تشخیص چهره به کارمندان این امکان را می‌دهد تا روی هر یک از ۸۰ هزار صندلی در ورزشگاه لوسیل(Lusail) که قرار است میزبان ۱۰ مسابقه از جمله رقابت فینال باشد، زوم کنند.کارشناسان از حوزه‌های مختلف از امنیت سایبری گرفته تا مبارزه با تروریسم و ‌حمل و نقل به همراه مقامات قطری و فیفا در این مرکز مستقر خواهند شد.</description>
                <category>هوش مصنوعی</category>
                <author>هوش مصنوعی</author>
                <pubDate>Fri, 18 Nov 2022 06:55:25 +0330</pubDate>
            </item>
                    <item>
                <title>ابرکامپیوتر جدید Andromeda با توان بیش از 1 اگزافلاپ</title>
                <link>https://virgool.io/@ai-ml/%D8%A7%D8%A8%D8%B1%DA%A9%D8%A7%D9%85%D9%BE%DB%8C%D9%88%D8%AA%D8%B1-%D8%AC%D8%AF%DB%8C%D8%AF-andromeda-%D8%A8%D8%A7-%D8%AA%D9%88%D8%A7%D9%86-%D8%A8%DB%8C%D8%B4-%D8%A7%D8%B2-1-%D8%A7%DA%AF%D8%B2%D8%A7%D9%81%D9%84%D8%A7%D9%BE-vkcgsb1cviub</link>
                <description>شرکت Cerebras Systems به تازگی از ابرکامپیوتر Andromeda AI پرده برداشته که 13.5 میلیون هسته دارد و برای یادگیری ماشینی استفاده میشود.این ابرکامپیوتر بیش از 1 اگزافلاپ توان رایانشی هوش مصنوعی را با نرخ 16 بیت ودقت نیمه ارائه می‌کند.ابرکامپیوتر «آندرومدا» ازخوشه‌ای 16تایی از کامپیوترهای Cerebras C-2 ساخته شده که به هم وصل شده‌اند.هر CS-2 یک تراشه Wafer Scale Engine یابه اختصار WSE-2 دارد که درحال حاضر بزرگ‌ترین تراشه تاریخ با اندازه 54 سانتی‌متر مربع،850 هزار هسته و 2.6 میلیارد ترانزیستوراست. شرکت Cerebras این تراشه رادردیتاسنتری در سانتاکلارای کالیفرنیا با هزینه‌ای در حدود 35 میلیون دلارساخته است.تراشه WSE-2 برای کارهایی مثل مدل‌های زبانی بزرگ استفاده می‌شود و چندوقتی است که در حوزه‌های دانشگاهی وتجاری به کارگرفته شده.این شرکت می‌گوید:«آندرومدا از طریق موازی‌سازی ساده داده‌هادرمدل‌های زبانی بزرگ کلاس GPT شامل GPT-J, GPT-3 و GPT-NeoX به مقیاس‌پذیری در سطح نزدیک به ایده‌آل دست می‌یابد.»</description>
                <category>هوش مصنوعی</category>
                <author>هوش مصنوعی</author>
                <pubDate>Fri, 18 Nov 2022 06:53:42 +0330</pubDate>
            </item>
            </channel>
</rss>