<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
    <channel>
        <title>نوشته های Hamed Extractly</title>
        <link>https://virgool.io/feed/@Extractly</link>
        <description>Coffee Geek - Programming - Medical Doctor</description>
        <language>fa</language>
        <pubDate>2026-04-15 00:18:36</pubDate>
        <image>
            <url>https://files.virgool.io/upload/users/1393806/avatar/e1toLf.png?height=120&amp;width=120</url>
            <title>Hamed Extractly</title>
            <link>https://virgool.io/@Extractly</link>
        </image>

                    <item>
                <title>چگونه ابزارها دم‌آوری قهوه را علمی می‌کنند؟</title>
                <link>https://virgool.io/@Extractly/%DA%86%DA%AF%D9%88%D9%86%D9%87-%D8%A7%D8%A8%D8%B2%D8%A7%D8%B1%D9%87%D8%A7-%D8%AF%D9%85-%D8%A2%D9%88%D8%B1%DB%8C-%D9%82%D9%87%D9%88%D9%87-%D8%B1%D8%A7-%D8%B9%D9%84%D9%85%DB%8C-%D9%85%DB%8C-%DA%A9%D9%86%D9%86%D8%AF-tvr7vqxuoz8t</link>
                <description>قهوه ذاتاً پیچیده است.نه فقط به‌خاطر طعم‌ها، بلکه به‌خاطر تعداد بالای متغیرهایی که در هر دم‌آوری دخیل‌اند: زمان، دما، اندازه ذرات، توزیع، agitation و ده‌ها عامل دیگر.مشکل اصلی اینجاست:بیشتر ما می‌دانیم چه کارهایی «باید» بکنیم، اما نمی‌توانیم همیشه همان نتیجه را تکرار کنیم.اینجاست که ابزارها وارد می‌شوند.نه برای جایگزین‌کردن انسان، بلکه برای قابل تکرار کردن تصمیم‌ها.از هنر به علم: مسئله‌ی تکرارپذیریبه‌نظر من، هر رسپی‌ای که ساخته می‌شود، بر مبنای دانسته‌هاست؛نه بر مبنای ندانسته‌های زیادی که هنوز وجود دارند.ایده‌ی اصلی رسپی‌ها دقیقاً از همین‌جا می‌آید:این‌که بتوانیم یک نتیجه‌ی خوب را دوباره تکرار کنیم.اگر به تاریخ نگاه کنیم، می‌بینیم که نگاه بشر به خوراکی‌ها — چه غذا و چه نوشیدنی، و البته قهوه — همیشه یک نگاه علمی–تجربی بوده است.Ratio، دما، ارتفاع، اندازه‌ی آسیاب و ده‌ها متغیر دیگر؛امروز این‌ها را بدیهی و تحت کنترل می‌دانیم، اما زمانی بوده که هیچ‌کدام از این‌ها شناخته‌شده یا قابل‌کنترل نبوده‌اند.برای مدت‌ها، بسیاری از متغیرها «همان چیزی بودند که هستند».کسی فکر نمی‌کرد تغییر جزئی آن‌ها بتواند نتیجه را به‌شکل معناداری عوض کند.مثلاً تا اواخر دهه‌ی ۹۰ میلادی، تغییر دما در اسپرسو مسئله‌ی مهمی محسوب نمی‌شد.بالا یا پایین رفتن یکی دو درجه، چیزی نبود که جدی گرفته شود.اما با تجاری‌شدن سنسورها و ورود سیستم‌های PID از صنایع دیگر به حوزه‌ی غذا و نوشیدنی،این امکان ایجاد شد که دما هم به‌عنوان بخشی از رسپی دیده شود؛نه یک متغیر مبهم و خارج از کنترل.اینجاست که ابزارها نقش کلیدی پیدا می‌کنند.ابزارها به ما اجازه می‌دهند آزمایش کنیم، خطا کنیم، و یاد بگیریم.به‌خصوص در صنایعی مثل صنایع غذایی که معمولاً در لبه‌ی علم حرکت نمی‌کنند و بیشتر وام‌دارِ صنایع بحرانی‌تر هستند.ابزارها چگونه وارد دنیای قهوه شدند؟اگر به تاریخ ابزارهای قهوه نگاه کنیم، می‌توان آن‌ها را به چهار دسته‌ی اصلی تقسیم کرد:1. ابزارهای اقتباسی (Cross-domain Tools)این ابزارها از ابتدا برای قهوه ساخته نشده‌اند.آن‌ها از حوزه‌هایی مثل شیمی، آشپزی، آزمایشگاه و بار آمده‌اند؛ جایی که کنترل متغیرها حیاتی است.مثال‌ها:ترازوی دقیق (0.1g / 0.01g)دماسنج و پروب دماRefractometer (TDS)Blind Shakerاین ابزارها قهوه را «بهتر» نکردند؛قهوه را قابل اندازه‌گیری کردند.2. ابزارهای بومیِ علمی قهوه (Coffee-native Scientific Tools)این دسته مخصوص قهوه طراحی شده‌اند،اما بر پایه‌ی اصول علمی‌ای که از قبل وجود داشته‌اند.مثلاً اصل de-clumping یا توزیع یکنواخت ذرات، مختص قهوه نیست؛در صنایع پودری سال‌هاست شناخته شده است.مثال‌ها:WDT toolsDistribution toolsPrecision baskets (VST / IMS)Puck screenاین ابزارها علم را اختراع نکردند؛علم را قابل اجرا کردند.3. ابزارهای تکامل‌یافته (Evolutionary Tools)برخی ابزارها از ابتدا وجود داشته‌اند،اما به‌مرور برای کاهش وابستگی به مهارت فردی تکامل یافته‌اند.مثال کلاسیک: تمپرتمپر دستیتمپر calibratedتمپر فنریتمپرهای نیمه‌اتوماتیک و اتوماتیکدر این مسیر، تصمیم‌گیری به‌تدریج از دست انسان به طراحی ابزار منتقل شده است.4. ابزارهای تثبیت‌کننده‌ی تجربه (Consistency-first Tools)این ابزارها به‌دنبال بهترین طعم نیستند؛بلکه به‌دنبال قابل‌تکرارترین طعم هستند.مثال‌ها:دستگاه‌های espresso با profilingbrewerهای اتوماتیکflow control systemsموتورایزرهای آسیاب دستیهدف این ابزارها کاهش variance انسانی است.جمع‌بندی: ابزارها چه کاری انجام می‌دهند؟ابزارها:متغیرها را محدود می‌کنندتصمیم‌ها را پایدار می‌کنندو امکان یادگیری واقعی از هر دم‌آوری را فراهم می‌کننددم‌آوری قهوه زمانی علمی می‌شود که:نه فقط بدانیم چه کار می‌کنیم،بلکه بتوانیم دوباره همان کار را انجام دهیم.یک نگاه به آیندهآینده‌ی ابزارهای قهوه، احتمالاً:بیشتر درباره‌ی کنترلو بسیار بیشتر درباره‌ی تکرارپذیری خواهد بودجایی که طراحی، نه برای نمایش، بلکه برای فکر کردن انجام می‌شود.</description>
                <category>Hamed Extractly</category>
                <author>Hamed Extractly</author>
                <pubDate>Fri, 19 Dec 2025 14:11:38 +0330</pubDate>
            </item>
                    <item>
                <title>چرا باید هوش مصنوعی بدانیم؟</title>
                <link>https://virgool.io/@Extractly/why-we-need-to-learn-about-ai-tbwmbcbfmnsk</link>
                <description>دهه های 1980 و 1990 بود که رفته رفته استفاده از PC ابتدا بین شرکت های بزرگ و بعد بین شرکت های کوچک تر نهادینه شد. خیلی طول نکشید که استفاده از این ابزار نه به عنوان یک مزیت بلکه به یک ضرورت بین تمامی شرکت هایی که می خواستند سهمی از بازار داشته باشند جا گرفت؛ و همان طور که میدانید امروزه شاید کمتر شرکتی را بتوان پیدا کرد که از موهبت کامپیوتر استفاده نمی کند.حدودا چند سالی میشه که شرکت ها و غول های بزرگ تجاری و تکنولوژی دنیا متوجه شدن که اگه استفاده از همین کامپیوتر ها هوشمند بشن و به اصطلاحی خود این ابزارات بتونن خیلی از کارایی که برای انجام اون ها نیاز به استخدام و صرف انرژی و هزینه هست رو انجام بدن میشه کارا ها رو با سرعت و دقت بیشتری انجام داد پس روی اوردن به &quot; هوش مصنوعی &quot;. درسته؛ همون طور که حدس میزنین احتمالا طولی نمی کشه که داستان استفاده از کامپیوتر دوباره تکرار میشه و عملا شاید چند سال بعد شرکت و سازمانی رو نتونیم پیدا کنیم که از هوش مصنوعی و موهبت های اون استفاده نمی کنه. همین الان در کشور های توسعه یافته و خدمات شرکت های طراز اول دنیا میشه سرنخ های این تکنولوژی جدید رو پیدا کرد. استفاده از سرچ گوگل، شناسایی ایمیل های spam، دستیار های صوتی مثل siri و alexa، استفاده در تشخیص بپاتولوژی های تصویر برداری های پزشکی، اتوموبیل های خودران و ... نمونه هایی از استفاده های این ابزار در زندگی روز مره هستند.پس همون طوری که امروزه  اگر کسی از کامپیوتر و استفاده از اون آگاه نباشه تا حد زیادی بی سواد قلمداد میشه، یادگیری و آشنایی با هوش مصنوعی هم به زودی جزئی بزرگ از سواد هر فرد رو شکل خواهد داد. ولی سوالی که شکل میگیره اینه که آیا همه باید به اندازه یک مهندس و برنامه نویس هوش مصنوعی که تخصص این کار رو دارن این علم رو یاد بگیرن؟ جواب واضحا منفی هست. همون طوری که امروزه هم از کامپیوتر استفاده می کنن ولی عده کمی مهندس و برنامه نویس کامپیوتر داریم.علم هوش مصنوعی با این که بیشتر از چند دهه هست که شکل گرفته ولی با توجه به سرعت پیشرفت بسیار سریعش، روز به روز متفاوت تر از دیروز هست پس نمیشه دقیقا راجع به این نظر داد که دقیقا چه مواردی رو باید یاد گرفت ولی برای شروع کار بسیار توصیه می کنم دوره  &amp;quot; هوش مصنوعی برای همه &amp;quot; - AI for everyone  از شرکت deeplearning.ai با تدریس Andrew NG ( استاد دانشگاه استنفورد و یکی از موسسین Google Brain و متخصص هوش مصنوعی در Baidu چین ) رو شرکت کنین.</description>
                <category>Hamed Extractly</category>
                <author>Hamed Extractly</author>
                <pubDate>Wed, 27 Jul 2022 23:22:25 +0430</pubDate>
            </item>
                    <item>
                <title>لئو؛ دستیار هوشمند خبرخوان</title>
                <link>https://virgool.io/@Extractly/leo-news-assistant-npssddylovgs</link>
                <description>در طی سالیان اخیر و با توجه به گسترش شبکه های اجتماعی، یکی از مشکلات شایعی که کاربران با آن درگیرند هجمه اخبار گوناگونی است که روزانه به سمت مخاطبین می آیند.  ایده اولیه نرم افزار های خبرخوان در راستای مقابله با این مشکل شکل گرفته است. کاربران می توانند با استفاده از این نرم افزار ها، عناوین و گروه های خبری مورد علاقه  را انتخاب کنند تا فقط قسمت های مورد علاقه خود را مطالعه کنند. با گسترش فناوری ها و همچنین همه گیر شدن استفاده از شبکه های اجتماعی حجم اخباری که در هر کدام از این حیطه ها منتشر می شود هم روز به روز بیشتر شده است و رسیدگی به تمامی اخبار حیطه مورد علاقه ، به کاری بسیار دشوار تبدیل شده است.نرم افزار خبرخوان feedly جهت رفع این مشکل رباتی مبتنی بر هوش مصنوعی به نام &quot; لئو &quot; معرفی کرده است. این ربات بر اساس اطلاعات اولیه ای که هر شخص در اختیارش قرار می دهد و همچنین اطلاعاتی که به مرور از رفتار کاربر متوجه می شود، اخباری را که بیشتر از همه مورد توجه کاربران است را نمایش می دهد. به گفته feedly، جهت انجام این کار، لئو تمامی مقالات خبری را خوانده و اطلاعات به دست آمده از مقالات را با علاقیات کاربران مقایسه میکند.</description>
                <category>Hamed Extractly</category>
                <author>Hamed Extractly</author>
                <pubDate>Thu, 14 Apr 2022 16:09:56 +0430</pubDate>
            </item>
                    <item>
                <title>پیش بینی حوادث عروقی قلب  با  معاینه شبکیه چشم توسط هوش مصنوعی</title>
                <link>https://virgool.io/@Extractly/ai-predicts-mi-via-retinoscopy-tke5cppnajdw</link>
                <description>محققان دانشگاه Leeds انگلستان اخیرا مدل هوش مصنوعی بر پایه یادگیری عمیق گسترش داده اند که می تواند با استفاده از تصاویر به دست آمده از معاینه شبکیه چشم، احتمال حوادث عروقی قلب از جمله سکته قلبی را در 12 ماه آینده پیش بینی کند.این مدل یافته های حاص از پردازش تصاویر عروق معاینه شبکیه چشم را به همراه اطلاعات دموگرافیک دیگری از جمله سن، جنسیت، مصرف سیگار و الکل و ... پردازش کرده و احتمال رویداد سکته قلبی را در طی 12 ماه آینده با دقت 70 درصد پیش بینی می کند.حوادث عروقی سکته قلبی جز علل شایع مرگ و میر و ناتوانی در تمام دنیا می باشند که درصورت پیشبینی زودهنگام این حوادث و انجام تدابیر مناسب تا حد زیادی می توان بار ناشی از این بیماری ها را کاهش داد. معاینات شبکیه چشم نیر  معاینات بسیار ارزان قیمت و کاملا غیر تهاجمی وبی خطر می باشند و در صورت استفاده از روش فوق می توان در آینده انتظار داشت بسیاری از مشکلات عروقی قلب را قبل از وقوع مشکلات پیش بینی و از عواقب آنها جلوگیری کرد.</description>
                <category>Hamed Extractly</category>
                <author>Hamed Extractly</author>
                <pubDate>Sun, 30 Jan 2022 22:35:23 +0330</pubDate>
            </item>
                    <item>
                <title>جمع بندی مراحل یادگیری عمیق و مفهوم epoch</title>
                <link>https://virgool.io/@Extractly/recap-deep-learning-tpmculd4kdy5</link>
                <description>در مجموعه مقالات &quot; آموزش کلیات یادگیری عمیق به زبان ساده &quot; تا به اینجا  مراحل مختلف train  کردن شبکه های عصبی (شبکه های عصبی : مدل های یادگیری عمیق ) را با زبان ساده بررسی کردیم؛ در این مقاله قصد داریم از مراحل مختلف به یک جمع بندی دست پیدا کنیم و با توصیف یک epoch  از شبکه عصبی ببینیم هر کدام از این مراحل در کدام نقطه از یادگیری عمیق استفاده می شوند؟1)  در مرحله اول ما باید ساختار شبکه عصبی خود را مشخص کنیم. ساختار شبکه عصبی یعنی این که نقشه شبکه عصبی و در واقع نورون هایی که فعلا کار خاصی را یاد نگرفته اند را مشخص می کنیم. ساختار شبکه عصبی از تعدادی لایه از شبکه عصبی ( L  ) که در هر لایه ما تعداد مشخصی نورون داریم ( که به شمار این نورون ها NL گفته می شود. ) یکی از قسمت های مهم در شکل گیری ساختار اولیه شبکه عصبی، Weight Initialization  است؛ یعنی ما باید مقدار اولیه و در اکثر موارد random به پارامتر های شبکه عصبی خودمان نسبت دهیم. (W, b  )2) همان طور که در مقاله &quot; شبکه های عصبی چگونه می آموزند؟ &quot; مطالعه کردید، یادگیری و به اصطلاح، Train  کردن یک شبکه عصبی از دو مرحله انتشار جلوگرد و انتشار عقب گرد تشکییل شده است.3) در مرحله انتشار جلوگرد (Forward Propagation  )، داده هایی که از قبل آماده کرده ایم، از لایه ورودی ( input layer  )، وارد شبکه عصبی می شود، خروجی هر کدام از لایه های میانی، به عنوان ورودی به لایه بعدی وارد می شود تا در نهایت خروجی شبکه عصبی شکل بگیرد. به عنوان مثال خروجی لایه اول وارد لایه دوم و خروجی لایه 2 به عنوان ورودی وارد لایه 3 می شود و به همین ترتیب خروجی لایه i وارد لایه i+1  میشود تا در نهایت خروجی شبکه شکل بگیرد. به این مرحله، Forward Propagation از شبکه های عصبی گفته می شود.4) بعد از این که تمامی داده هایی که در دسترس داریم، وارد شبکه عمیق شد در این جای کار ما باید برای این که شبکه عصبی و پارامتر های آن را در جهت بهبود در پیش بینی ها آموزش دهیم، با استفاده از مقایسه مقدار پیش بینی حاصل از شبکه عصبی با داده های واقعی، تابع ضرر یا Loss Function  را تعریف می کنیم.5) مرحله بعد Back propagation یا انتشار عقب گرد می باشد. حال وقت آن رسیده که پارامتر های شبکه عصبی خود را با استفاده تابع Loss ،در جهت پیش بینی های بهتر به روز کنیم. این به روز رسانی داده ها در روش Gradient Descent با استفاده از معادلات زیر قابل انجام است:w’ = w – learning_rate * ( dLoss / dw )b’ = b – learning_rate * ( dLoss / db )بعد از انجام تمامی مراحل فوق ما شبکه عصبی خود را با استفاده از داده ها یک epoch ، آموزش داده ایم.در تصویر زیر می توانیم تمام مراحل فوق را به صورت شماتیک در یک epoch، مشاهده کنید:</description>
                <category>Hamed Extractly</category>
                <author>Hamed Extractly</author>
                <pubDate>Wed, 26 Jan 2022 23:33:12 +0330</pubDate>
            </item>
                    <item>
                <title>هوش مصنوعی در McDonald&#039;s</title>
                <link>https://virgool.io/@Extractly/mcdonalds-nqlv3ookc5hs</link>
                <description>شرکت McDonald&#x27;s بزرگترین رستوران زنجیره ای دنیا است که در سال 1940 توسط برادران مک دونالد شروع به کار کرد. در گزارشات منتشر شده در سال 2012، این شرکت با داشتن 1.5 میلیون کارمند، بعد از فروشگاه های زنجیره ای والمارت دومین کارفرمای خصوصی بزرگ جهان است.تعداد شعبه های  McDonald&#x27;s در 119 کشور دنیا به عدد 37800 شعبه می رسد و برآورد می شود که این شرکت، روزانه به بیش از 60 میلیون نفر خدمات تغذیه ای ارائه می کند.در سال های اخیر، مک دونالد به این نتیجه رسیده است که حفظ کیفیت خدمات به مشتری ها و حفظ مشتری های پیشین و جذب مشتریان جدید نیاز به راهکار هایی دارد که شاید از عهده انسان خارج است؛ به این منظور هوش مصنوعی و روش های آماری در چند بعد به کار برده است:• حفظ و بهبود لجستیک• ارتباط با مشتریان• تطابق با ذائقه ملل مختلفشاید در مراجعه به رستوران های محبوبتان، بار ها به این مشکل برخورده اید که کیفیت غذا به علت fresh نبودن مواد غذایی نسبت به مراجعات قبلی به صورت قابل مقایسه ای پایین تر است؛ یا این که در مواردی بر اثر حجم بالای سفارشات، غذای مورد علاقه تان در زمان خاصی سرو نمی شود. مک دونالد برای رفع هر کدام از مشکلات فوق، با استفاده از هوش مصنوعی راهکار هایی پیدا کرده است. این شرکت  با تهیه به موقع و به اندازه مواد اولیه از اتمام پیش از موقع سفارشات محبوب و همچنین اضافه ماندن مواد غذایی که باعث افت کیفیت محصولات و تحمیل هزینه های بیشتر به شرکت و شعبه می شود، جلوگیری می کند.در زمینه ارتباط با مشتریان، کیوسک هایی طراحی شده است که منو رستوران را از حالت ایستایی کلاسیک خارج کرده است و بر اساس زمان های مختلف روز و مناسبت های متفاوت و موجودی محصولات، منو رستوران تغییر می کند. افرادی که از اپلیکیشن هوشمند این شرکت استفاده می کنند، شانس این را دارند که مک دونالد با شناخت هر چه بیشتر از مشتری، منو رستوران را کاملا بر اساس میل و سلیقه شخصی بچیند و حتی تخفیف هایی مخصوص خودتان در هنگام سفارش غذا ارائه کند.کیوسک های هوشمند McDonald&#039;sطبق گزارشات بیرون آمده از مک دونالد، این شرکت با استفاده از اطلاعات و داده های فروش در شعبه های مختلف دنیا، به صورت پیوسته در حال تغییر در محصولات غذایی و تطابق با ذائقه مردم هر منطقه است.</description>
                <category>Hamed Extractly</category>
                <author>Hamed Extractly</author>
                <pubDate>Tue, 18 Jan 2022 20:46:15 +0330</pubDate>
            </item>
                    <item>
                <title>سمفونی دهم بتهوون توسط هوش مصنوعی تکمیل شد</title>
                <link>https://virgool.io/@Extractly/ai-and-10th-beethoven-symphony-dci2t6dhycdk</link>
                <description>در سال 1817، انجمن سلطنتی فیلارمونیک لندن، بتهوون را مامور ساخت سمفونی های نهم و دهم خود کرد. بتهون با موفقیت توانست سمفونی نهم را به اتمام برساند ولی بعد از شروع کار سمفونی دهم به سختی بیمار شد؛ بتهوون فقط موفق به نوشتن قسمتی از نت های این سمفونی شد تا این که بر اثر بیماری درگذشت. در طی سالیان تلاش هایی برای اتمام این سمفونی توسط موسیقیدانان مختلف از جمله Barry Cooper انجام شد ولی هیچ کدام از آن ها به نتیجه نهایی نرسید.آخرین یادداشت های بتهوون برای سمفونی دهمدر اوایل سال 2019 انستیتو karajan تصمیم گرفت کار نیمه تمام بتهوون را به اتمام برساند. اما نکته جدیدی که در مقایسه با تلاش های قبلی به چشم میخورد، به کار بردن هوش مصنوعی برای انجام این کار است. در همین راستا استارت آپ playform از طرف karajan مامور به انجام این کار شد. پس از تکمیل تیمی از چند موزیسین، موزیکدان محاسباتی و محققان هوش مصنوعی، نسخه اولیه از نت های نوشته شده توسط هوش مصنوعی در یک مراسم خصوصی اجرا شد. در این مراسم  چندین تن از موزیک دانان، خبرنگاران و بتهوون شناسان حاضر بودند ولی هیچ کدام از افراد، نتوانستند نت های نوشته شده توسط بتهوون را از بقیه نت ها تمایز دهند.در جریان این کار تمامی نت های سمفونی های 1 تا 9 بتهوون به مدل هوش مصنوعی feed شدند تا مدل بتواند به اندازه کافی با تفکر موسیقایی بتهوون برای اتمام آخرین سمفونی آشنا شود.در نهایت این سمفونی در 9 اکتبر سال 2021 در شهر بن آلمان به مدت 21 دقیقه اجرا شد.لینک اجرای کامل سمفونی شماره ده بتهوون</description>
                <category>Hamed Extractly</category>
                <author>Hamed Extractly</author>
                <pubDate>Sun, 16 Jan 2022 21:16:30 +0330</pubDate>
            </item>
                    <item>
                <title>هوش مصنوعی وقوع پاندمی COVID19 را 9 روز زودتر از WHO پیش بینی کرد</title>
                <link>https://virgool.io/@Extractly/ai-predicted-covid19-pandemi-pyod2mpc1jeh</link>
                <description>در تاریخ 9 ژانویه سال 2020 (WHO (World Health Organization اولین هشدار ها را در خصوص احتمال آغاز همه گیریِ نوعی pneumonia (  التهاب حاد ریه ) از استان های Wuhan  و Hobei چین اعلام کرد.اولین گزارش ها نشان دهنده این بود که این نوع پنومونی ناشی از نوعی ویروس از خانواده کرونا ویروس ها است که عامل بیماری های حاد دیگرِ دستگاه تنفسی، نظیر SARS و MERS  می باشند.این در حالی است که کمپانی Blue Dot حوالی 30 دسامبر سال 2019، یعنی 9 روز قبل از اعلام WHO و CDC با استفاده از سیستمی مبتنی بر یادگیری ماشین و هوش مصنوعی، وقوع عن قریب همه گیری بیماری فوق را پیش بینی کرده بود. کمپانی Blue Dot  یک شرکت کانادایی است که به صورت Real-Time  حدود 200 بیماری عفونی را رصد می کند و تغییراتِ سرایت و احتمال همه گیری این قبیل بیماری ها را زیر نظر دارد. این سازمان با استفاده از تکنیک های ( NLP ( Natural Language Processing روزانه بیش از 100،000  مقاله خبری تایید شده را به 65 زبان زنده دنیا رصد کرده و با استفاده از این اطلاعات در کنار نقشه خطوط و پرواز های بین المللی احتمال آغاز و نحوه گسترش اپیدمی را پیشبینی می کند (اعلام اولیه این کمپانی در خصوص مسیر انتقال سارس کووید 19 &quot; از ووهان به بانکوک و تایپه و سئول و توکیو &quot; بود که تا حد زیادی نیز در مورد نقشه گسترش بیماری، چنین شد.)علاوه بر این پیشبینی، این کمپانی مدل های موفق مکرر دیگری نیز از این دست پیشبینی ها داشته از جمله پیشبینی محل آغاز اپیدمی Zika virus  در سال 2016 میلادی در جنوب ایالت فلوریدا.( مقاله چاپ شده مربوط به این مدل را می توانید در ژورنال Lancet مطالعه کنید.)مدل سازی های دیگری نیز با استفاده از ابزار های هوش مصنوعی در زمینه پاندمی بیماری SARS COVID-19 صورت گرفته که از جمله آنها مدلی است که توسط دانشمندان چینی با استفاده از اطلاعات جمع آوری شده از 11 ژانویه تا 27 فوریه سال2020 و اطلاعات اپیدمی های مشابه قبلی از جمله ویروس SARS 1 وMERSانجام شده، نشان میدهد که اپیدمی به احتمال زیاد تا اواسط ماه آوریل سال2020  به مقدار زیادی فروکش خواهد کرد.مدل های بسیاری زیاد دیگری در رابطه با این بیماری در دانشگاه ها و مراکز مختلف دنیا و ایران در رابطه با ا پییدمی، تشخیص، ساخت دارو و... انجام شده و تا به حال نیز در حال انجام است ولی همانطور که توجه نمودید نکته اصلی تشخیص به موقع احتمال وقوع همه گیری، درمان ، گرفتن تصمیمات درست برای کنترل اپیدمی( برای مثال استفاده از Decision Tree ) و... است که احتمال تکرار خطا ها را در همه گیری های چنینی آینده به شدت کاهش خواهد داد.</description>
                <category>Hamed Extractly</category>
                <author>Hamed Extractly</author>
                <pubDate>Sun, 09 Jan 2022 16:59:59 +0330</pubDate>
            </item>
                    <item>
                <title>گرادیان کاهشی یا Gradient Descent</title>
                <link>https://virgool.io/@Extractly/gradient-descent-wg04emtkeqmf</link>
                <description>اگر نمودار تابع loss فرضی در مقاله  &quot;تابع ضرر&quot;  را به یاد داشته باشید ( شکل زیر ) این تابع دارای نقطه یا نقاطی است که مقدار تابع در آن ها minimum کُلی ( Global ) یا minimum نسبی ( Local ) است.در نمودار دو بعدی از این توابع، تابع دارای دو محور است که محور y مقدار تابع ضرر و مقدار x، متغیرهای تشکیل دهنده تابع هستند که همان &#x27;پارامتر های شبکه عصبی&#x27; (wوb) می باشند. اگه با دقت بیشتری به نمودار توجه کنیم، در x های بیشتر از نقطه minimum، علامت شیب نمودار یا مشتق تابع مثبت است و در مقدار x های کمتر، این مقدار منفی می باشد. با در نظر داشتن همین نکته و این که ما با تغییر پارامتر های شبکه عصبی می توانیم به نقطه minimum در تابع ضرر دست پیدا کنیم، از روشی به اسم گرادیان کاهشی یا Gradient Descent استفاده می کنیم.گرادیان کاهشی سعی می کند ما را از نقطه A به نقطه B برسانددر شکل زیر نقطه ی سبز که حداقل مقدار تابع ضرر در آن وجود دارد، weight = 3 است؛ در نقطه قرمز که   initial weight=5  است، مقدار تابع بزرگتر از نقطه حداقلیِ سبز است.( مقدار تابع ضرر یا به عبارتی تابع ضرر بیشتر است.) اگر مقدار مشتق تابع در  initial weight ( به فرض 1) را از خود initial weight کم کنیم، حاصل   {4 = 1 - 5}  است. همان طور که میبینید، وزن جدید شبکه ما ( 4 ) به عدد 3 که در آن اپتیموم عملکرد شبکه عصبی است نزدیک شده است.در مثال دیگری، نقطه آبی که initial weight در آن 1 است ولی  شیب خط در این نقطه منفی است؛( با مقدار فرضی 1- ) اگر مقدار initial weight را از شیب خط کم کنیم حاصل :new weight = initial weight - d loss/dwnew weight = 1 - (-1 ) = 2همان طور که میبینید، مقدار loss در نقطه 2  از مقدار نقطه 1 کمتر شده است پس پارامتر های شبکه عصبی یک گام در جهت بهبود عملکرد شبکه عصبی پیش رفته اند.سوالی که مطرح می شود این است که آیا برای انجام فرایند گرادیان کاهشی، تنها کاری که باید انجام دهیم این تفریق است؟ در واقع برای بهبود سرعت این فرایند بهتر است از ضریبی به اسم learning rate یا نرخ یادگیری استفاده کنیم.همان طور که از نام این ضریب مشخص است، learning rate ضریبی برای کنترل سرعت یادگیری است؛ یعنی می توان با نسبت دادن مقادیر مختلف به آن، سرعت یادگیری شبکه عصبی را تغییر داد.برای استفاده از این ضریب در فرایند Gradient Descent از فرمول زیر که فرمول اصلی گرادیان کاهشی است استفاده می کنیم:w&#x27; = w - alpha * d loss/dwalpha = learning rateمقادیر متفاوتی به learning rate در شبکه های مختلف نسبت داده می شود و یکی از چالش های یادگیری عمیق، adjust مقدار نرخ یادگیری است.به صورت خلاصه، فرایند گرادیان کاهشی یکی از روش های انجام مرحله back propagation در شبکه های عصبی است؛ در این روش، مشتق تابع ضرر از مقدار وزن شبکه کم می شود تا ایده آل ترین وزن های شبکه عصبی که در آن کمترین مقدار تابع ضرر را داریم، به دست بیاوریم.</description>
                <category>Hamed Extractly</category>
                <author>Hamed Extractly</author>
                <pubDate>Thu, 06 Jan 2022 22:00:42 +0330</pubDate>
            </item>
                    <item>
                <title>تابع ضرر ( loss function ) در شبکه های عصبی</title>
                <link>https://virgool.io/@Extractly/loss-function-et81dxtlzvcw</link>
                <description>به یاد داریم در قسمت &quot; انتشار عقبگرد &quot; در مورد این صحبت شد که در مرحله back propagation, پارامتر های شبکه عصبی بر اساس مشتق تابع ضرر نسبت به هرکدام از پارامتر ها تغییر میکنند؛ برای توضیح بیشتر راجع به این جمله، مفهوم مشتق را با مثالی یادآوری میکنیم.مفهوم مشتقدر عبارت f = 2w + 3b، تابع f از دو متغیر w ,b   تشکیل شده است. در تابع فوق همانطور که از ریاضیات دبیرستان در خاطر دارید، تغییرات تابع f نسبت به b ، عدد 3 و نسبت به w مقدار 2 است؛ یعنی با هر واحد تغییر در b ما ۳ واحد تغییر در f داریم و با هر واحد تغییر در w ، دو واحد تغییر را در f داریم. ( مثلا با 2 واحد تغییر در w ، مقدار f  به اندازه  2×2 واحد تغییر میکند.)حال متوجه میشویم اگر به عنوان مثل معادله تابع ضرر یک شبکه عصبی، همان تابع f باشد و پارامتر ها w و b باشند ( وزن های نورون های شبکه عصبی )، تغییرات w و b در هر epoch از شبکه عصبی بر اساس مقدار مشتق تابع بر اساس همان پارامتر است.( به یک مرحله خوانش و یادگیری از روی دیتا ها یک epoch گفته می شود. )اگر مفهوم تغییر به اندازه مشتق تابع به صورت کامل جا نیفتاده است، راجع به آن در قسمت گرادیان کاهشی صحبت خواهد شد.حال به مفهوم خود تابع ضرر بپردازیم:به تابعی که خروجی شبکه عصبی ( output ) را با داده های واقعی مقایسه می کند، تابع ضرر یا loss function گفته می شود. همانطور که از اسم تابع به نظر میرسد، این تابع، مقدار تضرر و خطای شبکه عصبی را به صورت ریاضی در مقایسه بین خروجی شبکه و داده های واقعی نشان می دهند.یک مثال بسیار ساده از تابع ضرربه عنوان مثال اگر با استفاده از داده ای که به شبکه عصبی feed میکنیم، خروجی 5 حاصل شود و مقدار واقعی داده 15 باشد با تابع ضرر فرضی                                                                     Loss func = ( y - ý )2y = مقدار واقعی دادهý = خروجی شبکه عصبیدر مثال فوق مقدار تابع loss برابر است با 100.تمام هدف ما از فرایندها  مراحل یادگیری عمیق به این ختم می شود که مقدار تابع loss به سمت صفر حرکت کند. برای همین تابع ضرر را اصولا به نحوی انتخاب می کنیم که دارای نقطه یا نقاطی از minimum باشد و با تغییر در پارامتر ها،  تابع را به آن سمت هدایت کنیم.اگر ما روند یادگیری عمیق را به درستی طی کنیم، بعد از چند epoch یادگیری شبکه، اصولا می توان خروجی مانند مقدار فوق را انتظار داشت؛ در جدول فوق، مقدار loss برابر است با 9. با توجه به این که مقدار تابع کمتر می شود، پس شبکه به درستی train شده است.در کلام خلاصه، ما در روند یادگیری عمیق، وقتی شبکه عصبی را train میکنیم، نیاز به عبارتی جبری داریم که بتواند تاثیر پارامتر های مختلف شبکه عصبی را بر خروجی شبکه بسنجد و در عین حال خروجی پیشبینی شده (ý) و مقدار اصلی داده (y) را مقایسه کند ؛همچنین این تابع معیاری برای تغییرات پارامتر ها یا وزن های شبکه عصبی در جهت افزایش دقت خروجی شبکه عصبی است.نمودار یک تابع ضرر</description>
                <category>Hamed Extractly</category>
                <author>Hamed Extractly</author>
                <pubDate>Sat, 01 Jan 2022 23:23:52 +0330</pubDate>
            </item>
                    <item>
                <title>شبکه های عصبی چگونه یاد میگیرند؟ -Back Propagation-</title>
                <link>https://virgool.io/@Extractly/back-propagation-ige7v5ihjubq</link>
                <description>از مقاله Forward Propagation به یاد داریم که در طی این مرحله، داده ها وارد هر لایه از شبکه نورونی می شوند و با انجام معادلات ریاضی با استفاده از وزن های W , B ، خروجی وارد لایه بعدی می شود. بسته به نوع کار یادگیری عمیق ما، روش های مختلفی برای شروع مقادیر اولیه w,b می توان در نظر گرفت؛ ولی یکی از پرکاربرد ترین روش ها در نظر گرفتن این پارامتر ها به صورت کاملا random و حول یک عدد ثابت با توزیع متناسب هستند. ( به طرزی که std =0 باشد.)Back propagationنکته مهمی که در train کردن شبکه های عصبی باید مد نظر قرار گیرد این است که یادگیری شبکه های عمیق، در واقع اصلاح به مرور w, b  ها است در جهتی که خروجی دلخواه شبکه حاصل شود؛ به این فرایند به مرور اصلاح پارامترهای شبکه عصبی، back propagation می گویند.متود های مختلف و متفاوتی برای back propagation وجود دارد؛ یکی از محبوب ترین روش ها gradient descent یا گرادیان کاهشی است که از مشتق تابع ضرر نسبت به پارامتر ها استفاده می کند.(تابع ضرر و گرادیان کاهشی به طور مفصل در مقاله ای جداگانه شرح داده خواهد شد).Backpropبه هر بار انجام فرایند forward propagation و back propagation یک Epcoh گفته میشود. به بیان دیگر اگر همه داده هایمان را یک بار وارد شبکه عصبی کنیم و در طی دو مرحله جلو گرد و عقب گرد ، شبکه عصبی مواردی را از داده ها بیاموزد، یک epoch شبکه عصبی را train کرده ایم.</description>
                <category>Hamed Extractly</category>
                <author>Hamed Extractly</author>
                <pubDate>Sun, 26 Dec 2021 22:18:01 +0330</pubDate>
            </item>
                    <item>
                <title>شبکه های عصبی چگونه یاد میگیرند ( Forward Propagation )</title>
                <link>https://virgool.io/@Extractly/%D9%91forward-propagation-opv1prtfl89t</link>
                <description>همانطور که در پست &quot;چگونه شبکه های عصبی می آموزند&quot; خواندیم، شبکه های عصبی در طی دو مرحله Forward propagation و back propagation از روی داده موارد لازم را می آموزند. در این پست قصد داریم به بررسی مرحله  forward propagation بپردازیم.توصیه می شود قبل از خواندن این پست، مقاله  &quot;چگونه شبکه های عصبی می آموزند&quot; را مطالعه فرمایید.Forward Propagationداده ها و ساختار شبکه های عصبی یا یادگیری ماشین در کنار ساختار مدل، دو معیار تعیین کننده در روند مدل سازی و تربیت مدل ها هستند. این داده های در فرایندی به نام forward propagation به داخل مدل انتشار ( feeding ) داده می شوند.از مقاله &quot;شبکه های عصبی&quot; به یاد داریم کاری که هر نورون در شبکه عصبی انجام می دهد معادله Wx + b است. در این مدل متغیر x همان داده ها یا دیتا هایی است که از لایه قبلی  وارد نورون می شوند. ( در لایه اول مقدار x همان داده های خام هستند، ولی در لایه های بعدی خروجی هر لایه به عنوان ورودی لایه بعدی است؛ به خروجی لایه اول و لایه های میانی که به عنوان ورودی وارد لایه بعدی می شود a هم گفته می شود.)به این ترتیب خروجی هر لایه به عنوان ورودی به لایه بعد وارد میشود تا در نهایت مقدار نهایی و خروجی شبکه عصبی شکل بگیرد .نکته ای که وجود دارد این است که در اکثر کار های یادگیری عمیق، مقدار x به صورت ماتریس ها هستند تا از قابلیت ضرب ماتریسی استفاده شود. ( ساختار ریاضی شبکه های عصبی به زودی شرح داده خواهد شد.)داده های اولیه و خروجی های میانی در شبکه های عصبیدر کلام خلاصه، داده های خام وارد نورون های لایه اول شبکه عصبی می شوند و خروجی نورون های هر لایه، به عنوان ورودی وارد نورون های لایه های میانی می شوند تا در نهایت، لایه انتهایی خروجی نهایی شبکه ( output ) را شکل دهد.</description>
                <category>Hamed Extractly</category>
                <author>Hamed Extractly</author>
                <pubDate>Sun, 19 Dec 2021 00:06:17 +0330</pubDate>
            </item>
                    <item>
                <title>شبکه های عصبی چگونه می آموزند؟</title>
                <link>https://virgool.io/@Extractly/how-neural-networks-learn-ywautzo5cqkf</link>
                <description>همانطور که میدانید استفاده از یادگیری عمیق و شبکه های عصبی تحولی عظیم در علم هوش مصنوعی و کاربرد های آن داشته است. به صورتی که امروزه بسیاری از وظایف پیچیده و حیاتی انسان ها را می توان به شبکه های عصبی و یادگیری عمیق سپرد. ( برای خواندن بیشتر در رابطه با شبکه های عصبی کلیک کنید.) وظایفی از جمله تشخیص بیماری ها و موارد پاتولوژیک از روی تصاویر رادیولوژیک، خودرو های خودران و رانندگی، ربات های مکالمه گر -چت بات- ها و… .Feed Forward in Neural Netsاما سوالی که ذهن را درگیر می کند این است که، این شبکه های عصبی چگونه برای انجام این وظایف تربیت می شوند؟ جواب این سوال تا حد بسیار زیادی با نحوه یادگیری تطابق دارد؛ یک کودک تازه متولد شده به مرور و طی سالیان از طریق حواس مختلف (ورودی های داده ذهن) می شنود، می بیند، لمس می کند و به صورت کلی داده ها مختلف را وارد ذهن خود کرده و پردازش می کند تا بیاموزد. شبکه های عصبی هم با استفاده از داده های مختلف سعی بر یادگیری روند ها و نتیجه گیری از این داده ها می کنند.Train a NNشبکه های عمیق این فرایند را به وسیله 2 مرحله  انجام میدهند:1 - &quot; انتشار جلو گرد&quot; (Forward Propagation ) 2 - &quot; انتشار عقبگرد &quot; (Backward Propagation )(در دو پست جداگانه به هر کدام از این مراحل اشاره خواهد شد.)Forward Prop and Back Propچیزی که بیشتر از همه در یادگیری شبکه های عمیق و به صورت کلی یادگیری ماشین اهمیت دارد، داده (Data) است.دیتا مانند سوختی برای موتور یادگیری ماشین است؛ بدون دیتا حتی اگر پیچیده ترین و بی نقص ترین شبکه ها و architecture های عصبی ( شبکه های عصبی آموزش داده نشده ) را هم داشته باشیم، نتیجه ای حاصل نمی شود. مانند این است که پیشرفته ترین اتومبیل ها را داشته باشیم ولی چون سوختی نداریم، نمی توان از این اتومبیل استفاده کرد.به صورت خلاصه، داده ها طی دو مرحله forward propagation و backward propagation به شبکه عصبی وارد می شوند (feed شدن) و شبکه عصبی اطلاعات لازم را می آموزد.</description>
                <category>Hamed Extractly</category>
                <author>Hamed Extractly</author>
                <pubDate>Fri, 17 Dec 2021 22:28:22 +0330</pubDate>
            </item>
                    <item>
                <title>تفاوت هوش مصنوعی- یادگیری ماشین - یادگیری عمیق</title>
                <link>https://virgool.io/@Extractly/ai-scopes-ojwezikqtftf</link>
                <description>اگر اخبار دنیای تکنولوژی را دنبال می کنید، به احتمال زیاد با واژه های هوش مصنوعی ، یادگیری ماشین، یادگیری عمیق روبرو شده اید. شاید موقع خواندن اخبار و مقالات مرتبط با این حیطه ها این سوال برایتان پیش آمده است که این حیطه ها چه تفاوتی با هم دارند؟تفاوت حیطه های هوش مصنوعی، یادگیری ماشین و یادگیری عمیقبه صورت کلی به هر سیستم غیر بیولوژیک که با استفاده از درجاتی از هوشمندی می تواند با توجه به شرایط، از بین چند گزینه ( تصمیم، عملکرد، شناسایی و...  ) رفتاری شبیه به رفتار انسان را انجام دهد، سیستم هوش مصنوعی می گویند؛ این سیستم می تواند از یک if وelse ساده که با توجه به موقعیت، عملکرد های مختلفی انجام میدهد، تا &#x27;مدل های آماری پیچیده و سیستم های یادگیری ماشین و عمیق&#x27; متفاوت باشد.پس هوش مصنوعی (AI : Artificial Intelligence) یک حیطه کلی تر، شامل تمامی سیستم هایی است که با درجاتی از هوشمندی می توانند رفتاری شبیه به رفتار انسان را تقلید کنند. یادگیری ماشین ( ML: Machine Learning )،  یکی از قلمرو های درونی حیطه هوش مصنوعی است.هدف از توسعه سیستم های یادگیری ماشین، طراحی مدل هایی ( QuAM : Question Answering Machine ) است که بدون نوشتن کد های متفاوت برای شرایط مختلف و فقط با استفاده از داده های قبلی بتواند پیش بینی هایی برای داده های آینده انجام دهد. به بیان آسان تر، این مدل ها با یادگیری از داده هایی که رفتار هوشمند انسان را نشان می دهند(feeding ) می توانند رفتار هوشمندانه انسان را تقلید کنند.یادگیری عمیق (Deep Learning ) شاخه از یادگیری ماشین است که یادگیری آن با استفاده از شبکه های نورونی مصنوعی مشابه با شبکه عصبی انسان انجام داده میشود. با استفاده از شبکه های عمیق می توان، وظایف پیچیده تری را به سیستم های هوشمند سپرد؛ مانند بینایی ماشین، پردازش گفتار طبیعی .پس به صورت کلی، هوش مصنوعی حیطه گسترده ای است که یادگیری ماشین، یکی از شاخه آن می باشد و یادگیری عمیق هم شاخه ای از حیطه یادگیری ماشین است.حیطه های هوش مصنوعی، یادگیری ماشین، یادگیری عمیق</description>
                <category>Hamed Extractly</category>
                <author>Hamed Extractly</author>
                <pubDate>Thu, 16 Dec 2021 12:08:11 +0330</pubDate>
            </item>
                    <item>
                <title>شبکه عصبی مصنوعی ( Artificial Neural Network - ANN ) چیست؟</title>
                <link>https://virgool.io/@Extractly/artificial-neural-network-c7iv5kxbd3sg</link>
                <description>به احتمال زیاد با شنیدن عبارت شبکه های عصبی به یاد دستگاه عصبی انسان از جمله مغز و نخاع و شبکه های عصبی محیطی می افتید. دستگاه اعصاب انسان، وظایف متعدد و مهمی از جمله ادراک، احساس، حافظه دریافت و تفسیر پیام گیرنده های محیطی مانند دما و درد و صدور دستورات حرکتی و … دارد. واحد های تشکیل دهنده سیستم عصبی انسان مثل هر ارگان و دستگاه دیگری سلول ها هستند که نام این سلول ها در سیستم عصبی، نورون ( neuron ) است. محققان هوش مصنوعی  با اقتباس از دستگاه عصبی انسان، شبکه هایی مصنوعی  طراحی کرده اند که با انجام محاسبات ریاضی، کار دستگاه عصبی انسان را تقلید می کنندیک نورون بیولوژیک بافت شناسان تاکنون انواع مختلفی از نورون ها را کشف کرده اند که هر کدام بر اساس وظیفه تکاملی خود، وظایف مخصوص به خود را دارد. وجه اشتراک واحد ها نورونی که در شبکه های عصبی قرار گرفته اند این است که پس از دریافت اطلاعات توسط یک نورون و انجام پردازش های خاصی روی آن، ایمپالس و پیام الکتریکی را به نورون بعدی در شبکه عصبی تحویل می دهند. مشابه همین اتفاق در شبکه های نورونی مصنوعی رخ میدهد؛ هر واحد داده ها را از نورون قبلی تحویل گرفته با انجام فرایند ریاضی روی داده، حاصل را به نورون بعدی تحویل می دهد تا در نهایت خروجی شبکه شکل گیرد.فرایند ریاضی صورت گرفته در هر نورون ، عبارت wX + b است که:X ورودی نورون از لایه قبلی( شبکه های عصبی ساختار لایه ای دارند که هر لایه وظایف خاصی بر عهده میگیرد. )w پارامتر هر نورون است که همان ضریب شبکه است.b پارامتر خطا یا مقدار bias نورون است.یک واحد نورونی مصنوعی نکته مهمی که در زمینه درک عملکرد شبکه های نورونی وجود دارد، ساختار لایه ای این شبکه ها است، بر اساس تعداد لایه ها، شبکه های نورونی به دو نوع shallow( کم عمق ) که تعداد لایه های کمی دارد و Deep ( عمیق ) که تعداد این لایه ها و نورون ها بیشتر است. بدیهی است که شبکه های عمق تر، در پردازش فرایندهای پیچیده تری کاربرد دارند.شبکه  عصبی مصنوعی  پس به صورت خلاصه، شبکه های عصبی مصنوعی شبکه هایی هستند الهام گرفته از شبکه های عصبی بیولوژیک که از واحد های به هم متصل نورون های مصنوعی شکل گرفته اند و عموما در جهت انجام وظایف پیچیده به کار برده می شوند.</description>
                <category>Hamed Extractly</category>
                <author>Hamed Extractly</author>
                <pubDate>Mon, 13 Dec 2021 20:45:57 +0330</pubDate>
            </item>
            </channel>
</rss>