<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
    <channel>
        <title>نوشته های آرتین دانشور</title>
        <link>https://virgool.io/feed/@m_76635758</link>
        <description>پژوهشگر</description>
        <language>fa</language>
        <pubDate>2026-04-15 07:02:17</pubDate>
        <image>
            <url>https://static.virgool.io/images/default-avatar.jpg</url>
            <title>آرتین دانشور</title>
            <link>https://virgool.io/@m_76635758</link>
        </image>

                    <item>
                <title>تاریخچه ریاضیاتی الگوریتم پس انتشار خطا</title>
                <link>https://virgool.io/@m_76635758/history-of-backprop-ximqjdyzkt3q</link>
                <description>اگر کمی با شبکه‌های عصبی و یادگیری ماشین آشنا باشید، احتمالاً با الگوریتم &quot;پس‌انتشار خطا&quot; مواجه شده‌اید، الگوریتمی که پایه و اساس آموزش بیشتر شبکه‌های چندلایه و یادگیری مبتنی بر گرادیان است. در این نوشته قصد دارم نگاهی جامع و تاریخی به این الگوریتم داشته باشم و مسیر شکل‌گیری آن از ریشه‌های ریاضیاتی در حساب دیفرانسیل و بهینه‌سازی تا کاربرد مدرن آن در شبکه‌های عصبی را بررسی کنم.در این متن سعی کردم تا حد امکان از واژگان فارسی استفاده کنم. در انتهای متن، معادل انگلیسی واژگان به کار رفته قرار گرفته است.توجه: نسخه صوتی این نوشته توسط سرویس آواشو (هوش مصنوعی تبدیل متن به گفتار) ایجاد شده است و دچار اشتباهاتی در تلفظ کلمات است.1. ایدهٔ پایه‌ای الگوریتم پس‌انتشار خطاالگوریتم پس‌انتشار خطا در ساده‌ترین بیان، روشی است برای نسبت‌دادن &quot;اشتباه نهایی&quot; یک محاسبه به اجزای سازندهٔ آن.وقتی یک سیستم چندمرحله‌ای داریم که از ورودی به خروجی می‌رسد و در انتها با یک مقدار خطا مواجه می‌شویم، مسئله این است که بفهمیم هر پارامتر در طول مسیر چه سهمی در این خطا داشته است. پس‌انتشار خطا دقیقاً همین سهم‌بندی را به‌شکل ریاضیاتی انجام می‌دهد.ایدهٔ اصلی این است که ابتدا خروجی سیستم با مقدار مطلوب مقایسه می‌شود و مقدار اشتباه سیستم(خطا) با استفاده از یک تابع خطا تعیین می‌گردد. سپس به‌جای این‌که هر پارامتر را جداگانه و با روش‌های پرهزینه تغییر دهیم، مشتق این خطا نسبت به پارامترها محاسبه می‌شود. این مشتق‌ها با استفاده از قاعدهٔ زنجیره‌ای، از انتهای محاسبه به ابتدای آن منتقل می‌شوند. به این ترتیب، با یک عبور رو به جلو برای محاسبهٔ خروجی و یک عبور معکوس برای محاسبهٔ مشتق‌ها، گرادیان کل سیستم به‌دست می‌آید.از این گرادیان‌ها برای به‌روزرسانی پارامترها استفاده می‌شود، معمولاً در قالب روش‌های نزول گرادیان سعی می کنیم به روزرسانی پارامتر ها را انجام دهیم. هر پارامتر به اندازه‌ای تغییر می‌کند که سهمش در خطا کاهش یابد. نکتهٔ مهم این است که هزینهٔ محاسباتی این فرایند تقریباً متناسب با هزینهٔ خود محاسبهٔ خروجی است، نه با تعداد پارامترها؛ همین ویژگی است که پس‌انتشار خطا را برای مدل‌های بزرگ قابل استفاده می‌کند.2. ریشه‌های ریاضی الگوریتم پس‌انتشار خطاالگوریتم پس‌انتشار خطا در اصل پاسخ به یک سؤال بسیار قدیمی است: وقتی در انتهای یک محاسبه به عددی می‌رسیم، چطور بفهمیم کدام بخش‌های مسیر بیشترین نقش را در این نتیجه داشته‌اند؟ این پرسش خیلی قبل‌تر از شبکه‌های عصبی مطرح بوده است. ریاضی‌دان‌ها از همان زمانی که با توابع مرکب و وابستگی‌های زنجیره‌ای سروکار داشتند، عملاً با همین مشکل درگیر بودند، فقط اسمش چیز دیگری بود.ریشهٔ فنی ماجرا به قاعدهٔ زنجیره‌ای مشتق‌ها برمی‌گردد؛ ابزاری که از قرن هفدهم، با اختراع حساب دیفرانسیل و انتگرال توسط نیوتن و لایب نیتز، به‌طور ضمنی وجود داشت. از همان لحظه‌ای که می‌شد گفت &quot;اگر این تغییر کند، آن چقدر تغییر می‌کند؟&quot;، ایدهٔ انتشار اثر تغییرات در یک ساختار چندمرحله‌ای متولد شد. الگوریتم پس‌انتشار خطا چیزی اضافه‌تر از این ندارد، فقط این انتشار را منظم و محاسباتی می‌کند.3. تکامل تاریخی در قرن هجدهم و نوزدهمدر قرن هجدهم، مسئله جدی‌تر شد. اویلر و لاگرانژ نشان دادند که در مسائل بهینه‌سازی، تغییرات کوچک در یک نقطه از مسیر می‌توانند کل نتیجه را تحت تأثیر قرار دهند. شرط‌های اویلر–لاگرانژ در واقع راهی بودند برای دنبال‌کردن اثر تغییرات از انتهای مسئله به کل مسیر. این نگاه، از نظر مفهومی، بسیار به الگوریتم پس‌انتشار خطا نزدیک است.لاگرانژ با معرفی ضرایبش یک قدم دیگر جلو رفت. این روش نشان می‌داد که چگونه سهم محدودیت‌ها به تابع هدف منتقل می‌شود و چگونه می‌توان با افزودن متغیرهای کمکی، کل سیستم را قابل مشتق‌گیری کرد. این دقیقاً همان تفکر «برگشتن از خروجی به ورودی» است که در قالب مسائل کلاسیک بهینه‌سازی مطرح شده است.4. استحکام در قرن نوزدهم و ظهور مفاهیم جدیددر قرن نوزدهم، با رسمی‌شدن آنالیز توسط کوچی و وایرشتراس، همهٔ این ابزارها از نظر منطقی تثبیت شدند. قاعدهٔ زنجیره‌ای دیگر یک ایده وابسته به شهود نبود، بلکه قضیه‌ای دقیق بود. از این لحظه به بعد، محاسبهٔ مشتق توابع مرکب بزرگ کاملاً قابل اجرا بود، که بعدها برای الگوریتم پس‌انتشار خطا بسیار حیاتی شد.در اوایل قرن بیستم، این خط فکری وارد مکانیک تحلیلی و سپس نظریهٔ کنترل شد. مفهوم متغیرهای همساز و روش‌های حساسیت به این معنا بودند که می‌توان اثر یک تغییر در خروجی را به‌طور سیستماتیک به تمام پارامترهای ورودی نسبت داد. این‌ ها عملاً همان چیزی هستند که امروز در شبکه‌های عصبی انجام می‌دهیم.5.ورود به محاسبات عددی و شبکه‌های عصبیدر دهه‌های ۱۹۶۰ و ۱۹۷۰، این ایده‌ها به‌صورت صریح وارد محاسبات عددی شدند. در کنترل بهینه، الگوریتم‌هایی وجود داشت که گرادیان را با یک عبور رو به جلو و یک عبور معکوس محاسبه می‌کردند. پاول وربوس اولین کسی بود که این منطق را مستقیماً برای آموزش شبکه‌های چندلایه به‌کار گرفت.و در نهایت، در ۱۹۸۶، راملهارت، هینتون و ویلیامز الگوریتم پس‌انتشار خطا را به‌عنوان یک روش استاندارد یادگیری معرفی کردند. نوآوری اصلی آن‌ها ریاضی جدید نبود، بلکه بهره گیری هوشمندانه از ایده ای چندصد ساله بود.6. جمع بندیدر نتیجه، الگوریتم پس‌انتشار خطا نه یک جهش ناگهانی، بلکه جمع‌بندی تاریخیِ قاعدهٔ زنجیره‌ای، حساب دیفرانسیل و انتگرال، بهینه‌سازی و ... است. ایده ای قدیمی که دیر راهش را به علوم کامپیوتر باز کرد.در نهایت، پس‌انتشار خطا یک سازوکار عمومی برای محاسبهٔ مشتق‌ها در سیستم‌های مرکب است؛ سازوکاری که می‌تواند هم در شبکه‌های عصبی، هم در مدل‌های فیزیکی، و هم در هر مسئله‌ای که بهینه‌سازی مبتنی بر گرادیان دارد، به‌کار رود.معادل انگلیسی واژگان:الگوریتم پس‌انتشار خطا : Backpropagation algorithmقاعدهٔ زنجیره‌ای مشتق‌ها : chain rule of derivativesحساب دیفرانسیل و انتگرال : differential and integral calculusحساب تغییرات : calculus of variationsشرط‌های اویلر–لاگرانژ : Euler–Lagrange equationsضرایب لاگرانژ : Lagrange multipliersمتغیرهای همساز (adjoint variables) : adjoint variablesحساسیت (sensitivity) : sensitivityبهینه‌سازی : optimizationگرادیان : gradientنزول گرادیان : gradient descentسهم محدودیت‌ها / تأثیر محدودیت‌ها : impact of constraints / contribution of constraintsنیوتن : Isaac Newtonلایب نیتز : Gottfried Wilhelm Leibnizاویلر : Leonhard Eulerلاگرانژ : Joseph-Louis Lagrangeکوتچی : Augustin-Louis Cauchyوایرشتراس : Karl Weierstrassپاول وربوس : Paul Werbosراملهارت : David E. Rumelhartهینتون : Geoffrey Hintonویلیامز : Ronald J. Williamsهنری کلی : Henry Kelley</description>
                <category>آرتین دانشور</category>
                <author>آرتین دانشور</author>
                <pubDate>Thu, 05 Feb 2026 22:23:04 +0330</pubDate>
            </item>
                    <item>
                <title>از AlexNet تا GPT: مسیر پژوهش</title>
                <link>https://virgool.io/@m_76635758/alexnet-to-gpt-ywyrl98e2myv</link>
                <description>بیاید مسیر کوتاه ولی پر محتوایی که ما رو به اینجا رسونده رو از دید پژوهشی بررسی کنیم.انقلاب (۲۰۱۲-۲۰۱۳): با اومدن AlexNet، این طرز فکر که شبکه‌های عمیق به درد نمی‌خورن، کلاً عوض شد. Krizhevsky، Sutskever و Hinton نشون دادن که اگه داده کافی (ImageNet) و GPU به اندازه کافی وجود داشته باشه، شبکه‌های کانولوشنی عمیق می‌تونن از ویژگی‌های دست‌ساز توی حوزه بینایی ماشین بهتر عمل کنن. این قضیه پاش به دنیای NLP (پردازش زبان طبیعی) هم باز شد: اگه شبکه‌های بزرگ می‌تونن الگوهای پیچیده رو از یه سری پیکسل یاد بگیرن، پس شاید بتونن الگوهای زبان رو هم یاد بگیرن! تقریباً همون موقع‌ها بود که Word2Vec از Mikolov بازنمایی‌های برداری فشرده یا همون بردار های امبدینگ فشرده رو برای کلمات رو جا انداخت، طوری که روابط معنایی بین کلمات رو به شکل هندسی نشون می‌داد. یک دفعه، کلمات دیگه فقط یه سری نماد خشک و خالی برای شبکه های عصبی نبودن و معنی می‌تونست توی یک فضای برداری جریان داشته باشه و اینطوری می‌شد کلمات رو خیلی بهتر و بهینه‌تر به شبکه‌های عصبی داد.بازی با کلمات (۲۰۱۴-۲۰۱۵): حوزه NLP مدل‌سازی عصبی توالی‌ها رو جدی گرفت. Sutskever et al. چارچوب sequence-to-sequence (seq2seq) رو با استفاده از LSTMها معرفی کردن که توالی‌های ورودی با طول متغیر رو به خروجی‌هایی با طول متغیر تبدیل می‌کرد. این اتفاق برای کارهایی مثل ترجمه ماشینی یک انقلاب بود. حدوداً در همین دوره، Bahdanau، Cho و Bengio مکانیسم توجه (attention) رو معرفی کردن. این مکانیسم به دیکودر اجازه می‌داد به جای اینکه کل ورودی رو توی یک امبدینگ پنهان فشرده کنن، روی بخش‌های مهم ورودی تمرکز کنن. این کار مشکل بزرگی رو تویRNNها رو حل کرد و باعث شد مدل‌ها بتونن متن‌های طولانی‌تری رو درک کنن و زمینه‌ رو برای چیزی که بعداً به اسم self-attention شناختیم، آماده کرد.توجه (۲۰۱۷): مقاله Transformer از Vaswani et al. با عنوان «Attention Is All You Need»، همه چیز رو زیر و رو کرد. این معماری با جایگزین کردن ساختار بازگشتی (recurrence) با self-attention، می‌تونست وابستگی‌های دوربرد در متن رو بدون مشکل محو شدن گرادیان (vanishing gradients) مدل‌سازی کنه و محاسبات رو هم کاملاً موازی انجام بده. Transformerها به هر کلمه اجازه می‌دادن به تمام کلمات دیگه توی یک جمله توجه کنن و به این شکل، بازنمایی‌های خیلی غنی و پیچیده‌ای از متن بسازن. این معماری تبدیل شد به اسکلت اصلی LLMهای امروزی، چون هم انعطاف‌پذیر بود، هم مقیاس‌پذیر و هم بهینه. برای همین این امکان رو می‌داد که مدل‌های خیلی بزرگ رو روی حجم عظیمی از متن آموزش داد.ظهور غول ها (۲۰۱۸-۲۰۱۹): محقق‌ها رفتن سراغ پیش‌آموزش (pretraining) مدل‌های زبانی خیلی بزرگ یا درواقع LLM ها. مدل BERT (که توسط Devlin et al. در سال ۲۰۱۸ معرفی شد) با استفاده از انکودر هایTransformer و روشی به نام مدل‌سازی زبان پوشیده (masked language modeling)، تونست متن رو به صورت دوطرفه (Bidirectional ) درک کنه و نشون داد که می‌شه یک مدل پیش‌آموزش‌دیده رو با کمی تنظیم دقیق (fine-tuning) برای چندین کار مختلف آماده کرد. تقریباً همزمان، Radford et al. مدل GPT-1 رو معرفی کردن که یک Transformer فقط دیکودر (decoder-only) بود و طوری آموزش دیده بود که کلمه بعدی رو به صورت خودبازگشتی (autoregressively) پیش‌بینی کنه. با بزرگ‌تر کردن همین ایده، GPT-2 (۲۰۱۹) نشون داد که مدل‌های بزرگ‌تر با داده‌های بیشتر، می‌تونن متن‌های معنی دار و فوق‌العاده متنوعی تولید کنن.قدرت غول ها (۲۰۲۰): مدل GPT-3 (Brown et al., ۲۰۲۰) با ۱۷۵ میلیارد پارامتر و صدها میلیارد توکن، مقیاس رو وارد یک مرحله کاملاً جدید کرد و عملکرد خیلی خوبی در یادگیری بدون نمونه (zero-shot) و با چند نمونه (few-shot) نشون داد. همزمان، Kaplan et al. قوانین مقیاس‌پذیری (scaling laws) رو به فرمالیته کردن و نشون دادن که خطای مدل (loss) با افزایش اندازه مدل، حجم داده و توان محاسباتی، به طور قابل پیش‌بینی کم می‌شه. این به کل حوزه یک نقشه راه داد: با افزایش سیستماتیک اندازه مدل و داده، می‌شه با اطمینان عملکرد رو بهتر کرد. این طرز فکر که «کافیه فقط توان محاسباتی رو خرج معماری درست کنی» تا مدل‌های زبان همه‌کاره بسازی، به ایده اصلی تبدیل شد.بزرگتر همیشه بهتر نیست (۲۰۲۱-۲۰۲۲): محقق‌ها شروع کردن به بهینه‌سازی تعادل بین توان محاسباتی و داده. مدلChinchilla از DeepMind (Hoffmann et al., ۲۰۲۲) این ایده رو مطرح کرد که خیلی از مدل‌های بزرگ، نسبت به حجم داده‌ای که استفاده کردن، به اندازه کافی آموزش ندیدن (undertrained) و نشون داد که مدل‌های کوچیک‌تر اگه روی داده‌های بیشتری آموزش ببینن، می‌تونن از مدل‌های غول‌پیکر ولی کم‌آموزش‌دیده بهتر عمل کنن. نوآوری‌های کاربردی مثل محاسبات با دقت ترکیبی (mixed precision)، gradient checkpointing و روش‌های موازی‌سازی پیشرفته، آموزش در مقیاس بزرگ رو ممکن کردن. از طرفی، تکنیک‌هایی مثل RLHF (یادگیری تقویتی از بازخورد انسانی) و تنظیم با دستورالعمل (instruction tuning) (مثلاً FLAN-T5)، همسوسازی (alignment) و کاربردی بودن LLMها رو توی دنیای واقعی بهتر کردند.چیکار کنیم ؟( ۲۰۲۳-۲۰۲۵): تمرکز اصلی روی بهتر کردن استراتژی‌های مقیاس‌پذیری، همسوسازی و توانایی مدل‌ها در پیروی از دستورالعمل‌ها بوده. مدل‌هایی مثل LLaMA، PaLM و سری GPT-4/5 نشون می‌دن که یک پیش‌آموزش حساب‌شده به علاوه تنظیم دقیق با دستورالعمل، LLMهای فوق‌العاده توانمندی می‌سازه. محقق‌ها تمرکزشون رو بیشتر گذاشتن روی رفتارهای نوظهور، ارتباط مدل با دنیای واقعی (grounding)، و ورودی‌های چند حالته (multi-modal) و همزمان دارن به مسائل کارایی، سوگیری‌ها (biases) و ایمنی هم رسیدگی می‌کنن. این روند نشون می‌ده که ترکیب معماری (Transformerها)، داده (متن در مقیاس وب)، توان محاسباتی (GPU/TPUهای موازی غول‌پیکر)، و استراتژی‌های آموزش (خودنظارتی + RLHF)، در واقع دستور پخت LLMهای همه‌کاره امروزیه.</description>
                <category>آرتین دانشور</category>
                <author>آرتین دانشور</author>
                <pubDate>Fri, 19 Sep 2025 19:18:10 +0330</pubDate>
            </item>
                    <item>
                <title>آزمون تورینگ : آیا ماشین ها قادر به فکر کردن هستند ؟</title>
                <link>https://virgool.io/codenevis/%D8%A2%D8%B2%D9%85%D9%88%D9%86-%D8%AA%D9%88%D8%B1%DB%8C%D9%86%DA%AF-%D8%A2%DB%8C%D8%A7-%D9%85%D8%A7%D8%B4%DB%8C%D9%86-%D9%87%D8%A7-%D9%82%D8%A7%D8%AF%D8%B1-%D8%A8%D9%87-%D9%81%DA%A9%D8%B1-%DA%A9%D8%B1%D8%AF%D9%86-%D9%87%D8%B3%D8%AA%D9%86%D8%AF-wqrcft7rbbfw</link>
                <description>توی این نوشته نسبتا طولانی، میخوام درمورد آزمونی به اسم آزمون تورینگ صحبت کنم. این آزمون معیاری برای سنجش هوشمندی کامپیوترها هست! به طوری که اگه یه کامپیوتر بتونه از این ازمون سربلند بیرون بیاد اون موقع یعنی این ماشین هوشمند هست ! البته ابهامات زیادی در این باره وجود داره که بهشون می پردازم.من قراره از تاریخچه ایجاد این ازمون شروع کنم و به تعریف امروزی این ازمون برسم. پس راه نسبتا طولانی ای در پیش داریم! تمام تعاریف و توضیحاتی که اینجا میبینید بر اساس توضیحات الن تورینگ در این مقاله هست. اطمینان دارم که از نبوغ این ادم شگفت زده میشید، امیدوارم لذت ببرید :)آقای الن تورینگ در سال 1950 یا به عبارتی 74 سال پیش زمانی که تو دانشگاه منچستر مشغول به کار بود این سوال رو در مقاله ای تحت عنوان یک آزمون یا تستی فرضی بیان کرد :   آیا ماشین ها قادر به فکر کردن هستند ؟ چیزی که امروزه به عنوان بازی تقلید هم شناخته میشه.گفتن این جمله در سال 1950 چیزی خارج از عقل بود و باور اینکه روزی کامپیوتر ها بتونن به خوبی با انسان ها تعامل برقرار کنن خیلی سخت بود. اما امروزه همه ما این موضوع رو پذیرفتیم و به عنوان موضوعی عادی و روزمره نگاهش میکنیم و دید عادی ای نسبت به این قضیه به دست اوردیم.میشه گفت که این مقاله یکی از اثر گذارترین مقالات تو تاریخ هوش مصنوعی هست. شاید هم بهتره بهش بگیم پایه گذار هوش مصنوعی! ایده مطرح شده توی این مقاله ابهامات و سوالات زیادی به وجود اورد و پایه گذار شروع یه عصر جدید از کامپیوتر ها بود!شروع مقاله به این شکل هست : پیشنهاد می‌کنم که به این سوال بپردازیم: &amp;quotآیا ماشین‌ها می‌توانند فکر کنند؟&amp;quot این باید با تعریف واژگان &amp;quotماشین&amp;quot و &amp;quotفکر کردن&amp;quot آغاز شود. ممکن است تعاریف به گونه‌ای تنظیم شوند که تا حد ممکن بازتابی از استفاده‌ی معمول کلمات باشند، اما این نگرش خطرناک است. اگر قرار باشد معنای واژگان &amp;quotماشین&amp;quot و &amp;quotفکر کردن&amp;quot را با بررسی استفاده‌ی رایج آن‌ها پیدا کنیم، به سختی می‌توان از این نتیجه‌گیری فرار کرد که معنا و پاسخ به سوال &amp;quotآیا ماشین‌ها می‌توانند فکر کنند؟&amp;quot باید در یک نظرسنجی آماری مثل نظرسنجی گالوپ جستجو شود. اما این مسخره است. به جای تلاش برای چنین تعریفی، من سوال را با سوال دیگری که به آن نزدیک است و با کلمات نسبتاً نامبهم بیان شده است، جایگزین می‌کنم.فرم جدید مسئله را می‌توان به صورت یک بازی که ما آن را &amp;quotبازی تقلید&amp;quot می‌نامیم، توصیف کرد.یکی از دلایلی که تورینگ تمایل نداشت که به طور مستقیم همچین سوالی رو بیان کنه این بود که ممکن بود مغایرت های زیادی بین مفهوم و فلسفه فکر کردن با نحوه کار کامپیوتر ها یا به عبارت خودشون ماشین ها ایحج 1. بازی تقلیدبیاید با تعریف بازی تقلیدی که تورینگ در اینجا بهش اشاره کرده شروع کنیم. به طور کلی تعریف بازی تقلید از زبان تورینگ این هست که این بازی 3 بازی کننده داره، یک مرد(1) ، یک زن(2) و یک شخص که میتونه مرد یا زن باشه(3).بازیکن شماره 3 در یک فضا خارج از دو بازیکن دیگه قرار میگیره. بدون اینکه اونا رو ببینه یا لمس کنه باید بتونه جنسیت این دو فرد رو از هم تمیز بده.  به این فرد دو لیبل داده میشه تحت عنوان زن و مرد که فرد باید شماره هر بازیکن رو با لیبل متناظرش مچ کنه.اما به چه صورت ؟ بازیکن 3 حق داره سوالاتی از دو بازیکن 1و 2 بپرسه. مثلا بازیکن 3 میتونه درباره طول موهای بازیکن 1 سوال بپرسه. اما بازیکن 1 باید تلاش کنه که بازیکن 3 رو به اشتباه بندازه!به عنوان مثال اگر طول موی بازیکن 1 کوتاه باشه، بازیکن 1 میتونه به بازیکن 3 طول موهاش رو بلند اعلام کنه و به عبارتی این بازیکن رو گول بزنه!و همچنین صدای بازیکنان 1و 2 به بازیکن 3 نمیرسه و باید از طریق کاغذ مکاتباتشون رو انجام بدن.اما بازیکن 2 نقش جالب تری هم داره! بازیکن 2 باید به بازیکن 3 کمک کنه و تا میتونه به بازیکن 3 اطلاعات درست رو بده و کمکش کنه که بتونه به درستی جنسیت ها رو تشخیص بده. اما فایده ای نداره. چون بازیکن 1 هم میتونه همچین اظهاراتی رو بیان کنه!!2. شرح مسئله جدید حالا سوال جدیدی می پرسیم. چی میشه اگر به جای بازیکن 1، یک کامپیوتر(ماشین) قرار بدیم ؟ ایا این ماشین میتونه بازیکن 3 رو گول بزنه ؟ این سوالات جای سوال اصلی ما که در ابتدا مطرح شده رو میگیرن : آیا یک ماشین میتونه فکر کنه ؟ این مشکل جدید این مزیت رو داره که یک خط تقریباً واضح بین توانایی‌های فیزیکی و ذهنی انسان می‌کشه.یعنی چی ؟ مثلا  هیچ مهندس یا شیمی‌دانی ادعا نمی‌کنه که می‌تواند ماده‌ای تولید کنه که از پوست انسان قابل تشخیص نباشه!  این امکان وجود داره  که در آینده این اتفاق هم بیفته ، اما حتی اگر این اختراع ممکن هم بشه، احساس می‌کنیم که انسانی‌تر کردن &quot;ماشین فکر کننده&quot; با پوشاندن آن به چنین پوست مصنوعی، کم اهمیت هست. شکلی که ما مسئله را در آن تعریف کردیم، این واقعیت رو در شرایطی که بازیکن 3 را از دیدن یا لمس یا ارتباط مستقیم با بقیه اعضا منعکس میکنه.روش پرسش و پاسخ به نظر می‌رسه برای معرفی تقریباً هر یک از حوزه‌های تلاش انسانی که می‌خوایم شامل کنیم، مناسب باشه. ما نمی‌خوایم ماشین رو به خاطر ناتوانی‌اش توی مسابقات فشن یا زیبایی مجازات کنیم و همچنین نمی‌خوایم یه انسان رو به خاطر شکست توی مسابقه سرعت علیه یک هواپیما مجازات کنیم. شرایط بازی ما این ناتوانی‌ها رو بی‌ربط می‌کنه. &quot;بازیکنان 1 و 2&quot; می‌تونن در صورت لزوم به اندازه‌ای که می‌خوان از ویژگی ها، مهارت ها و...  خودشون تعریف کنن، اما بازیکن 1 نمی‌تونه خواستار نمایش عملی این ویژگی‌ها بشه.شاید بازی از این نظر مورد انتقاد قرار بگیره که شانس‌ها به شدت به ضرر ماشینه.  اما به این فکر کنید که اگه انسان سعی کنه که وانمود کنه ماشینه، به وضوح عملکرد بسیار ضعیفی داره. اون به سرعت و با بی دقتی توی محاسبات ریاضی خودشو لو میده!  آیا ماشین‌ها نمی‌تونن کاری انجام بدن که باید به عنوان فکر کردن توصیف بشه اما خیلی متفاوت از جوری که انسان فکر میکنه، باشه؟ این انتقاد خیلی قویه، اما حداقل می‌تونیم بگیم که اگه با این حال، ماشینی ساخته بشه که بتونه بازی تقلید رو برنده بشه( یعنی بازیکن 3 نتونه دو بازیکن 1و 2 رو از همدیگه تمیز بده) ، نیازی به نگرانی در مورد این اعتراض نداریم!پس ماشین ما باید قادر به گول زدن بازیکن 3 باشه، اما چطور ؟ ممکنه شما بگید بهترین استراتژی ای که این ماشین میتونه برای به اشتباه انداختن بازیکن 3 به کار بگیره این باشه که رفتار یک فرد عادی رو تقلید نکنه. ممکنه همچین چیزی جواب بده اما یک راه بهتر میتونه این باشه که ماشین تا حد امکان شبیه به یک انسان عادی صحبت کنه!3. ماشین های مربوط به بازیسوالی که در ابتدا طرح شد تا زمانی که مفهوم دقیق &quot;ماشین&quot; رو در اون مشخص نکنیم، به طور کامل واضح نیست. به طور کلی، ما باید این امکان رو فراهم کنیم که ماشین شرکت کننده در بازی ترکیبی از تکنیک های مهندسی متنوع باشه، مثلا ما نمیتونیم ماشینی رو توی این بازی شرکت بدیم که مهندسین سازنده اش همگی از یک نوع مهندس باشن. به عبارتی، ما میخوایم ماشینی که داره توی بازی شرکت میکنه یک ماشین باشه ترکیبی از تکنیک های متفاوت و علوم متفاوت و برای کار های متنوعی مورد استفاده قرار بگیره، یعنی فقط کامپیوتر دیجیتال!در اون زمان تعدادی کامپیوتر دیجیتال فعال بودن و درحال کار بودن، پس چرا همون موقع ازمایش برگزار نشد ؟ مگه اماده سازی فضایی برای انجام اون ازمایش چقدر سخت بود ؟ میشد از چندین داور(بازیکن 3) استفاده کرد و اماری تهیه کرد و نتایج رو تحلیل کرد!تورینگ به این سوال یک جواب کوتاه داد : مسئله سنجش عملکرد همه کامپیوتر های دیجیتال نیست. ما نمیخوایم بدونیم که ایا همه این کامپیوتر های دیجیتال میتونن عملکرد خوبی از خودشون نشون بدن یا خیر. ما میخوایم بدونیم ایا کامپیوتر هایی که در تصور ما هستن میتونن عملکرد خوبی داشته باشن؟ خب خب خب! مقدمات مسئله تموم شد. ما همه مولفه های اصلی مسئله امون رو ایجاد کردیم حالا بیاید همه چیز رو کنار هم بزاریم و مسئله رو جم و جور کنار هم بچینیم.بیاید به این سوال جواب بدیم ؟ پس بالاخره این ازمون تورینگ که اینقدر راجبش صحبت کردیم چی هست ؟!پاسخ اینه که ازمون تورینگ، ازمونی برای سنجش هوشمندی یک ماشین هست که اگر ماشینی این ازمون رو با موفقیت به اتمام برسونه یعنی این ماشین میتونه فکر کنه (کلی بحث درمورد جمله اخری که گفتم هست که الان بهشون می پردازم).نحوه برگزاری این ازمون به این شکل هست که یک فرد به عنوان قاضی، دربرابر دو بازیکن قرار میگیره(معمولا از طریق یه صفحه چت). که یکی از این بازیکن ها یک کامپیوتر هست(مثلا یه LLM) و این دو بازیکن باید طبق نقش هایی که در بخش 1 توضیح دادم سعی کنن که داور رو گول بزنن. یعنی کامپیوتر تو این ماجرا باید تا میتونه مشابه به یک انسان عادی رفتار کنه.شرایط برنده شدن : حداقل 50 درصد از داوران باید گول کامپیوتر رو بخورن و در این صورت کامپیوتر ازمون رو پاس میکنه!جالبه که بدونید درحال حاضر Loebner Prize رقابتی هست که این مسابقه رو برگزار میکنه و 25 هزار دلار جایزه برای مدلی که بتونه با استفاده از تکست خالی داورا رو گول بزنه و 100 هزار دلار جایزه برای مدلی که با استفاده از متن و تصویر و ... داور ها رو گول بزنه در نظر گرفته شده. تا الان تنها مدل هوشمندی که تونسته این تست رو پشت سر بزاره GPT-4 هست. نقد ها و ابهاماتتوی این بخش قراره به انتقاد هایی که به گفته های تورینگ شده بپردازم. تورینگ چند انتقادی که ممکنه به تعریف هاش در مقاله اش بشه رو توی خود مقاله نوشته و پاسخ داده که به طور خلاصه چند موردش رو اینجا توضیح میدم.1. اعتراض های الهیگفته های تورینگ : به طور کلی اعتراضات الهی به این صورت هستند که میگویند : خداوند به انسان ها روحی جاودانه بخشیده است اما به حیوانات و اشیا و ... خیر و بنابراین انها توانایی فکر کردن ندارند!تورینگ به طور کلی نقضی برای این اعتراضات بیان نکرده و زیاد بهشون نپرداخته. اما یکی از نکاتی که بهش اشاره کرده این هست که خداوند قادر مطلق هست و توانایی بخشیدن روح و توانایی هرکاری به هرچیزی رو داره، بنابراین نقض توانایی خداوند برای بخشیدن جان و عقل به هر چیزی رو نمیشه نقض کرد. شاید او فقط شرایط را برای بخشیدن روح به این دسته مناسب ندیده است، پس ایجاد شرایط ایده بدی نیست!2. سر در خاک گذاشتنپیامدهای اینکه ماشین‌ها بتونن فکر کنن خیلی وحشتناک است. بیاید امیدوار باشیم و باور داشته باشیم که آنها قادر به این کار نیستن.&quot; این استدلال به‌ندرت به صورت تماماً روشن که در بالا اومده بیان میشه. اما بر اکثر ما کسانی که حتی به این موضوع فکر می‌کنیم، تاثیر داره. ما دوست داریم باور داشته باشیم که انسان به نوعی ظرفیت و توانایی بیشتری نسبت به بقیه مخلوقات داره. بهتره که بتونیم نشون بدیم که اینطوره!! چون اون موقع دیگه خطری فرمانرواییمون رو تهدید نمیکنه! محبوبیت استدلال اعتراض های الهی به وضوح با این احساس مرتبط است.  من فکر نمی‌کنم که این استدلال کافی جدی باشد که نیاز به انکار آن داشته باشیم. احتمالاً تسلیت موجه‌تر باشه: شاید این باید در تراوای جان‌ها جسته شود.&quot;  :)3. هوشیاری برای هوش لازم استاین استدلال به خوبی در کتاب لیستر پروفسور جفرسون در سال 1949 بیان شده.تا زمانی که یک ماشین نتواند غزل بنویسد یا کنسرت بسازد، نه
به دلیل افکار و احساسات احساس شده، و نه بر اثر سقوط تصادفی نمادها، نمی توانیم
موافق باشیم که ماشین مساوی مغز است.
هیچ مکانیزمی نمی تواند چیزی را احساس کند، از موفقیت هایش لذت ببرد یا از شکست هایش اندوهگین شودپاسخ تورینگ : انسان ها فقط در ظاهر هوشیار هستند، ماشین ها هم همینطور.4. محدودیت ها:به طور کلی بیان این انتقاد به این شکل هست : ماشین ها هیچوقت نمیتونن فلان کار رو انجام بدن، مثلا عاشق بشن، از کسی متنفر بشن، احساسات رو درک کنن، جهان رو بشناسن و...پاسخ تورینگ : من هیچ تضمینی ندارم که روزی همچین اتفاقی بیوفته و حتی فکر میکنم که بیشتر اینها از دیدگاه زیستی هستن. ولی ساختن محدودیت ذهنی برای ماشین ها صرفا محدود کردن قدرت اونهاست. 5. اگر در طول ازمون ذهن خوانی انجام بشه چی ؟ پاسخ تورینگ : اطمینان حاصل کنین که این اتفاق نیوفته  :)این نکته بیشتر فان بوده.خب در اخر، میخوام به یکی از ازمایشاتی که انتقاد قوی ای از تست تورینگ محسوب میشه بپردازماتاق چینیتمرکز این ازمایش روی درک معنای فکر کردن و فهمیدن هست.اتاق چینی یک ازمایش هست که طی این ازمایش یک فرد که فقط به عنوان مثال زبان انگلیسی بلد هست و هیچگونه درکی از زبان چینی نداره رو داخل یک اتاق میگذارن و بهش یک کتاب دستور عمل میدن، این کتاب شامل یک سری علامت از زبان چینی هست با توضیحاتشون ، مثال : اگر این علامت رو دیدی : 敲门 به در ضربه بزن.حالا ازمایش چطور انجام میشه ؟ دو نفر خارج از اتاق هستند که یه سری علامت چینی رو به عنوان دستورات به داخل اتاق میفرستند و فرد داخل اتاق با استفاده از اون کتاب باید اون علامت ها رو رمزگشایی کنه و به دو نفر بیرون از اتاق برگردونه. نتایج این ازمایش نشون میده که فرد داخل اتاق به خوبی میتونه همه دستورات چینی رو متوجه بشه بدون اینکه هیچ درک و مفهومی از این زبان تو ذهنش باشه! پس درواقع با دادن یک سری اطلاعات دستورعملی این فرد میتونست بدون داشتن درک واقعی از زبان چینی، از زبان چینی استفاده کنه.حالا این استدلال بر علیه ازمون تورینگ به کار میره و گفته میشه که اگر یک کامپیوتر بتونه به سوالاتی جواب هایی رو بده دلیل بر متفکر بودن و هوشمند بودنش نیست و صرفا داره یک سری اطلاعات رو تلفیق میکنه و جوابی میسازه! و دلیلی بر این نمیشه که واقعا درکی از کاری که داره میکنه داشته باشه!خب ممنونم که این مطلب طولانی رو تا اینجا دنبال کردین، اگر سوالی بود یا دوست داشتین بحث کنیم تو تلگرام با این ایدی باهام ارتباط بگیرین : ArtinDnrامیدوارم لذت برده باشید. </description>
                <category>آرتین دانشور</category>
                <author>آرتین دانشور</author>
                <pubDate>Mon, 24 Jun 2024 23:47:44 +0330</pubDate>
            </item>
                    <item>
                <title>آلن تورینگ، پدر علم کامپیوتر و هوش مصنوعی</title>
                <link>https://virgool.io/@m_76635758/%D8%A2%D9%84%D9%86-%D8%AA%D9%88%D8%B1%DB%8C%D9%86%DA%AF-%D9%BE%D8%AF%D8%B1-%D8%B9%D9%84%D9%85-%DA%A9%D8%A7%D9%85%D9%BE%DB%8C%D9%88%D8%AA%D8%B1-%D9%88-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-moer86sdjrv2</link>
                <description>امروز زادروز‌ پدر علم کامپیوتر و هوش مصنوعی و دانشمند برجسته علوم کامپیوتر یعنی الن تورینگ هست.الن تورینگ ریاضی دان، زیست شناس، فیلسوف، منطق دان، دانشمند رایانه و رمزنگار انگلیسی بود.او در  ۲۳ ژوئن سال ۱۹۱۲ در لندن به دنیا اومد و در ۷ ژوئن سال ۱۹۵۴ در ۴۱ سالگی در اثر‌ مسمومیت با سیانور درگذشت. نبوغ او درهمان کودکی اشکار بود و او در ۱۴ سالگی به کالج شربرون در دورست در جنوب غربی انگلیس رفت.کسی که ماشین تورینگ‌ش، پایه‌ی رایانه‌های امروزی و آزمایش تورینگ اش به یکی از بهترین روش ها برای ارزیابی هوشمندی یه کامپیوتر تبدیل شد.الن تورینگ به کمک ماشین تورینگ، نقش موثری در الگوریتم ها و محاسبات ایفا کرد.آیا می‌توان روزی گفت: «ماشین هوشیار است و می‌تواند فکر کند؟»او سپس در آزمایشگاه ملی فیزیک در انگلستان شروع به کار کرد و یکی از نخستین برنامه‌های ذخیره‌شونده در کامپیوتر را ساخت، اما طرح او اجرا نشد.او در سال ۱۹۴۸ به دانشگاه منچستر رفت تا رویمنچستر مارک ۱کار کند که به طور رسمی به عنوان اولین کامپیوتر واقعی جهان شناخته میشود. در ۱۹۵۰، در مقاله‌ای، معیاری برای هوشمندی یک رایانه پیش نهاد که به آزمایش تورینگ معروف شد:بهترین معیار برای هوشمند شمردن یک ماشین این‌ است که بتواند انسانی را از راه یک پایانه «تله تایپ» طوری فریب دهد که او باور کند که با یک انسان روبروست.به پاس خدمت های زیاد تورینگ به علوم کامپیوتر، جایزه ای به نام جایزه تورینگ ساخته شد که به عنوان نوبل علوم کامپیوتر شناخته میشه، از اونجایی که جایزه نوبلی برای علوم کامپیوتر وجود نداره از جایزه تورینگ به عنوان نوبل علوم کامپیوتر یاد میشهاین جایزه به ادم هایی اهدا میشه که خدمات زیادی به علوم کامپیوتر کرده باشن، مبلغ این جایزه ۱ میلیون دلار هست.همچنین او در جنگ جهانی دوم با شکوندن رمز ماشین انیگما که وسیله ارتباطی رمزنگاری شده بین نیروهای نازی بود کمک زیادی به پایان جنگ کرد.دستگاه سلطنتی بریتانیا احترام بسیار زیادی برای تورینگ قائل بود و تورینگ دارای نشان ویژه سلطنتی بود.همچنین از سال ۲۰۱۹ تا اخر ۲۰۲۱ عکس الن تورینگ روی اسکناس های پنجاه پوندی چاپ میشد.درمورد جایزه تورینگ حرفایی هست که باید بزنم و قراره تو یه پست جدا بهش بپردازم</description>
                <category>آرتین دانشور</category>
                <author>آرتین دانشور</author>
                <pubDate>Mon, 24 Jun 2024 16:16:12 +0330</pubDate>
            </item>
            </channel>
</rss>