شهریار قاسمی داوری
شهریار قاسمی داوری
خواندن ۴۲ دقیقه·۴ سال پیش

هوش مصنوعی به زبان ساده (شهریار قاسمی داوری)

هوش مصنوعی چیست؟

هوش مصنوعی یکی از مقوله هایی است که در علوم کامپیوتر، اهمیت فراوان دارد و تغییرات در هوش مصنوعی می توانند تحولات گسترده ای را در فناوری اطلاعات پدید بیاورند. در این مقاله قصد داریم که هوش مصنوعی را به شما معرفی کنیم

هوش مصنوعی، هوش ماشین هاست! در واقع شاخه ای از علوم کامپیوتر است که قصد دارد راه حل های الگوریتمی را ارائه کند تا بتوانیم به وسیله آنها در ماشین ها هوشمندی ایجاد کنیم. اما این تعریف کافی نیست؛ اول از همه باید بدانیم که تعریف هوشمندی چیست و بعد باید منظور از ماشین را دربیابیم:

استدلال، منطق، تصمیم گیری ؛ این ها توانایی هستند که شما از آنها استفاده می کنید. پس شما هوشمند هستید. اگر این توانایی ها را در کامپیوتر هم ایجاد کنیم، آنگاه به ماشین هوشمند دست می یابیم! به همین سادگی ... ولی به جز این ها چیز های دیگری هم در رابطه با تعریف هوشمندی وجود دارند که دانستن آنها را می توان مهم ارزیابی کرد. در واقع بحث هایی که در مورد هوشمندی و هوش مصنوعی مطرح شده است؛ تنها به دوره ی امروزه ی ما و قرن 21 مربوط نمی شود، بلکه از سال 1950 این مباحث به طور جدی مطرح شد

- پیشینه ی هوش مصنوعی:

باید گفت که از این نظر هوش مصنوعی یکی از غنی ترین تاریخ ها را دارد، منتها در قصه ها! ماشین ها و مخلوقات مصنوعی باشعور، اولین بار در افسانه های یونان باستان مطرح شدند. شبه انسان ها باور داشتند که باید یک تمدن بزرگ را تشکیل دهند؛ تندیس ها و مجسمه های انسان نما در مصر و یونان به حرکت در آمده بودند و ... حتی در مواردی این قصه ها، پای جابر بن حیّان و چند تن دیگر را هم به سازندگان موجودات مصنوعی باز کردند.

از قصه ها که بگذریم ؛ فیلسوف ها و ریاضی دان ها از مدت ها پیش مباحث مربوط به استدلال و منطق را پیش کشیدند و امروزه این مباحث به صورت قرار دادی، به رسمیت پذیرفته شده است. این گونه منطق ها اساس کامپیوتر های دیجیتال و برنامه پذیر شده اند. یکی از افرادی که نقش اساسی و مهمی در این مورد ایفا کرد آقای آلن تورینگ بود

نظریه تورینگ:

تئوری تورینگ مبتنی بر این بود که می توانیم با استفاده از نشانه ها و اعدادی مانند 0 و 1، هر استدلال ریاضی ای را در کامپیوتر عملی کنیم. همزمان با این نظریه کشف های تازه ای در زمینه ی عصب شناسی، نظریه اطلاعات و فرمانشناسی، به وقوع پیوسته بود. این پیشرفت ها الهام بخش گروهی کوچک از پژوهشگران شد تا به طور جدی به مساله ایجاد یک مغز الکترونیکی رسیدگی نمایند

- تست تورینگ:

در سال 1950، آلن تورینگ مقاله ای را در رابطه با هوش مصنوعی منتشر ساخت که بعد ها به تست تورینگ مشهور شد. در این مقاله عنوان شده بود که اگر فردی از پشت یک دیوار یا هر چیز جدا کننده دیگری، با کامپیوتر مکالمه کتبی داشته باشد و نداند که طرف مقابلش انسان نیست و پس از پایان مکالمه نیز متوجه این موضوع نشود، آنگاه می توان کامپیوتر را ماشینی هوشمند نامید زیرا توانسته است که در برابر یک انسان به اندازه کافی از استدلال و منطق استفاده کند. تست تورینگ تا حدی توانست هوش مندی را توجیه کند ولی فقط ((تا حدی))! اما از آن زمان تا کنون ماشینی اختراع نشده است که توانسته باشد این تست را با موفقیت بگذراند. هر چند زبان AIMLابداع شد، اما این زبان هرگز به این حد از هوش مصنوعی دست نیافت.

تیمی که در زمینه هوش مصنوعی تحقیق می کردند، در تابستان سال 1956، کنفرانسی را در محوطه کالج دارتموس برگزار کردند. این کنفرانس به همراه افرادی مانند جان مک کارتی، ماروین مینسکی، آلین نویل و هربت سیمون که برای دهه ها پیشتازان تحقیق برای هوش مصنوعی بودند انجام شد. آنها و دانش آموزان آنها، برنامه ای نوشته بودند که حقیقتا برای عده زیادی از مردم شگفت آور بود. این برنامه می توانست مشکلات نوشتاری در جبر را حل کند، استدلال های منطقی را اثبات کند و به زبان انگلیسی سخن بگوید. در اواسط دهه ی 1960، بودجه سنگینی برای دایرکردن آزمایشگاه های تحقیقاتی در گرداگرد دنیا، از سوی حوزه ی دفاعی ایالات متحده آمریکا، اختصاص داده شد. پیشتازان هوش مصنوعی درباره آینده آن در جهان بسیار خوش بین بودند. هربت سیمون پیشبینی کرده بود که در مدت 20 سال، کامپیوتر های هوشمند می توانند، هر کاری را که انسان انجام می دهد، انجام دهند. در واقع مشکلات بزرگی که در آن زمان برای ایجاد هوش مصنوعی وجود داشت، اساسا حل شده بود

مقایسه، استدلال و حل مسائل:

خیلی زود توسعه دهندگان هوش مصنوعی به این نتیجه رسیدند که باید در الگوریتم های خود از نحوه حل مساله ((گام به گام)) استفاده کنند. در واقع انسان ها هم معمولا برای حل مواردی از جمله: ساختن پازل و ... از این روش استفاده می کنند. آنها همچنین توانستند که پس از دهه های 80 و 90 الگوریتم های موفقیت آمیزی را برای درک داده ها و اطلاعات نا کامل عرضه کنند که این الگوریتم ها از احتمالات، برای درک این اطلاعات استفاده می کردند.

برای حل مسائل سخت، بیشتر این الگوریتم ها به کامپیوتر های بزرگ و قدرتمندی برای پردازش نیاز داشتند. بسیاری از این الگوریتم ها به مقدار زیادی حافظه (رم) نیاز داشتند و حتی در صورت فراهم آمدن آن، با وجود سخت افزار های آن زمان، مدت مورد نیاز برای پردازش نجومی بود. بنابر این می توان این مساله را دریافت که: جستجو برای الگوریتم های بهتر و موثر تر در آن زمان، از اولویت های اصلی پژوهشگران هوش مصنوعی بود.

انسان برای حل مسائل خود خیلی سریع عمل می کند. چیزی که باید فهمید این است که اگر چه انسان در جمع و تفریق اعداد از کامپیوتر شکست می خورد، اما مساله فقط جمع و تفریق نیست. در واقع اولین گام برای حل مساله درک آن است و این چیزی است که برای انسان بسیار ساده و برای کامپیوتر ها بسیار سخت است. بر این اساس آنها به تحقیقات زیادی پرداختند و به این نتیجه رسیدند که باید برای بازدهی بیشتر از شبکه های عصبی استفاده کنند. این کار به آنها کمک می کرد تا بتوانند به ساختار اعصاب و مغز انسان و سایر حیوانات نزدیک تر شوند.

نمایش معلومات:

نمایش معلومات و مهندسی معلومات مرکز توجه در پژوهش های هوش مصنوعی بودند. بسیاری از دستگاه های حل مساله برای حل مسائل نیازمند معلومات گسترده و وسیعی بودند این معلومات عبارت می شد از : شناختن اشیاء، خواص و اقلام- شناختن روابط بین اشیاء- درک موقعیت، نوع واقعه و زمان و مکان- علت ها و تاثیر عوامل و بسیاری چیز های دیگر...

و سخت ترین مشکلات درباره نمایش اطلاعات و معلومات عبارت بود از:

- استدلال پیش فرض و مسائل نسبی: دانسته ی یک فرد از یک چیز برابر است با پنداشت او از آن چیز، برای مثال وقتی نام پرنده به گوش کسی می خورد، معمولا یک موجود کوچک را به یاد می آورد با صدای زیبا و قابلیت پرواز؛ در حالی که این موضوع برای همه ی پرندگان صدق نمی کند. مثلا پنگوئن هیچکدام از این ویژگی ها را ندارد! جان مک کارتی این موضوع را به عنوان یک مسئله نسبی در سال 1969 کشف کرد. برای هر قضاوت صحیح (در تعریف عام) که محققان هوش مصنوعی، سعی در پیاده سازی آن داشتند، تعداد زیادی استثنا وجود داشت. بنابر این، آنها به این نتیجه دست یافتند که در قضاوت عام، نمی توان یک چیز را مطلقا درست یا غلط دانست بلکه همه چیز نسبی است. مثلا وقتی به شما می گویند که فلان شخص، خوب است یا بد؟ شما اول به مواردی توجه می کنید که مهم تر هستند و بر این اساس در مورد خوبی و بدی قضاوت می کنید. در حالی که هیچ کس مطلقا خوب یا بد نیست! در واقع شما اول به مواردی اهمیت می دهید که مهم تر است. محققان هوش مصنوعی هم با پیاده کردن چنین الگوریتمی توانستند این مشکلات را حل کنند.

2- سطح وسیع اطلاعات مورد نیاز برای قضاوت عام: منظور از قضاوت عام، همان نحوه قضاوتی است که در بالا توضیح داده شد که شما به نکاتی که بیشتر اهمیت دارند، امتیاز بیشتری اختصاص می دهید و آنها را ملاک قضاوت خود قرار می دهید. اما این نوع قضاوت، شاید در زندگی روزمره ما کار عادی ای شده باشد؛ اما در واقع برای کامپیوتر این کار نیاز به اطلاعات پایه ای زیادی در زمینه هستی شناسی و شناخت ویژگی های موجودات دارد. محققان هوش مصنوعی می بایست، مفاهیم دقیق و پیچیده ای را با دست خود، به کامپیوتر می فهماندند. کار بزرگی که انجام شد این بود که توانستند کامپیوتر را قادر سازند که از منابع اطلاعاتی (نظیر اینترنت امروزی) ، مفاهیمی را کسب کند و از این راه به اطلاعات خود در این باره بیافزاید.

3- استفاده از زبان Sub-Symbolic برای توضیح بعضی مفاهیم در قضاوت عام: بسیاری از معلوماتی که مردم دارند، چیز هایی است که نمی توان آن ها را تصویر کرد و یا توضیح داد. برای مثال یک شطرنج باز ماهر، از قرار دادن یک مهره در یک وضعیت خاص پرهیز می کند زیرا احساس می کند که این کار خطرناک است و یا یک کارشناس و منتقد هنری با نگاه کردن به یک مجسمه و یا یک نقاشی تشخیص می دهد که آن جعلی و تقلبی است. پیاده کردن چنین الگوریتم هایی با استفاده از زبان سمبلیک ممکن نبود و باید از زبان دیگری بر پایه Sub-Symbolicاستفاده می شد. قبل از هر چیز باید، توضیح مختصری از این دو را به شما ارائه کنیم:

در واقع اساس کار زبان های سمبلیک بر پایه استدلال و نتیجه گیری و به طور کلی، منطق است. در این گونه زبان ها برای متغیر ها و توابع مقدار های مشخصی در نظر گرفته می شود و بدین وسیله، هر متغیر حاوی بخشی از اطلاعات برنامه و هر تابع حاوی بخشی از قوانین استنباطی برنامه است.

اما روش Sub-Symbolic تا حد زیادی متفاوت است. این روش از شبکه های عصبی برای پردازش اطلاعات استفاده می کند. این شبکه های عصبی از واحد های ورودی، واحد های پنهان و واحد های خروجی تشکیل شده اند که همگی با یکدیگر ارتباط دارند. این واحد ها گاهی سلول عصبی نیز، خطاب می شوند. همانطور که گفته شد، این سلول های عصبی با یک دیگر ارتباط دارند. اما چیزی که باید بدانید این است که اطلاعات در بین این ارتباطات، پردازش می شوند و بر این اساس ممکن است یک سلول عصبی در پردازش اطلاعات موثر و یا کم اثر باشد. در عوض، در شبکه های عصبی تمامی اجزا مهم تلقی می شود. چون هیچ کدام از آنها به تنهایی نمی توانند، اطلاعات را پردازش کنند ولی وقتی تمام اجزا با هم کار کنند، موجب ایجاد یک عملکرد هوشمند می شوند.

برای این که این روش را بهتر درک کنید، به این مثال توجه نمایید: یک مورچه تنها را در نظر بگیرید، طبعا نه کاری می تواند بکند و نه اثری دارد، اما وقتی مجموعه ای از این مورچه ها جمع می شوند و یک کلونی را تشکیل می دهند، آنگاه جامعه ای از آنها درست می شود که در کلیت، هوشمند و موثر است، به طوری که حتی ما هم با دانستن راز های زندگی جمعی مورچه ها، به فکر فرو می رویم! همین کار را هم می توان با شبکه های عصبي انجام داد و يک شبه مغز را ايجاد کرد.

- برنامه ریزی:

موجودات و به طور کلی، چیز های هوشمند، باید بتوانند هدف هایی را برای خود تعیین کرده و به آنها دست یابند. برای این کار اولا لازم است که تصوری از آینده خود داشته باشیم. یعنی وضع کنونی هدف مورد نظر را در نظر بگیریم و پیش بینی کنیم که تصمیماتی که خواهیم گرفت، چگونه می تواند بر آن تاثیر بگزارد. پس از این کار باید، برای رسیدن به بهترین نتیجه؛ از بین گزینه هایی که داریم، بهترین و سودمند ترین آنها را انتخاب نماییم.

پس تصمیم گیری و برنامه ریزی از این روش، کاری است که بدون هوشمندی، نمی توان آن را انجام داد و فقط موجودات هوشمند از پس آن بر می آیند!

در مسائل کلاسیکی که در مورد برنامه ریزی وجود داشت، عامل هوشمند می توانست فرض کند که تنها یک چیز (هدف مورد نظر) در جهان فعال است و احتمالا می توان نتیجه آن را تغییر داد. بنا بر این هدف مورد نظر تعیین می شد و برای آن راه حل هایی ارائه می گردید. همچنین عامل هوشمند - که میتواند برنامه و یا هر چیز دیگری باشد – به طور مرتب و دائمی چک می کرد که پیشگویی هایش درست باشد و اگر اینطور نبود، راه حل مورد نظر برای هدفش را تغییر می داد.

در این مورد می توانید یک روبوت را در نظر بگیرید که می خواهد از یک مسیر مارپیچ عبور نماید. این روبوت ابتدا هر یک از این مسیر ها را امتحان می کند و اگر هر کدام از آنها به بن بست، بر خورد، آن را به حافظه می سپارد تا دوباره تکرارش نکند و این عمل را آنقدر ادامه می دهد که راه خودش را بیابد! ( این يک تعریف بسيار ساده بود)

- یادگیری:

ایجاد امکان یادگیری برای ماشین ها، همواره از پژوهش های اصلی در زمینه ی هوش مصنوعی بوده است. یادگیری بدون نظارت: قابلیت یادگیری الگو ها، از اطلاعات ورودی را فراهم میکند. یادگیری نظارت شده هم، می تواند هردو امکان: طبقه بندی و عبرت عددی را ایجاد کند.

طبقه بندی این امکان را می دهد که کامپیوتر بتواند تشخیص دهد که چه چیز هایی را می توان در یک گروه خاص گنجاند. عبرت عددی (Regression takes) نیز به این صورت عمل می کند که بعد از دادن چیز هایی به عنوان ورودی به کامپیوتر و مشخص کردن خروجی دقیق آنها، کامپیوتر می تواند روابط بین ورودی و خروجی را کشف کرده و الگوریتم ها و توابع پیوسته ای را برای آنها تعیین کند. این روش برای به وجود آوردن الگوریتم های بسیار پیچیده، مفید خواهد بود.

اجازه دهید تا در این مورد مثالی بزنیم: وقتی در حال رانندگی هستید و به عابران پیاده نگاه می کنید، می توانید تا حد زیادی تشخیص دهید که آنها قصد چه کاری را دارند. مثلا می خواهند از خیابان رد شوند یا این که تاکسی بگیرند و یا این که فقط سر جای خود ایستاده اند. خب، این کار برای من و شما نسبتا ساده است اما اساسا برای نوشتن الگوریتم آن برای کامپیوتر، از دست یک انسان کاری ساخته نیست. با استفاده از روش عبرت عددی می توان با روش های خاص این مورد را با مثال های زیادی به کامپیوتر و برنامه ی مربوطه نشان داد و به تدریج الگوریتم مورد نیاز را تحویل گرفت.

اما چیزی که باید هم اکنون به آن اشاره کرد، عملیات تقویت یادگیری است. این کار به این صورت انجام می پذیرد که تئوری تصمیم گیری کامپیوتر آنالیز شده و برداشت های سودمند آن تئوری، مورد تاکید قرار می گیرند. در واقع کار های درست با تشویق (به صورت اولویت دادن) و کار های غلط با تنبیه (به صورت امتیاز منفی) پاسخ داده می شوند و به همین خاطر یادگیری کامپیوتر به طور مرتب بهبود می یابد.

یادداشت: آنالیز الگوریتم های یادگیری ماشین ها، شاخه ای از علوم نظری کامپیوتر است که با نام تئوری یادگیری کامپیوتری شناخته می شود.

پردازش زبان طبیعی:

پردازش زبان طبیعی یا Natural Language Processing، به ماشین های هوش مند این قابلیت را می دهد که زبان انسان ها را بخوانند و آنها را متوجه شوند. بسیاری از تحقیقات به این نتیجه رسید که برای ایجاد قدرت کافی برای سیستم پردازش زبان طبیعی، نیاز است که اطلاعات زیاد و کاملی را به این سیستم ارائه کنیم که می تواند با استفاده از خواندن متن های موجود در اینترنت انجام شود.

برنامه هایی که هم اکنون در زمینه پردازش زبان طبیعی درست عمل می کنند، از امکاناتی مانند: بازیابی اطلاعات، جستجو در متن ها و امکان ترجمه ماشینی بهره مند اند.

- حرکت و جا به جا کردن اجسام: تحقیقات در زمینه روبوتیک، بیش از هر چیزی به هوش مصنوعی وابسته است. روبات ها برای موارد بسیار زیادی نیاز به هوشمندی دارند که از جمله آنها می توان مواردی مانند: مسیر یابی ، جا به جا کردن، این که بدانند کجا هستند، این که درکی از محیط خود داشته باشند و بتوانند برای حرکت به سوی نقطه خاصی، برنامه ریزی نمایند و هدف خود را تعیین کنند. بدین ترتیب هوش مصنوعی برای روبات ها بسیار پر کاربرد است و تقریبا در تمام زمینه های ذکر شده از آن استفاده می نمایند

ادراک:

درک ماشینی، به آنها این امکان را می دهد که بتوانند با استفاده از سنسور های ورودی خود، نظیر: دوربین، میکروفون ها و دیگر سنسور های عجیب و غریب (!) ؛ از محیط خود برداشت صحیحی داشته و بتواند محیط پیرامون خود را درک کند. در اصل، بینایی کامپیوتری این امکان را می دهد که کامپیوتر بتواند چیز هایی که می بیند را مورد تجزیه و تحلیل قرار دهد. چند مورد از آنالیز های معروف در روبات ها عبارت است از : آنالیز صحبت و صدا ها و تشخیص منظور، آنالیز چهره ها و تشخیص حالات آن ها. مانند: خشم، ناراحتی، خنده و ... ، آنالیز اشیاء پیرامون و تشخیص آنها .

با استفاده از انواع آنالیز ها و تجزیه و تحلیل هایی که در بالا ذکر شدند، روبات ها قادر خواهند بود که بسیار هوشمند تر از قبل عمل کنند. مثلا در جا به جایی اجسام شیشه ای، دقت بیشتری کنند. برای کسی که ناراحت و عصبانی است، جک تعریف نکند! و سلام را با خدا حافظ پاسخ ندهد.

ابتکار وخلاقیت:

یکی از شاخه های مهم، هوش مصنوعی سعی در ایجاد قوه ی خلاقیت در کامپیوتر دارد. پیاده سازی ابتکار و خلاقیت در هوش مصنوعی، هم از نظر فلسفی و هم از نظر فیزیولوژی قابل توجیه می باشد. همچنین از نظر عملی هم با پیاده سازی یک الگوریتم مخصوص که خروجی هایی هوشمندانه و متفکرانه تولید نماید، امکان پذیر است. این شاخه معمولا با نام های: درک مصنوعی (Artificial Intuition) و پندار مصنوعی (Artificial Imagination) شناخته می شود. برای پرهیز از پیچیده شدن مقاله، توضیح بیشتری نمی دهیم اما می توانید مباحث مربوط به این دو را نیز در سایت های دیگر دنبال نمایید

هوش عمومی:

برای پیاده سازی هوش عمومی روی کامپیوتر نیاز است که از تمامی توانایی های بالقوه ی هوش مصنوعی استفاده کنیم. برای مثال مترجم متن گوگل را در نظر بگیرید؛ می دانیم که این مترجم در حال حاضر با خطا های بسیاری رو به رو است. حال اگر بخواهیم که اشکالات کار ترجمه، حل شود؛ می توانیم از هوش عمومی استفاده نماییم: برای ترجمه خوب باید اول بفهمیم که نویسنده از چه استدلال ها و چه دلایلی برای مطرح کردن یک منظور خاص استفاده می کند.( به کار گیری جنبه درک استدلال و منطق)، همچنین باید بدانیم که موضوعی که درباره آن صحبت می شود چیست.(درک و جمع آوری اطلاعات). مرحله بعدی کار ما این است که مقصود نویسنده از جملات را پیدا کنیم؛ مثلا بفهمیم که دارد انتقاد می کند یا تعریف. (هوش اجتماعی). پس از این کار ها و در نظر گرفتن موارد فوق می توانیم به ترجمه یک متن بپردازیم.

- فرمان شناسی و شبیه سازی مغز:

در بین دهه های 1940 تا 1950، تعدادی از پژوهشگران توانستند، ارتباطی را بین علم عصب شناسی، نظریه اطلاعات و فرمان شناسی کشف کنند. نظریه اطلاعات، شاخه ای از ریاضیات کاربردی و مهندسی الکترونیک است که به تعیین و تعریف اطلاعات می پردازد. نظریه اطلاعات در ابتدا به بررسی راه حل هایی برای تعریف حد و حدود پردازش سیگنال ها می پرداخت و در کار هایی مانند فشرده سازی، ذخیره و رد و بدل کردن اطلاعات استفاده می شد. پس از آن، نظریه اطلاعات به سرعت وسعت پیدا کرد و اکنون در زمینه های گسترده ای از جمله پردازش زبان طبیعی، رمز گذاری و استنباط آماری استفاده می شود.

تعدادی از این پژوهشگران، به منظور پیاده سازی هوش مصنوعی (هر چند ناقص) در آن زمان، از شبکه های الکترونیکی استفاده کردند. پس از آن تحقیقات در این باره بیشتر هم شدند و معمولا در انجمن های علمی دانشگاه های پرینستون (Princeton) آمریکا وRatio Club انگلستان، نتایج این تحقیقات ارائه می شد. با این که در این مورد، زحمت بسیاری کشیده شد، ولی در عمل، استفاده از روش های شبیه سازی به مغز، در آن زمان نتوانست راه به جایی ببرد و سر انجام در سال 1960 متوقف شد. زیرا تحقیقات بر روی این مساله علاوه بر این که بازدهی کمی داشتند، بسیار پر دردسر، پر هزینه، سخت و وقت گیر بودند پس استفاده از زبان سمبلیک، از همه ی جهات صرفه بیشتری نسبت به این مورد داشت

استفاده از زبان سمبلیک:

اواسط دهه ی 1950، زمانی بود که دسترسی به کامپیوتر های دیجیتالی عملا ممکن شده بود. در همان زمان بود که کاوش ها برای "ممکن کردن شبیه سازی هوش انسان در کامپیوتر با استفاده از سمبل ها و نماد ها"، شروع شد. مرکز پژوهش ها در این زمینه روی چند دانشگاه مهم، متمرکز شده بود. یعنی دانشگاه های : ام آی تی، سی ام یو و استنفورد آمریکا. هر یک از این دانشگاه ها سعی داشتند تا سبک مخصوص به خود را در تحقیقات پیاده سازی کنند.

-- شبیه سازی شناختی شبیه سازی روش حل مساله توسط انسان ها:

هربت سیمون، اقتصاد دان و آلن نویل، مطالعه هایی در مورد توانایی حل مسئله توسط انسان ها انجام دادند و تلاش کردند که به مطالعه های خود رسمیت ببخشند. در واقع کار این دو فرد بود که اساس و بنیان هوش مصنوعی شد و تحقیقات جدی و پرثمری را در این باره پایه ریزی کرد. تیم تحقیقاتی آنها از نتایج آزمایشات روانشناختی انجام شده، استفاده می کرد تا بتوانند، برنامه هایی را طراحی کنند که شیوه حل مسائل توسط انسان ها را شبیه سازی نماید. (درک مساله، جمع آوری اطلاعات و آگاهی از جزئیات، پردازش اطلاعات ، حل مساله و آزمایش راه حل) مرکز تحقیقات در این مورد، دانشگاه سی ام یو بود. سر انجام این روش، پدید آمدن Soar بود که یک معماری نرم افزاری برای موارد این چنینی را عرضه می کرد.

در واقع اساس کار آنها در شبیه سازی شناختی، این بود که: سعی کنند؛ نحوه فکر، درک،شناخت و حل مسائل توسط انسان را در کامپیوتر شبیه سازی کنند تا بدین وسیله بتوانند، رفتار کامپیوتر را به انسان که نزدیک کنند

روش مبنی بر منطق:

برخلاف هربت سیمون و آلن نویل؛ جان مک کارتی احساس می کرد که ماشین ها نیازی به شبیه سازی نحوه فکر انسان ها ندارند! بلکه در عوض باید سعی کنیم تا ماهیت و اساس، استدلال و حل مسائل را بیابیم و نیازی نیست، توجه کنیم که آیا انسان ها دقیقا از همان روش ها برای استدلال خود کمک می گیرند یا خیر.

آزمایشگاه او در دانشگاه استنفورد، تحقیقاتش را روی استفاده از منطق قراردادی برای حل انواع و اقسام مسائل متمرکز کرده بود. همچنین تحقیقات و یافته های این آزمایشگاه شامل روش هایی برای پیاده سازی: نمایش اطلاعات، برنامه ریزی و یادگیری می شد. منطق قرار دادی شامل قوانین منطقی ای می شود که به اثبات رسیده اند، مانند قوانین دمورگان و .... (ترکیب های فصلی، عطفی،شرطی، دو شرطی و ...)

تحقیقات متمرکز این تیم در دانشگاه ادینبرگ منجر به گسترش علوم مربوط به برنامه نویسی منطقی (Logic Programming) و پدید آمدن زبانی به نام پرولُگ (Prolog) شد

روش غیر منطقی یا ((نا متعارف))!

پژوهشگران در دانشگاه ام آی تی (از جمله: ماروین مینسکی و سیمور پیپرت) این نکته را دریافتند که حل مسائل مشکل و پیچیده، چه در منطق کامپیوتری و چه در پردازش زبان طبیعی، دارای یک فرمول یک پارچه و خاص نیست. در واقع هیچ فرمول و قانون ثابتی (مانند منطق) وجود ندارد که بتواند، تمام جوانب هوش مندی را دربر بگیرد. راجر اسچنک روش غیر منطقی یا نا متعارف را به عنوان راه حلی برای حل مسائل توضیح داد ( درست بر خلاف راه حل هایی که دانشگاه های سی ام یو و استنفورد توضیح داده بودند.)

شعور و تحلیل و قضاوت عام انسان ها و یا تعبیری که به آن Commonsense knowledge bases نیز نمونه هایی از روش غیر منطقی و ( از نظر منطقی نا متعارف هستند). می توانید برای بهتر فهمیدن این مساله به تعریف قضاوت عام در بخش اول مطلب مراجعه کنید اما این را بدانید که اگر فهم این مساله برای شما نسبتا آسان است، برای کامپیوتر بسیار سخت بود، چون در آن زمان، محققان پرتلاش باید با دستان خود این مباحث را به کامپیوتر می فهماندن و این مساله فوق العاده مشکل بود اما دست کم امکان پذیر بودن آن برای توسعه هوشمندی، محققان را دلگرم به ادامه تلاش های خود می کرد.

بانک ادراک و اطلاعات:

در سال 1970، یعنی زمانی که کامپیوتر های با حافظه های بیشتر وارد بازار شدند. محققان هر سه جنبه ای که در بالا ذکر شد؛ تلاش های خود را برای تولید معرفت و ادراک در نرم افزار های هوش مصنوعی، شروع کردند. این انقلاب اطلاعات و ادراک، موجب شد تا سیستم های هوشمند، بیش از پیش گسترش یابند و این را می توان اولین موفقیت مشترک، در زمینه هوش مصنوعی دانست.

این انقلاب اطلاعاتی و ادراکی باعث افزایش برنامه های هوش مصنوعی شد هر چند بعضی از این برنامه ها ساده بودند، ولی از این رو نیاز به اطلاعات بیشتر همواره از سوی این برنامه ها طلب می شد و با بیشتر شدن اطلاعات باز هم برنامه های بیشتری تولید می شد. پس این مساله به صورت چرخه ای در آمده بود که باعث بیشتر شدن پیشرفت هوش مصنوعی در این دوره شد.

- استفاده از زبان های بر پایه Sub-Symbolic:

در طی دهه ی 1960، زبان های سمبلیک، توانستند به موفقیت های بزرگی در شبیه سازیِ ادراک و شعور و هوشمندیِ سطح بالا، در برنامه های استدلالی و اثباتی (هر چند کوچک) برسند. در آن دوره استفاده از شبکه های عصبی تقریبا کمرنگ شده بود. هرچند که در سال های دهه ی 1970، همانطور که در بالا گفته شد، زبان سمبلیک گسترش زیادی پیدا کرد؛ اما این موفقیت، باعث این نشد که محققان نسبت به شبکه های عصبی، نا امید شوند.

در دهه ی 1980، در حالی که هنوز تحقیقات در باره زبان های سمبلیک ادامه داشت، عده ای معتقد بودند که زبان سمبلیک هیچگاه نخواهد توانست که تمامی اعمال هوشمند انسان را شبیه سازی نماید. آن ها، ادراک کامل، الگوشناسی و الگویابی، یادگیری و موفقیت در زمینه های روبوتیک را، انحصاری برای زبان های Sub-Symbolicمی دانستند. پس به همین دلیل عده ای از محققان تحقیقات بیشتر در مورد زبان Sub-Symbolicرا شروع کردند.

محققانی در زمینه های وابسته به علم روبوتیک، مانند رادنی بروکس؛ استفاده از زبان های سمبلیک در هوش مصنوعی را رد کردند و ترجیه دادند که روی مهندسی مسائل و مشکلات پایه ای تمرکز کنند تا بتوانند به حرکت و اعمال بهتر در ربات ها دست پیدا کنند.کار های این گروه از پژوهشگران، تحقیقات در زمینه ی فرمانشناسی و زبان Sub-Symbolicرا دوباره احیا کرد. کار های آنان همزمان با پیشرفت هایی بود که در زمینه هایی از جمله: نظریه تجسم ذهنی، که یکی از شاخه های وابسته به ((شبیه سازی شناختی)) بود؛ انجام می شد. همانطور که به یاد دارید، شبیه سازی شناختی سعی می کرد که رفتار انسان ها در زمینه هایی مانند: حرکت، ادراک، احساسات و تفکر را شبیه سازی نماید. شبیه سازی این موارد هم نیاز به سطح بالاتری از هوشمندی داشت که محققان سعی در ایجاد آن داشتند.

- هوش الگوریتمی:

Computational Intelligence یا هوش الگوریتمی، که به نوعی به شبکه های عصبی وابسته بود، توسط دیوید رامل هارت و چند تن دیگر در اواسط دهه ی 1980 احیا شد. هم اکنون مواردی از جمله سیستم های فازی و محاسبات تکاملی، از مواردی هستند که از دل هوش الگوریتمی بیرون آمده اند
سیستم های فازی، یک نوع سیستم کنترلی هستند که بر پایه منطق فازی فعالیت می کنند، کار این گونه سیستم ها ، تجزیه و تحلیل منطقی داده های ورودی آنالوگ؛ و تبدیل آنها به دیجیتال است. یعنی داده ها را میگیرد و به دیجیتال تبدیل میکند. اما به یک نکته ی مهم توجه داشته باشید: برنامه هایی که نوشته می شوند، دیجیتال هستند و بر پایه 0 و 1، یعنی اطلاعات را یا درست می دانند، یا غلط (بر اساس منطق) اما دنیا و جهان حقیقی این گونه نیست، در همانگونه که بعضی از متخصصان هوش مصنوعی گفته بودند، منطق نمی تواند تمام جوانب انسانی را در کامپیوتر عملی سازد؛ در جهان واقعی نیز هیچ چیز مطلقا درست یا نادرست نیست، و همه چیز تا حدی درست و تا حدی نادرست است؛ تا حدی خوب و تا حدی بد است؛ تا حدی مشکل و تا حدی آسان است. سیستم های فازی درکی این چنینی از مسائل دارند؛ یعنی چیزی بین 0 و 1 !

برای این که این مفاهیم برای شما مبهم نباشد، لازم است به چند مثال در زندگی روزمره خود، روی بیاوریم. ما می توانیم از اطلاعاتی که مبهم هستند، نتیجه گیری صحیحی داشته باشیم، منطق فازی هم قصد انجام چنین کاری را دارد. مثلا ما می توانیم با در نظر گرفتن دمای هوا، تعیین کنیم که چه نوع لباسی بپوشیم. این داده مبهم است چون ما از دما بر حسب درجه سانتی گراد، خبر نداریم ولی می توانیم دمای نسبی را احساس کنیم. مثلا بگوییم هوا گرم است و این دما دقیق نیست؛ چون برای یک اسکیمو دمای 12 درجه متعادل است. اما یک افریقایی در این دما، می لرزد! اما هر دوی آنها با توجه به گرمی و سردی هوا (از نظر خودشان) در مورد نوع لباس خود تصمیم گیری می کنند.


متن اصلی انگلیسی


What is artificial intelligence? Artificial intelligence is one of the most important topics in computer science, and changes in artificial intelligence can bring about far-reaching changes in information technology. In this article, we want to introduce artificial intelligence to you. Artificial intelligence is the intelligence of machines! In fact, it is a branch of computer science that intends to provide algorithmic solutions so that we can use them to create intelligent machines. But this definition is not enough; First of all we need to know what the definition of intelligence is and then we need to understand what the machine means: reasoning, logic, decision making; These are the abilities that you use. So you are smart. If we build these capabilities on the computer, then we get the smart machine! It's that simple ... but there are other things about the definition of intelligence that are important to know. In fact, the debates about intelligence and artificial intelligence; It's not just about our day today and the 21st century, but since 1950 these issues have been taken seriously.

- History of artificial intelligence: It should be said that in this regard, artificial intelligence has one of the richest dates, but in stories! Well-known artificial machines and creatures first appeared in ancient Greek mythology. Pseudo-humans believed that they should form a great civilization; Statues and statues of humanoids were moved in Egypt and Greece, and ... in some cases, these stories even opened the feet of Jabir ibn Hayyan and a few others to the creators of artificial beings. Leaving aside the stories; Philosophers and mathematicians have long argued for reason and logic, and today these topics are conventionally recognized. Such logics have become the basis of digital and programmable computers. One of the people who played a key role in this was Mr. Alan Turing.

Turing theory: Turing theory was based on the fact that we could use any symbols and numbers such as 0 and 1 to perform any mathematical argument on a computer. Simultaneously with this theory, new discoveries were made in the fields of neuroscience, information theory, and command theory. These developments inspired a small group of researchers to take the issue of building an electronic brain seriously - the Turing test: In 1950, Alan Turing published an article on artificial intelligence, later known as the Turing test. . This article stated that if a person has a written conversation with a computer from behind a wall or anything else that separates and does not know that the other party is not a human being and does not realize this after the end of the conversation, then the computer can be machine He called him intelligent because he was able to use enough reasoning and logic against a human being. The Turing test was able to justify intelligence to some extent, but only (to some extent)! But since then, no machine has been invented that has been able to pass this test successfully. Although the AIML language was invented, it never achieved this level of artificial intelligence.

In the summer of 1956, a team of AI researchers held a conference on the site of Dartmouth College. The conference was co-hosted by John McCarthy, Marvin Minsky, Allen Neville and Herbat Simon, who have pioneered artificial intelligence research for decades. They and their students wrote a program that really surprised many people. This program could solve writing problems in algebra, prove logical arguments, and speak in English. In the mid-1960s, a large budget was allocated by the United States Department of Defense to establish research laboratories around the world. The pioneers of artificial intelligence were very optimistic about its future in the world. Herbat Simon predicted that in 20 years, smart computers could do whatever humans do. In fact, the great problems that existed at that time for the creation of artificial intelligence were basically solved.

Comparison, reasoning, and problem solving: Artificial intelligence developers soon came to the conclusion that they should use step-by-step problem-solving in their algorithms. In fact, humans usually use this method to solve problems such as: making puzzles and .... They were also able to develop successful algorithms for understanding incomplete data and information after the 1980s and 1990s, which used probabilities to understand this information. To solve difficult problems, most of these algorithms required large, powerful computers to process. Many of these algorithms required a large amount of memory (RAM), and even if they did, despite the hardware at the time, it would take astronomical processing time. Therefore, it can be understood that: Searching for better and more effective algorithms at that time was one of the main priorities of artificial intelligence researchers. Man acts very quickly to solve his problems. One thing to understand is that although humans fail to add and subtract numbers from a computer, it is not just a matter of addition and subtraction. In fact, the first step to solving the problem is to understand it, and this is something that is very simple for humans and very difficult for computers. Based on this, they did a lot of research and came to the conclusion that they should use neural networks to be more efficient. This helped them get closer to the structure of the nerves and brains of humans and other animals.

Information display and information engineering were the focus of artificial intelligence research. Many problem-solving devices needed extensive information to solve problems. This information included: recognizing objects, properties and items; recognizing relationships between objects; understanding the situation, type of event and time and place; causes and effects of factors; and Many other things ... and the most difficult problems with displaying information and knowledge were: - Default reasoning and relative problems: A person's knowledge of a thing is equal to his perception of that thing, for example when the bird's name is One hears, usually remembers a small creature with a beautiful voice and ability to fly; While this is not the case for all birds. For example, penguins do not have any of these features! John McCarthy discovered this as a relative issue in 1969. There were many exceptions to every correct judgment (in the general definition) that AI researchers sought to implement. Thus, they came to the conclusion that in general judgment, one thing cannot be considered absolutely right or wrong, but everything is relative. For example, when you are told that a person is good or bad? You first look at the things that are more important and judge the good and the bad accordingly. While no one is absolutely good or bad! In fact, you should focus on the things that matter most first. Artificial intelligence researchers have also been able to solve these problems by implementing such an algorithm. 2. Extensive level of information required for general judgment: General judgment is the same kind of judgment described above that you give more points to the points that are more important and use them as a criterion for your judgment. But this kind of judgment may have become commonplace in our daily lives; But for the computer, this requires a lot of basic information in the field of ontology and understanding the characteristics of organisms. Artificial intelligence researchers had to explain precise and complex concepts to the computer with their own hands. The great thing that was done was that they were able to enable the computer to gain insights from information sources (such as today's Internet) and thus add to its knowledge about it. Using Sub-Symbolic Language to Explain Some Concepts in General Judgment: Much of the information people have is something that cannot be illustrated or explained. A skilled chess player, for example, avoids placing a piece in a certain position because he feels it is dangerous, or an expert and art critic, looking at a sculpture or painting, will recognize that it is It is fake. It was not possible to implement such algorithms using symbolic language and another language based on Sub-Symbolic had to be used. First of all, we must give you a brief explanation of the two: in fact, the basis of the work of symbolic languages ​​is based on reasoning and conclusion, and logic in general. In such languages, certain values ​​are assigned to variables and functions, and thus, each variable contains part of the program information and each function contains part of the program's inferential rules. But the Sub-Symbolic method is very different. This method uses neural networks to process information. These neural networks are made up of input units, hidden units, and output units, all of which are interconnected. These units are sometimes called nerve cells. As mentioned, these nerve cells are connected to each other. But what you need to know is that information is processed between these connections, and therefore a nerve cell may be effective or ineffective in processing information. Instead, in neural networks, all components are considered important. Because none of them can process information alone, but when all the components work together, they create an intelligent performance. To better understand this method, consider this example: Consider a single ant, which of course can do nothing and has no effect, but when a collection of these ants come together and form a colony They form, then a society is formed from them that is intelligent and effective in general, so that even we, knowing the secrets of the collective life of ants, think! The same thing can be done with neural networks and create the brain overnight.

Planning: Creatures, and smart things in general, must be able to set goals and achieve them. To do this, we first need to have an idea of ​​our future. That is, we consider the current state of the goal and predict how the decisions we will make will affect it. After this you must, to achieve the best result; Choose the best and most useful one from the options we have. So making a decision and planning this way is something that cannot be done without intelligence, and only intelligent beings can do it! In the classical problems of planning, the intelligent agent could assume that only one thing (the intended purpose) is active in the world, and that the outcome could possibly be changed. Therefore, the desired goal was determined and solutions were provided for it. The smart agent - which could be a program or anything else - also regularly checked that its predictions were correct, and if not, changed the solution to its purpose. In this case, you can consider a robot that wants to cross a spiral path. The robot first tries each of these paths, and if any of them come to a dead end, it memorizes it so that it does not repeat it again, and continues to do so until it finds its own way! (This was a very simple definition) - Learning: Making learning possible for machines has always been one of the main researches in the field of artificial intelligence. Unsupervised learning: Provides the ability to learn patterns from input information. Supervised learning can also create both possibilities: classification and numerical learning. Classification allows the computer to identify what can be included in a particular group. Numerical regression (Regression takes) also works in such a way that after giving things as input to the computer and specifying their exact output, the computer can discover the relationship between input and output and algorithms and continuous functions Determine for them. This method will be useful for creating very complex algorithms. Let me give you an example: When you are driving and looking at pedestrians, you can largely discern what they are going to do. For example, they want to cross the street, or take a taxi, or just stand still. Well, it's fairly straightforward for you and me, but basically it's not a human task to write its algorithm for the computer. Using the numerical lesson method, this case can be shown to the computer and the relevant program with many examples with special methods, and the required algorithm can be delivered gradually. But what needs to be mentioned now is the learning boost operation. This is done in such a way that the theory of computer decision making is analyzed and the useful interpretations of that theory are emphasized. In fact, the right things are rewarded with encouragement (as a priority) and the wrong things with punishment (as a negative score), and therefore computer learning is constantly improved. Note: Analysis of machine learning algorithms is a branch of computer theoretical science known as computer learning theory. Natural Language Processing: Natural language processing enables intelligent machines to read and understand human language. Many studies have concluded that to create enough power for a natural language processing system, we need to provide the system with a wealth of complete information that can be done by reading texts on the Internet. Programs that are currently working well in natural language processing have features such as data retrieval, text search, and machine translation. - Movement of objects: Research in the field of robotics depends more than anything on artificial intelligence. Robots need intelligence for many things, such as navigation, navigation, knowing where they are, understanding their environment, and being able to move to a specific point. Plan and set a goal. Thus, artificial intelligence is very useful for robots and they use it in almost all the mentioned fields. Perception: Machine perception, allows them to use their input sensors, such as: camera, Microphones and other weird sensors (!); Have a correct perception of his environment and be able to understand his surroundings. In essence, computer vision allows the computer to analyze what it sees. Some of the well-known analyzes in robots are: speech and voice analysis and meaning recognition, face analysis and their state recognition. Such as: anger, sadness, laughter, etc., analysis of surrounding objects and their recognition. Using the types of analysis mentioned above, robots will be able to operate much more intelligently than before. For example, be more careful when moving glass objects. For someone who is upset and angry, do not praise Jack! And do not say hello to God. Innovation and creativity: One of the most important branches of artificial intelligence is trying to create creativity in the computer. The implementation of initiative and creativity in artificial intelligence can be justified both philosophically and physiologically. It is also practically possible by implementing a special algorithm that produces intelligent and thoughtful outputs. This branch is commonly known as: Artificial Intuition and Artificial Imagination. To avoid complicating the article, we will not explain further, but you can follow the topics related to these two on other sites. General Intelligence: To implement public intelligence on a computer, we need to use all the potential capabilities of artificial intelligence. . Take Google Text Translator, for example; We know that this translator is currently facing many errors. Now if we want to solve the problems of translation work; We can use general intelligence: for a good translation, we must first understand what arguments and reasons the author uses to put forward a particular purpose (using the aspect of understanding reason and logic), we must also know that the subject that What is it about (understanding and gathering information). The next step in our work is to find the author's meaning of the sentences; For example, to understand that he is criticizing or praising. (social intelligence). After doing this and considering the above, we can translate a text. Command and Brain Simulation: Between the 1940s and 1950s, a number of researchers were able to discover a link between neuroscience, information theory, and command. Information theory is a branch of applied mathematics and electronic engineering that defines and defines information. Information theory initially explored solutions to define the limits of signal processing and was used in tasks such as compressing, storing, and exchanging information. Since then, information theory has grown rapidly and is now used in a wide range of fields, including natural language processing, cryptography, and statistical inference. A number of these researchers used electronic networks to implement artificial intelligence (albeit incomplete) at the time. Research has since intensified, and the results are usually presented in the scientific associations of Princeton University in the United States and the Ratio Club in the United Kingdom. Although a lot of effort was put into this, in practice the use of simulation methods to the brain could not go anywhere at that time and was finally stopped in 1960. Because research on this issue, in addition to being inefficient, was very troublesome, costly, difficult, and time-consuming, the use of symbolic language was more cost-effective in all respects. The use of symbolic language: the mid-decade 1950s was a time when access to digital computers was virtually impossible. It was at this time that excavations began to "make it possible to simulate human intelligence on a computer using symbols." The research center in this field was focused on several important universities. Namely: Universities: MIT, CMU and Stanford USA. Each of these universities tried to implement its own style of research. Cognitive Simulation Human Problem Solving Simulation: Herbat Simon, economist, and Alan Neville conducted studies on human problem-solving ability and attempted to validate their studies. In fact, it was the work of these two people that became the basis of artificial intelligence and established serious and fruitful research in this regard. Their research team used the results of psychological experiments to design programs that simulate how humans solve problems. (Understanding the problem, gathering information and knowing the details, processing the information, solving the problem and testing the solution) The research center in this case was CMU University. The culmination of this approach was the emergence of Soar, which provided a software architecture for such cases. In fact, the basis of their work in cognitive simulation was: to try; Simulate how humans think, understand, recognize, and solve problems on a computer so that they can bring computer behavior closer to humans. Logical approach: Unlike Herbert Simon and Allen Neville; John McCarthy felt that machines did not need to simulate the way humans think! Instead, we should try to find the nature, basis, reasoning, and problem-solving, and not need to consider whether humans use exactly the same methods to reason. His lab at Stanford University focused his research on using contract logic to solve a variety of problems. The lab's research and findings also included methods for implementation: information display, planning and learning. Contract logic includes proven rules that have been proven, such as Demorgan's laws, etc. (seasonal, inflectional, conditional, double conditional, etc.) The team's focused research at the University of Edinburgh has led to the spread of science. Logic programming and the emergence of a language called Prolog became the irrational method or "unconventional"! Researchers at MIT (including Marvin Minsky and Seymour Pippert) have found that solving complex problems, whether in computer logic or natural language processing, does not have a single, specific formula. In fact, there is no fixed formula or law (such as logic) that can cover all aspects of intelligence. Roger Schenck described the irrational or unconventional method as a solution to problems (as opposed to the solutions described by CMU and Stanford Universities.) The general understanding, judgment, and judgment of human beings, or the interpretation that Commonsense knowledge bases are also examples of irrational methods (they are logically unconventional). To better understand this, you can refer to the definition of general judgment in the first part of the article, but know that if it is relatively easy for you to understand, it was very difficult for the computer, because at that time, hardworking researchers had to do it with their own hands. Communicating the issues to the computer was extremely difficult, but at least its feasibility for developing intelligence encouraged researchers to continue their efforts. Perception and Information Bank: In the 1970s, when computers with more memory entered the market. Researchers in all three aspects mentioned above; They began their efforts to generate knowledge and understanding in artificial intelligence software. This revolution of information and perception led to the expansion of intelligent systems, and this can be considered the first joint success in the field of artificial intelligence. This information and perceptual revolution increased artificial intelligence programs. Although some of these programs were simple, the need for more information was always demanded by these programs, and as more information became available, more programs were produced. Been. So this was a cyclical issue that led to the further development of artificial intelligence in this period. Use of Sub-Symbolic Languages: During the 1960s, symbolic languages ​​were able to achieve great success in simulating high-level perception, intelligence, and reasoning (albeit small) programs. At that time, the use of neural networks was almost reduced. However, in the 1970s, as noted above, symbolic language flourished; But this success did not disappoint researchers with neural networks. In the 1980s, while research on symbolic languages ​​was still ongoing, some believed that symbolic language would never be able to simulate all human intelligent actions. They considered complete comprehension, modeling and modeling, learning and success in robotics to be exclusive to Sub-Symbolic languages. So some researchers began to do more research on the Sub-Symbolic language. Researchers in robotics-related fields, such as Rodney Brooks; They rejected the use of symbolic languages ​​in artificial intelligence and preferred to focus on engineering basic problems so that they could achieve better mobility and performance in robots. The work of this group of researchers is research in the field of command. And revived the Sub-Symbolic language. Their work coincided with advances in areas such as the theory of mental visualization, which was a branch of cognitive simulation; It was done. As you may recall, cognitive simulation sought to simulate human behavior in areas such as movement, perception, emotion, and thought. Simulation of these cases also required a higher level of intelligence that the researchers were trying to create. Algorithmic Intelligence: Computational Intelligence, or algorithmic intelligence, which was somehow dependent on neural networks, was revived by David Rammel Hart and several others in the mid-1980s. At present, items such as fuzzy systems and evolutionary computing are among the items that have emerged from the heart of algorithmic intelligence. Fuzzy systems are a type of control system that operates on the basis of fuzzy logic. The work of such systems, analysis Logical analog input data; And convert them to digital. That is, it takes the data and converts it to digital. But keep in mind one thing: programs that are written are digital and based on 0 and 1, meaning they either know the information right or wrong (based on logic), but this is not the case with the real world. As some AI experts have said, logic cannot do all the human aspects of a computer; In the real world, too, nothing is absolutely right or wrong, and everything is partly true and partly false; It is partly good and partly bad; Somewhat difficult and somewhat easy. Fuzzy systems have such an understanding of issues; That means something between 0 and 1! In order for these concepts not to be vague to you, we need to turn to a few examples in our daily lives. We can draw the right conclusions from information that is vague, and fuzzy logic intends to do the same. For example, we can determine what kind of clothes to wear by considering the air temperature. This data is ambiguous because we do not know the temperature in degrees Celsius, but we can feel the relative temperature. For example, let's say the weather is hot and this temperature is not accurate; Because for an Eskimo, the temperature is 12 degrees. But an African shakes at this temperature! But both of them decide on the type of clothes according to the warmth and cold weather (in their opinion).

هوش مصنوعیهوشمصنوعی
شاید از این پست‌ها خوشتان بیاید