علیرضا هاشمی
علیرضا هاشمی
خواندن ۱۹ دقیقه·۳ سال پیش

تاریخچه و مبانی هوش مصنوعی

در علم رایانه، هوش مصنوعی (Artificial Intelligence) که گاه به آن هوش ماشین نیز گفته می شود، برخلاف هوش طبیعی است که توسط انسان نشان داده شده است. به اصطلاح هوش مصنوعی اغلب برای توصیف ماشین ها یا رایانه ها استفاده می شود و از عملکردهای شناختی که با ذهن انسان در ارتباط است، مانند یادگیری و حل مسئله استفاده می کند. قابلیت های ماشین مدرن که به طور کلی به عنوان AI طبقه بندی می شوند شامل درک موفقیت آمیز گفتار انسان، رقابت در بالاترین سطح در سیستم بازی های استراتژیک مانند شطرنج و گو، اتومبیل های خودران، مسیریابی هوشمند و در شبکه های تحویل محتوا و شبیه سازی های نظامی است.

هوش مصنوعی را می توان به سه نوع سیستم مختلف طبقه بندی کرد:

1- تحلیلی.

2- الهام گرفته از انسان.

3- هوش مصنوعی انسانی.

هوش مصنوعی تحلیلی تنها ویژگی های سازگار با هوش شناختی را با ایجاد بازنمایی شناختی از جهان و استفاده از یادگیری مبتنی بر تجربه گذشته برای آگاهی از تصمیمات آینده را در بردارد. هوش مصنوعی الهام گرفته از انسان عناصری از هوش شناختی و عاطفی دارد. علاوه بر عناصر شناختی، درک احساسات انسانی را شامل می شود که در تصمیم گیری آنها را در نظر می گیرد. هوش مصنوعی انسانی همه ویژگی و شایستگی های انسان یعنی شناختی، عاطفی و هوش اجتماعی را نشان می دهد، قادر به خودآگاهی است و در تعامل با دیگران از این خودآگاهی بهره مند است.

مشکلات سنتی که به عنوان اهداف تحقیقات هوش مصنوعی در نظر گرفته می شوند شامل استدلال، نمایش دانش، برنامه ریزی، یادگیری، پردازش زبان طبیعی (NLP)، ادراک و توانایی حرکت و دستکاری اشیاء است. هوش عمومی از جمله اهداف بلند مدت این حوزه است. رویکردها در این حوزه شامل روش های آماری، هوش محاسباتی و هوش مصنوعی سنتی است. ابزارهای زیادی در هوش مصنوعی استفاده می شود، از جمله نسخه های جستجو و بهینه سازی ریاضی، شبکه های عصبی مصنوعی و روش های مبتنی بر آمار، احتمال و اقتصاد. رشته هوش مصنوعی به علوم رایانه، مهندسی اطلاعات، ریاضیات، روانشناسی، زبانشناسی، فلسفه و بسیاری زمینه های دیگر می پردازد.

نظریه تورینگ

آلن تورینگ به لاتین Alan Mathison Turing یک ریاضیدان انگلیسی، دانشمند رایانه، منطق، رمزنگار، فیلسوف و زیست شناس نظری بود. تورینگ در توسعه علم نظری رایانه بسیار تأثیرگذار بود، ارائه رسمی سازی مفاهیم الگوریتم و محاسبه با دستگاه تورینگ، که می تواند الگویی از یک رایانه با کاربرد کلی باشد. تورینگ به عنوان پدر علم نظریه رایانه و هوش مصنوعی در نظر گرفته می شود. تورینگ نظریه اش را با این سؤال شروع میکند که "آیا ماشین ها می توانند فکر کنند؟". او می گوید که برای پاسخ دادن به این سؤال باید اول تعریف مشخصی از تفکر و ماشین داشتیم. ماشین در این مقاله یعنی تحقق فیزیکی ماشین های محاسباتی خودکار شبیه به رایانه های امروزی انجام شود. تورینگ می گوید صحبت از تعریف تفکر کاری عبث است و بنابراین پیشنهاد می دهد سؤال اصلی مقاله یعنی "آیا ماشین ها می توانند فکر کنند؟" با سؤال دیگری جایگزین شود: "آیا ماشین ها می توانند از بازی تقلید سربلند بیرون آیند؟"

آزمون تورینگ

در سال 1950، آلن تورینگ مقاله ای را در رابطه با هوش مصنوعی منتشر ساخت که بعد ها به تست تورینگ مشهور شد. به طور خلاصه گفته می شود مطابق آزمون تورینگ برای تایید هوشمندی اگر بازجوی انسانی نتواند ماهیت رایانه ای را که با آن در مکالمه است را تشخیص دهد و اطمینان پیدا کند که این ماشین انسان است باید گفت این ماشین هوشمند است. تورینگ پیش بینی کرده است که در فاصله حدود ۵۰ سال یعنی ابتدای هزاره جدید ماشین هایی پیدا شوند که آزمون تورینگ را با موفقیت پشت سر بگذارند.

تاریخچه هوش مصنوعی (AI)

مطالعه استدلال مکانیکی یا "رسمی" توسط فلاسفه و ریاضیدانان در دوران باستان آغاز شد. مطالعه منطق ریاضی مستقیما به تئوری محاسبه آلن تورینگ منجر شد که نشان می دهد یک ماشین با زدن نمادهای ساده "0" و "1" می تواند هر عملی قابل تصور از کسر ریاضی را شبیه سازی کند. این بینش که رایانه های دیجیتال می توانند هر فرآیند استدلال رسمی را شبیه سازی کنند، به عنوان پایان نامه کلیسا-تورینگ معروف است. در کنار اکتشافات همزمان در عصب شناسی، نظریه اطلاعات و سایبرنتیک، این امر باعث شد محققان احتمال ساخت مغز الکترونیکی را در نظر بگیرند. تورینگ اظهار داشت: اگر انسان نتواند بین پاسخ های یک ماشین و یک انسان تفاوت قائل شود، این دستگاه می تواند باهوش تلقی شود.

زمینه تحقیقات هوش مصنوعی در کارگاهی در کالج دارتموث در سال 1956 فراهم شد. شرکت کنندگان آلن نیول (CMU)، هربرت سیمون (CMU)، جان مک کارتی (MIT)، ماروین مینسکی (MIT) و آرتور ساموئل (IBM) بنیانگذاران و رهبران تحقیقات هوش مصنوعی شدند. آنها و دانشجویان برنامه هایی تولید کردند که مطبوعات آن را حیرت آور توصیف کردند. رایانه ها استراتژی چکرز را یاد می گرفتند. مشکلات در جبر، اثبات قضایای منطقی و صحبت کردن به زبان انگلیسی را انجام می دادند و در اواسط دهه 1960، تحقیقات در ایالات متحده به شدت توسط وزارت دفاع تأمین می شد و آزمایشگاه هایی در سراسر جهان تأسیس شده بودند. بنیانگذاران هوش مصنوعی در مورد آینده خوش بین بودند چنانچه هربرت سیمون پیش بینی کرد ماشین ها در طی بیست سال قادر به انجام هر کاری خواهند بود که یک انسان بتواند انجام دهد.

مبانی هوش مصنوعی (AI)

هوش مصنوعی معمولی محیط خود را تجزیه و تحلیل می کند و اقداماتی انجام می دهد که شانس موفقیت آن را به حداکثر می رساند. عملکرد ابزار مورد نظر (یا هدف) AI می تواند ساده باشد ("1 اگر AI برنده بازی Go شود، در غیر این صورت") یا پیچیده ("عملکردهایی را که از لحاظ ریاضی شبیه کارهایی است که در گذشته موفق بودند" انجام دهید). اهداف را می توان صریحاً تعریف یا القا کرد. اگر هوش مصنوعی برای "یادگیری تقویت کننده" برنامه ریزی شده باشد، می توان با پاداش دادن برخی از انواع رفتارها یا مجازات دیگران، اهداف را به طور ضمنی تحریک کرد. از طرف دیگر، یک سیستم تکاملی می تواند اهداف خود را با استفاده از "عملکرد تناسب اندام" برای جهش و تکرار ترجیح سیستم های AI با امتیاز بالا، شبیه به نحوه تکامل حیوانات برای رسیدن به اهداف خاص مانند یافتن غذا القا کند.

یادگیری ماشینی (Machine Learning)

یادگیری ماشینی (ML) یک مطالعه علمی از الگوریتم ها و مدل های آماری است که سیستم های رایانه ای برای انجام یک کار خاص و بدون استفاده از دستورالعمل های صریح و با استفاده از الگوهای و استنباط از آن ها استفاده می کنند. این به عنوان زیر مجموعه ای از هوش مصنوعی دیده می شود. الگوریتم های یادگیری ماشین یک مدل ریاضی را بر اساس داده های نمونه، معروف به "داده های آموزش" می سازند، تا بتوانند پیش بینی ها یا تصمیم گیری هایی را انجام دهند بدون اینکه صریحاً برای انجام کار برنامه ریزی شوند. الگوریتم های یادگیری ماشینی در طیف گسترده ای از برنامه ها، از جمله فیلتر ایمیل و بینایی رایانه استفاده می شود، جایی که تهیه یک الگوریتم معمولی برای انجام موثر کار، دشوار یا غیرقابل دسترس است.

یادگیری ماشین ارتباط نزدیکی با آمار محاسباتی دارد، که تمرکز آن بر ساخت پیش بینی با استفاده از رایانه است. مطالعه بهینه سازی ریاضی روش ها، نظریه ها و حوزه های کاربردی را به حوزه یادگیری ماشین ارائه می دهد. داده کاوی زمینه ای در زمینه یادگیری ماشینی است و تمرکز آن بر تجزیه و تحلیل داده های اکتشافی از طریق یادگیری بدون نظارت است. در کاربردهای خود در زمینه مشکلات تجاری، یادگیری ماشینی نیز به عنوان تجزیه و تحلیل پیش بینی کننده شناخته می شود.

یادگیری ماشینی یا Machine Learning نوعی از هوش مصنوعی (AI) است که اجازه می دهد برنامه های کاربردی نرم افزار در پیش بینی نتایج بدون برنامه ریزی دقیق تر شوند. فرض اساسی یادگیری ماشینی ایجاد الگوریتمی است که می تواند داده های ورودی را دریافت کند و از تجزیه و تحلیل آماری برای پیش بینی مقدار خروجی در یک محدوده قابل قبول استفاده کند. الگوریتم های یادگیری ماشینی اغلب با عنوان نظارت شده یا نظارت نشده طبقه بندی می شوند.

یادگیری تقویتی (Reinforcement Learning)

یادگیری تقویتی (RL) رشته ای در هوش مصنوعی و شاخه ای از یادگیری ماشینی است. با الهام از روانشناسی رفتارگرایانه، این رشته عامل ها و ماشین های نرم افزاری را برای تعقیب رفتارها، اقدامات مربوطه، و در نهایت به حداکثر رساندن عملکرد آنها را ارائه می دهد.

یادگیری تقویتی به اختصار RL، بیش از 100 سال پیش توسط ادوارد تورندیک، روانشناس، معرفی شده بود. این تکنولوژی، به جای اینکه برنامه نویس به آنها بگوید چه کاری باید انجام دهد، اجازه می دهد که عامل کامپیوتر / نرم افزار به خودش با بهترین راه کار task را انجام دهد. تعامل بین دو عنصر محیط و عامل یادگیری قرار دارد. در راه، عامل با محیطی که به عنوان سیگنال تقویت شناخته می شود پاداش می گیرد. بر اساس پاداش، عامل از این دانش استفاده می کند و گزینه ها را برای اقدام بعدی می سازد.

در حقیقت، رایانه ها مانند افرادی که نیاز به آموزش صریح ندارند یاد می گیرند. مجازات هایی که در طول راه برای عامل مصنوعی اتفاق می افتد، اما با روش های ثابت و محرمانه، عوامل متوجه می شوند و به بهترین روش را (بر اساس ورودی خام) بکار می گیرند. به طور مداوم، انتخاب ها هنگام جداسازی خوب و بد انجام می شود. نمایش توسط Q-network انجام می شود که مجموع پاداش را حدس می زند. تکنولوژی در حال حاضر با ترکیبی از یادگیری عمیق قوی تر است که با استفاده از یک شبکه عصبی شبیه سازی شده برای شناسایی الگوهای / روند داده ها و انجام وظایف یادگیری کامپیوتر انجام می شود.

یادگیری عمیق (Deep learning)

یادگیری عمیق (DL) یک تکنیک یادگیری ماشینی از هوش مصنوعی است که به کامپیوترها آموزش می دهد تا کارهایی که انسان به طور طبیعی انجام می دهد را فرا بگیرد: با مثال آموزش ببیند. یادگیری عمیق یک فن آوری کلیدی در پشت ماشین های بدون راننده است، آنها را قادر می سازد تا علامت توقف را شناسایی کنند یا عابر پیاده را از یک چراغ جلو تشخیص دهند. این کلید کنترل صدا در دستگاه های مصرفی مانند تلفن،تلویزیون و بلندگوهای هندزفری است. یادگیری عمیق اخیرا توجه زیادی را به خود جلب کرده است. نتایجی به دست آورده که قبلا امکان پذیر نبود.

در یادگیری عمیق، یک مدل کامپیوتری می آموزد که تسک های طبقه بندی را مستقیما از تصاویر، متن یا صدا انجام دهد. مدل های یادگیری عمیق می توانند دقت بیشتری داشته باشند، گاهی اوقات عملکرد آنها از سطح انسان بالاتر می رود. مدل ها با استفاده از مجموعه ای از داده های برچسب گذاری شده و معماری شبکه های عصبی که شامل بسیاری از لایه ها هستند، آموزش داده می شود.

تنسورفلو (TensorFlow)

تنسورفلو (TensorFlow) یک کتابخانه نرم افزاری اوپن سورس برای برنامه ریزی داده ها و برنامه نویسی متفاوت با طیف وسیعی از کارها است. تنسورفلو یک کتابخانه ریاضی است و همچنین برای برنامه های یادگیری ماشین مانند شبکه های عصبی استفاده می شود. از تنسور فلو برای تحقیق و تولید در Google استفاده می شود. در نوامبر 2015 تحت مجوز Apache 2.0 منتشر شد. تنسورفلو یک کتابخانه نرم افزاری است که برای محاسبه عددی با گراف های جریان داده ها مورد استفاده قرار می گیرد که به کاربران اجازه می دهد محاسبات دلخواه را به عنوان یک گراف جریان های داده بیان کنند. گره ها در این گراف عملیات ریاضی را نشان می دهند درحالیکه edge داده ای را نشان می دهد که از یک گره با گره دیگر ارتباط دارد.

تنسورفلو در اصل توسط Google Brain Team در سازمان پژوهشی هوش ماشینی گوگل برای یادگیری ماشینی و پژوهش شبکه های عصبی عمیق ایجاد شد. Trensorflow چند سکویی است و بر روی تقریبا همه چیز مانند GPU و CPU از جمله پلتفرم های موبایل و جاسازی شده و حتی واحد پردازش تنسور (TPU) که سخت افزار تخصصی برای انجام ریاضی تانسور هستند اجرا می شود. داده های موجود در TensorFlow به عنوان تنسور نشان داده می شوند که آرایه های چند بعدی هستند. API لایه های رابط ساده تری برای لایه های مورد استفاده در مدل های یادگیری عمیق دارد. در بالای آن API های سطح بالا مانند API Keras و Estimator API و Core API قرار دارد که آموزش و ارزیابی مدل های توزیع شده را آسان می کند.

کاربرد هوش مصنوعی (AI)

هوش مصنوعی معمولا محیط خود را تحلیل می کند و اقداماتی انجام می دهد که شانس موفقیت آن را به حداکثر می رساند. عملکرد ابزار مورد نظر یا هدف AI می تواند ساده و یا پیچیده باشد. بسیاری از الگوریتم های هوش مصنوعی قادر به یادگیری داده ها هستند. آنها می توانند خود را با یادگیری اکتشافات جدید که در گذشته به خوبی کار کرده اند، تقویت کنند و یا خودشان می توانند الگوریتم های دیگری بنویسند. تعاریف هوش مصنوعی به چهار دسته تقسیم میشود:

از جنبه تفکر، سیستمی که مشابه انسان فکر میکند و سیستمی که منطقی فکر می کند.

از جنبه رفتار، سیستمی که مثل انسان رفتار میکند و سیستمی که منطقی رفتار می کند.

هوش مصنوعی تنها به روبات ها، بازی شطرنج، فیلم های تخیلی محدود نمی شود بلکه امروزه توانسته در مسایل بسیاری همچون پردازش زبان طبیعی، سیستم های خبره، سیستم های عصبی، بینایی ماشین گام بردارد و موفقیت های بسیاری کسب کند. امروزه در هر علمی می توان رد پایی از هوش مصنوعی و کاربرد های ان پیدا کرد. از جمله پزشکی، هوا فضا، تسلیحات نظامی، تشخیص صدا و گفتار و بسیاری از علوم مختلف دیگر.

اندروید

گوگل اعلام کرد که در حال تبدیل شدن و تغییر اولویت های خود از" Mobile first" به "AI-first" است. همچنین اعلام کرد که اقدام به راه اندازی یک سری جدید ابزارها و برنامه هایی که ایجاد برنامه های هوش مصنوعی را برای اندروید (Android) آسانتر می کنند. این ابزارهای جدید شامل Android Jetpack بودند. یکی از ابزارهای جالب موجود در Jetpack ، Slices نام دارد که قالب های UI را برای جستجوها و Google Assistant اضافه می کند. کیت جدید ML اکنون یادگیری دستگاه را به دستگاه های تلفن همراه منتقل می کند. API های پایه به سرویس های توسعه اندروید اجازه می دهد به راحتی ویژگی های شگفت انگیز مانند تشخیص چهره و برچسب زدن به تصویر را شامل شوند. در به روزرسانی های جدید Dialogflow، فناوری اساسی دستیار صوتی Google، به کاربران این امکان را می دهد تا بدون نیاز به گفتن "Hey, Google" هر بار با معاون مجازی خود مکالمه داشته باشند. در این بروزرسانی جدید، می توانید روال های سفارشی ایجاد کرده و چندین درخواست را در یک فرمان صوتی انجام دهید.

اپلیکیشن های موبایل

تکنیک های مدرن هوش مصنوعی بسیار گسترده هستند و در اینجا تعداد آنها بسیار زیاد است. غالبا، وقتی تکنیکی به جریان اصلی می رسد دیگر از هوش مصنوعی در نظر گرفته نمی شود. این پدیده به عنوان اثر هوش مصنوعی توصیف شده است. نمونه های برجسته هوش مصنوعی برنامه نویسی موبایل و اپلیکیشن ها مورد استفاده قرار گرفته است که شامل وسایل نقلیه خودران مانند هواپیماهای بدون سرنشین و اتومبیل های رانندگی، تشخیص های پزشکی، ایجاد هنر، اثبات قضایای ریاضی، انجام بازی ها مانند شطرنج و بازی های ویدیویی، موتورهای جستجو مانند جستجوی گوگل، دستیاران صوتی آنلاین مانند سیری و کرتانا، تشخیص چهره در عکس ها، فیلتر کردن اسپم، پیش بینی تاخیر در پرواز، پیش بینی تصمیم های قضایی و هدف قرار دادن تبلیغات آنلاین می باشد.

با رونق گرفتن سایت های رسانه های اجتماعی از تلویزیون به عنوان منبع خبر برای جوانان و سازمان های خبری که به طور فزاینده ای به تولید سیستم های رسانه های اجتماعی متکی هستند و توزیع می کنند، ناشران اصلی اکنون از فناوری هوش مصنوعی (AI) برای انتشار موثرتر داستان و ایجاد حجم بیشتر ترافیک استفاده می کنند.

رباتیک

رباتیک شاخه ای از فناوری است که به طراحی، ساخت، عملیات و کاربرد روبات ها و سیستم های کامپیوتری برای کنترل، فیدبک حسگرها و پردازش اطلاعات می پردازد. این فناوری ها با دستگاه های خودکاری سر و کار دارند که می‌توانند جانشین انسان در محیط ها یا روندهای تولیدی خطرناک شوند یا ظاهر، رفتار و درک انسانی را شبیه سازی کنند. بسیاری از روبات های امروزی از طبیعت الهام گرفته‌اند که به شاخه روباتیک مهم از بیولوژی مربوط می شوند. مفهوم ایجاد ماشین هایی که بتوانند خودکار کار کنند، به زمان های دور برمی گردد اما تحقیق روی عملیاتی کردن و کاربردهای احتمالی روبات ها از قرن بیستم آغاز شد.

پردازش زبان طبیعی (NLP)

پردازش زبان طبیعی (NLP) یکی از حوزه های علوم کامپیوتر، هوش مصنوعی و زبانشناسی است که به تعامل کامپیوتر و زبان انسان می پردازد. از این منظر پردازش زبان طبیعی به حوزه تعامل انسان و کامپیوتر مربوط می شود. بسیاری از چالش های پردازش زبان طبیعی به درک زبان طبیعی مربوط می شود یعنی ایجاد توانایی در کامپیوتر برای استخراج مفهوم ورودی زبان انسانی یا طبیعی. با وجود فعالیت های قدیمی تر، تاریخچه پردازش زبان طبیعی عموما در دهه ۱۹۵۰ آغاز شد.

کسب و کار

هوش مصنوعی (AI) در کسب و کار به سرعت به ابزاری رقابتی متداول تبدیل می شود. بدیهی است، شرکت ها در حال بحث و تبادل نظر در مورد جوانب مثبت و منفی AI هستند. از چت بابات های بهتر برای خدمات به مشتری گرفته تا تجزیه و تحلیل داده ها گرفته تا توصیه های پیش بینی، یادگیری عمیق و هوش مصنوعی در بسیاری از اشکال آنها توسط رهبران مشاغل به عنوان ابزاری اساسی تلقی می شود.

این امر هوش مصنوعی را در لیست کوتاهی از فناوری هایی قرار می دهد که شرکت ها باید به طور فعال در مورد چگونگی استفاده از آن تحقیق می کند. اگر مطمئن نیستید که AI آماده انجام تعداد و طیف وسیعی از وظایف است، عملکرد موفق IBM در واتسون (Watson AI) در سال 2011 را در Jeopardy در نظر بگیرید. یا روش های مختلفی را که احتمالاً در حال استفاده از دستگاه ها و خدمات با قابلیت AI در زندگی شخصی خود هستید، در نظر بگیرید، مانند برنامه های دستیار هوشمند یا دستگاه هایی مانند Alexa یا Apple Siri.

پیاده سازی هوش مصنوعی با زبان های برنامه نویسی

سیستم ها و الگوریتم های هوش مصنوعی را می توان با زبان های برنامه نویس متعددی پیاده سازی کرد. در اینجا به مهمترین موارد آن اشاره می کنیم:

هوش مصنوعی(AI) با پایتون

پایتون (Python) یکی از بهترین زبان ها برای کار روی پروژه های هوش مصنوعی است. این در هنگام ساختن نمونه های اولیه AI برای بسیاری از افراد یک انتخاب محبوب است. پایتون شامل کد نویسی بسیار ساده و سینتکس ساده در بین سایر زبان های برنامه نویسی است که می تواند برای توسعه برنامه های هوش مصنوعی مورد استفاده قرار گیرد. آزادانه تایپ کنید و زمان زیادی را در مورد رسیدگی به مسائل مربوط به تلفیق صرفه جویی کنید و بیشتر به مسئله واقعی توجه کنید. مهمترین مزیت استفاده از پایتون برای AI این است که همراه با کتابخانه های داخلی است. انجمن Python کتابخانه ها و افزونه های زیادی را مانند NumPy،SciPy،matplotlib،nltk،SimpleAI برای انجام کارهای متداول مورد استفاده در پروژه های هوش مصنوعی مانند نمودار رسم، پردازش داده ها و غیره به راحتی توسعه داده است. بسته های موجود در مورد شبکه های عصبی مصنوعی نیز وجود دارد. بیشتر توسعه دهندگان هوش مصنوعی پایتون را برای توسعه هوش مصنوعی پیشنهاد می دهند.

هوش مصنوعی(AI) با جاوا

جاوا انتخاب بسیار خوبی است. این یک زبان برنامه نویسی شی گرا است که در ارائه تمام ویژگی های سطح بالا مورد نیاز برای کار بر روی پروژه های هوش مصنوعی تمرکز دارد. قابل حمل است و مجموعه جمع آوری زباله داخلی را ارائه می دهد. هوش مصنوعی ارتباط نزدیکی با الگوریتم های جستجو، برنامه نویسی ژنتیک و استفاده از شبکه های عصبی مصنوعی دارد. جاوا در حوزه هوش مصنوعی ممکن است مفید باشد. برنامه نویسی هوش مصنوعی در جاوا دارای مزایای بسیاری است زیرا استفاده از آن و اشکال زدایی آسان است و تجسم را تسهیل می کند و تعامل کاربر بهتری دارد. یکی دیگر از دلایل برنامه نویسی هوش مصنوعی در جاوا، ترکیب Swing و SWT است. این ویژگی ها باعث می شود گرافیک و رابط ها جذاب و پیشرفته به نظر برسند. جاوا خوب است اما به سرعت ++C نیست.

هوش مصنوعی(AI) با سی پلاس پلاس

سی پلاس پلاس (++C) یک زبان برنامه نویسی شی گرا است و زبان های دیگری مانند C#.NET و جاوا را تحت تأثیر قرار داده است و آخرین نسخه C++، C بیشتر در مواردی که برنامه ساده است استفاده می شود و سرعت اجرای آن مهمترین است. ++C هنوز خیلی سریعتر از جاوا است. تکنیک های آماری هوش مصنوعی مانند شبکه های عصبی نمونه های متداولی از این امر هستند. توانایی کد نویسی در سطح سخت افزار به توسعه دهندگان این امکان را می دهد تا زمان اجرای برنامه خود را بهبود بخشند. ++C برای پروژه های هوش مصنوعی بسیار مفید است. الگوریتم ها برای اجرای سریع در ++C نوشته شده اند. هوش مصنوعی در بازی ها بیشتر در ++C به علت زمان اجرا و پاسخ سریع کدگذاری می شود.

هوش مصنوعی (AI) با متلب

نرم افزار متلب در طراحی مدل های هوش مصنوعی و سیستم های مبتنی بر هوش مصنوعی کاربرد دارد. با استفاده از MATLAB، مهندسین و سایر متخصصان، هزاران برنامه کاربردی را برای یادگیری ماشین مستقر کرده اند. فقط با چند خط کد MATLAB، می توانید تکنیک های یادگیری عمیق را برای کار خود بکار گیرید، چه الگوریتم هایی را طراحی کنید، چه آماده سازی و برچسب زدن داده ها یا ایجاد کد و استفاده از سیستم های جاسازی شده. MATLAB با دستیابی به داده ها و پیش پردازش داده ها، ساختن مدل های یادگیری ماشین و مدل های پیش بینی کننده و ایجاد مدل ها در سیستم های IT، علوم داده را آسان می کند.

با استفاده از ابزارها و کارکردهای مدیریت مجموعه کلان داده، MATLAB جعبه ابزارهای ویژه ای را برای کار با یادگیری ماشین، شبکه های عصبی، یادگیری عمیق، بینایی رایانه ای و رانندگی خودکار ارائه می دهد. تنها با چند خط کد، متلب به شما امکان می دهد شبکه های عصبی را بدون اینکه متخصص باشید، توسعه دهید. می توانید مدل ها را ایجاد و ویژوال سازی کنید و مدل ها را به سرورها و دستگاه های تعبیه شده مستقر کنید. با MATLAB، می توانید نتایج را در برنامه های موجود خود ادغام کنید. MATLAB با استفاده از مدل های شبکه عصبی شما بر روی سیستم های سازمانی، کلاستر ها، ابرها و دستگاه های تعبیه شده به طور خودکار اقدام می کند.

هوش مصنوعی(AI) در دات نت

خدمات شناختی انواع مختلفی از مدل های از پیش ساخته را ارائه می دهد که به راحتی می توانند هوش مصنوعی و ماشین یادگیری را در برنامه های دات نت ادغام کنند. الگوریتم های API اوپن سورس قدرتمند و رایگان مانند Vision، دانش، زبان، گفتار و جستجو وجود دارد که توسط برنامه نویسان C#.NET در برنامه ها در هنگام و کجا مورد نیاز می توانید استفاده کنید.

در صورت نیاز به مشاوره در طراحی و بکارگیری هوش مصنوعی در سازمان خود درخوست خود را از طریق پیام یا پست الکترونیک ارسال نمائید.

https://a-hashemi.blogsky.com/


هوش مصنوعیartificial intelligenceتاریخچه هوش مصنوعیHistory of artificial intelligence
محقق ، پژوهشگر و کارشناس حوزه فناوری اطلاعات، تجارت الکترونیک، بانکداری الکترونیک و بیمه گری دیجیتال
شاید از این پست‌ها خوشتان بیاید