ویرگول
ورودثبت نام
Mohammad Shokoohi
Mohammad Shokoohiیک هنرمندِ عاشق تکنولوژی...
Mohammad Shokoohi
Mohammad Shokoohi
خواندن ۱۰ دقیقه·۸ ماه پیش

نصب و راه‌اندازی Ollama روی ویندوز و GPUهایی که پشتیبانی نمی‌شوند!

ما در دوره‌ای زندگی می‌کنیم که تب و تاب استفاده از مدل‌های هوش مصنوعی به شدت داغ است و همه از این مدل‌ها صحبت می‌کنند. همچنین باید توجه داشت که اجرای یک مدل زبانی بزرگ نیاز به منابع سخت‌افزاری قابل توجه‌ای دارد و روی اکثر کامپیوترهایی که ما در خانه یا محل کار داریم ممکن است اجرای آن‌ها با چالش‌هایی از جمله پر شدن حافظه‌ی RAM و عدم پشتیبانی از کارت گرافیک (GPU) و ... روبرو شود که همه‌ی این موارد می‌تواند باعث اجرای کند و بعضا سخت این مدل‌ها روی کامپیوترهای ضعیف شوند که در تجربه‌ی کاربری نهایی ما از این مدل‌ها تاثیر منفی خواهد داشت.

هدف من در این آموزش، معرفی مدل‌های بزرگ هوش مصنوعی نیست و فرض من بر این است که شما اطلاعات اولیه‌ای از LLMها دارید. همچنین قصد دارم که به شما کمک کنم که در صورتی که یک کامپیوتر قابل قبول دارید اما کارت گرافیک آن پشتیبانی نمی‌شود، شانس خود را برای راه‌اندازی کارت گرافیک روی Ollama امتحان کنید تا کامپیوتر شما بتواند پردازش‌های هوش مصنوعی را با سرعت بیشتری انجام دهد و یک تجربه‌ی قابل قبول را برای شما به همراه داشته باشد.

توجه: این آموزش برای Ollama نسخه‌ی ویندوز آماده شده است.


مرحله‌ی اول نصب Ollama:

نرم‌افزار Ollama یک ابزار متن‌باز است که به کاربران امکان اجرای مدل‌های زبانی بزرگ (LLM) روی دستگاه‌های شخصی را می‌دهد. این نرم‌افزار به شما اجازه می‌دهد بدون نیاز به اینترنت یا سرورهای قدرتمند، از مدل‌های هوش مصنوعی مانند Llama استفاده کنید.

برای نصب این برنامه ابتدا به وب‌سایت این برنامه مراجعه کنید، با توجه به محدودیت دسترسی برای IPهای ایرانی بهتر است از سرویس‌های DNS یا یک ابزار مناسب استفاده کنید:

https://ollama.com

بعد از ورود به سایت، روی دانلود کلیک کنید تا به صفحه‌ انتخاب سیستم‌عامل هدایت شوید.

در این بخش ویندوز را انتخاب و Ollama را دانلود کنید.

حجم دانلودی نرم‌افزار حدودا 970 مگابایت تا 1 گیگابایت است. پس از دانلود، نصاب این برنامه را اجرا و مراحل نصب که خیلی ساده و بدون پیچیدگی است را جلو ببرید تا Ollama نصب شود.


بررسی صحت عملکرد Ollama

با توجه به اینکه ویندوز دارای چند محیط خط فرمان است، بسته به دلخواه CMD یا PowerShell را اجرا کنید و دستور زیر را در آن بنویسید:

ollama

نتیجه باید چنین چیزی باشد:

اگر نتیجه چیزی غیر از این بود، یک‌بار محیط خط فرمان را کامل ببنید و مجدد آن را اجرا و دستور بالا را بنویسد، اگر باز هم نتیجه مثل تصویر نبود، بهتر است که یک‌بار دیگر با دقت Ollama را حذف و نصب کنید و جهت اطمینان یک‌بار کامپیوتر را Restart کرده و مجدداً تلاش کنید.


دانلود یک مدل برای شروع به کار و تست پشتیبانی Ollama از GPU

حال بهتر است که یک مدل دانلود و اجرا کنیم تا از صحت عملکرد Ollama و همچنین پشتیبانی یا عدم پشتیبانی آن از GPU مطمئن شویم.

برای شروع بهتر است که یکی از مدل‌های سبک و با پارامتر کم، مثلا 1 تا 3 میلیارد پارامتر را انتخاب کنیم، مثل مدل‌های Gemma3 1B یا Llama3.1 یا مشابه آن را دانلود کنید.

برای این‌کار وارد سایت Ollama شوید و سپس از بخش Models یکی از مدل‌ها را انتخاب کنید. من در اینجا مدل Gemma3 1B را انتخاب می‌کنم.


حال از بخش 3، دستور مربوط به نصب این مدل را کپی و در خط فرمان قرار می‌دهم تا نصب شود. این فرایند بسته به سرعت اینترنت ممکن است از چند ثانیه تا چند دقیقه زمان ببرد.

بعد از دانلود و راه‌اندازی مدل، در خط فرمان خواهید دیک که Ollama مدل را اجرا کرده و آماده‌ی گرفتن پرامپت است. با نوشتن دستور زیر میتوانید از محیط پرامپت‌ نویسی خارج شوید:

/bye

قبل از اینکه به بررسی پشتیبانی یا عدم پشتیبانی Ollama از GPU برسیم، ابتدا از قسمت System Tray ویندوز سرویس Ollama را با گزینه‌ی Quit Ollama ببندید تا دستورات بعدی که قرار است وارد کنید کار کنند و Error ندهند.


بررسی پشتیبانی از GPU

برای بررسی اینکه آیا Ollama از گرافیک AMD شما پشتیبانی می‌کند یا خیر این دستور را تایپ کنید:

ollama serve

سپس خطوطی که نوشته می‌شوند را بررسی کنید تا به خطی برسید که توضیحاتی مربوط به کارت گرافیک را داده است. اگر گرافیک شما پشتیبانی شود، باید چنین پیامی را داشته باشید:

اگر گرافیک شما پشتیبانی شود، میتوانید با خیال راحت از مدل‌های هوش مصنوعی استفاده کنید و مطمئن باشید که بخش اعظم بار پردازشی روی کارت‌گرافیک کامپیوتر شما خواهد بود و سرعت به مراتب بالاتر و تجربه‌ی باکیفیت‌تری خواهید داشت.

ولی اگر با پیام‌هایی مبنی بر عدم پشتیبانی از کارت‌گرافیک روبرو شدید بهتر است که طبق دستور العمل زیر مراحل را طی کنید تا Ollama بتواند از کارت گرافیک شما برای پرادازش‌های هوش مصنوعی استفاده کند.

رفع مشکل عدم پشتیبانی از کارت‌های گرافیک AMD

برای اینکه بدانید کد GPU کارت‌گرافیک شما چیست به این لینک مراجعه کنید و ببینید مدل گرافیک شما در مقابل کدام کد نوشته شده است. برای مثال سری گرافیک‌های AMD RX 5700 و AMD RX 5700 XT کد مقابل آنها در ستون GPU Arches این کد gfx1010 است.

ابتدا این کد را برای مدل گرافیکی که دارید پیدا کنید تا در ادامه به سادگی بتوانید به فایل‌های درست دسترسی داشته باشید.

بعد از پیدا کردن کد GPU، باید موارد مورد نیاز را یک به یک دانلود، نصب و راه‌اندازی کنیم.


مرحله‌ی اول، به‌روز رسانی درایور کارت گرافیک

ابتدا آخرین نسخه‌ی درایور کارت گرافیک را دانلود و نصب کنید. این‌کار به شما اطمینان می‌دهد که می‌توانید ادامه‌ی کار را با کمترین مشکل به‌پیش ببرید.

مرحله‌ی دوم، نصب AMD ROCm™ Software

ابزار ROCm یک نرم‌افزار متن‌باز از شرکت AMD است که شامل مدل‌های برنامه‌نویسی، ابزارها، کامپایلرها، کتابخانه‌ها و محیط‌های اجرایی برای توسعه‌ی راه‌حل‌های هوش مصنوعی و پردازش با عملکرد بالا (HPC) روی پردازنده‌های گرافیکی این شرکت می‌باشد. ROCm به‌طور ویژه برای هوش مصنوعی مولد و برنامه‌های HPC بهینه‌سازی شده است و امکان مهاجرت کدهای موجود را از پلتفرم‌های دیگر به این پلتفرم به‌راحتی فراهم می‌کند.

در زمان نگارش این مقاله برای این آموزش، نسخه‌های 6.2.4 و 5.7.1 سازگاری کاملی به جهت راه‌اندازی GPUهای پشتیبانی نشده دارند.

اگر میخواهید بسته به اینکه چه نسخه‌ی جدیدی برای این‌کار مناسب است، به مرحله‌ی بعدی بروید و در آنجا مشخص خواهد بود که ابزارهای بعدی با چه نسخه‌ای سازگار هستند و شما به این مرحله باز گردید و نسخه‌ی جدید سازگار را دانلود کنید.

برای دانلود ابزار HIP SDK که شامل پیشنیازهای ROCm و باقی موارد می‌شود، ابتدا وارد این لینک شوید و سپس بسته به اینکه از ویندوز 10/11 استفاده می‌کنید یا ویندوز سرور یکی از نسخه‌های سازگار و یکسان با ROCmlibs را دانلود کنید.

مرحله‌ی سوم، دانلود فایل‌های اصلاح شده GPU

ابتدا وارد این لینک شوید و سپس به بخش دوم راهنمای نصب یعنی Update ROCm Libraries رفته و در آنجا یک یا دونسخه از پچ‌های مربوط به راه‌اندازی GPU وجود دارد که با نام‌هایی مانند ROCmlibs for 6.2.4 و مشابه آن مشخص شده‌اند.

بسته به نسخه‌ای که از HIP SDK نصب کرده‌اید و یا اینکه با توجه به محدودیت‌هایی که ممکن است در آینده پیش بیایید، بهتر است که نسخه‌ی ROCmlibs و HIP SDK یکسان باشد. پس در انتخاب این دو مورد دقت زیادی داشته باشید.

حال وارد لینک ROCmlibs for 6.2.4 یا نسخه‌های دیگر آن شوید و از بخش Assets نسخه‌ی مطابق با کد GPU خود را دانلود کنید.

نکته: این بخش برای هر کد GPU دو نسخه از پچ را برای دانلود قرار داده است. نسخه‌ی -xnack و نسخه‌ی -no xnack که بهتر است شما هر دو نسخه را دانلود کنید و داشته باشید.

اینکه xnack چیست خود نیاز به یک مقاله‌ی جداگانه دارد که بی‌شک در رفرنس‌های فارسی به این موضوع آنچنان که باید پرداخته نشده است، ولی به صورت کلی یک قابلیت در GPUها و APUهای شرکت AMD است که به پردازنده‌ی گرافیکی اجازه‌ی مدیریت اطلاعات در RAM یا حافظه‌ی مجازی را می‌دهد. البته این قابلیت در اغلب کارت‌های گرافیکی AMD ممکن است غیر فعال باشد.

پینشهاد می‌کنم که اگر از گرافیک‌های سری RX 4xx و RX 5xx و همچنین سری RX 5xxx استفاده می‌کنید، از پچ -no xnack استفاده کنید. همچنین برای اطمینان از اینکه GPU شما آیا از xnack پشتیبانی می‌کند یا خیر می‌توانید به این مسیر بروید:

C:\Program Files\AMD\ROCm\6.2\bin

نکته: به‌جای شماره‌ی 6.2 باید با توجه به نسخه‌ی HIP SDK این مورد اصلاح شود.

سپس یک خط فرمان در این مسیر باز کنید و این دستور را بنویسید و کلید اینتر را بفشارید:

.\hipInfo.exe

باید چنین اطلاعاتی به شما نمایش داده شود:

برای من در بخش gcnArchName نوشته شده -gfx1010:xnack که یعنی GPU کارت گرافیک کامپیوتر من میتواند از -xnack استفاده کند. ممکن است که برای برخی مدل‌ها +xnack نوشته شده باشد که این یکی دیگر از Modeهای این قابلیت است.

نکته بسیار مهم: با اینکه برای من نوشته شده که از -xnack پشتیبانی می‌شود، ولی در حین فعال سازی GPU نتوانستم که با فایل‌های مربوط به این حالت، در Ollama بار پردازشی را روی GPU قرار دهم و مجبور به استفاده از فایل‌های -no xnack شدم. پس شما هم اگر دیدید که با یک حالت GPU راه‌اندازی نمی‌شود، با حالت دیگر نیز تست کنید تا به احتمال خیلی زیاد GPU برای شما نیز راه‌اندازی شود.

مرحله‌ی چهارم، جایگزینی فایل‌های اصلاح شده

در این مرحله باید فایل‌های دانلود شده را جایگزین فایل‌های قبلی در Ollama یا ابزارهایی که از Ollama استفاده می‌کنند مانند نرم‌افزار Msty کنیم. هیچ تفاوتی بین فایل‌های -xnack و -no xnack در این مرحله نیست و هر دو به یک شکل انجام می‌شوند. پس فارغ از اینکه کدام نسخه را دانلود کرده‌اید این کار را انجام دهید.

ابتدا وارد مسیر نسب نرم‌افزار Ollama و پوشه‌ی rocm شوید:

C:\Users\%USERNAME%\AppData\Local\Programs\Ollama\lib\ollama\rocm

** به‌جای %USERNAME% نام کاربری ویندوز خود را وارد کنید. **

حال فایل rocblas.dll موجود در پچ دانلود شده را جایگزین فایل قبلی در پوشه‌ی rocm کنید.

سپس وارد پوشه‌ی rocblas در مسیر بالا شوید و در آن یک پوشه‌ی دیگر به نام library خواهید دید که بهتر است آن را پاک کنید و پوشه‌ی library موجود در پچ دانلود شده را جای آن کپی کنید.

البته طبق برخی منابع گفته شده که میتوانید پوشه‌ی library پچ را با پوشه‌ی library پیشفرض Ollama ادغام کنید ولی چنین کاری را پیشنهاد نمی‌کنم. چون در رفرنس اصلی این مقاله تاکید شده که پوشه‌ی library پیشفرض Ollama را باید پاک کنید.

بعد از انجام این مراحل کار تمام است و باید بررسی کنید که آیا Ollama از GPU کامپیوتر شما پشتیبانی می‌کند یا خیر. اگر تمام مراحل را به درستی پیش رفته باشید، به احتمال خیلی زیاد میتوانید GPU را فعال کنید ولی کماکان احتمال این موضوع وجود دارد که در آینده برخی از گرافیک‌های قدیمی‌تر دیگر نتوانند به خوبی با این پچ کار کنند.


نکات تکمیلی

برای به‌روز رسانی Ollama به نسخه‌های جدیدتر، بعد از اعمال این پچ بهتر است که از فایل رسمی Ollama استفاده نشود و از این لینک در بخش Assets آخرین نسخه‌ی موجود را دانلود و جایگزین نسخه‌ی قبلی کنید تا پچ شما از کار نیافتد.

همچنین بهتر است که از مدل‌های هوش مصنوعی استفاده کنید که حجم‌شان برابر یا نصف حجم vRam کارت گرافیک باشند. چرا که با افزایش حجم مدل و تعداد پارامترهای آن ممکن است کامپیوتر و GPUی شما از پس پردازش حجیم مدل‌هایی با میزان پارامتر بالا بر نیاید.

پیشنهاد من به شما به این شکل است:

پردازنده تا 8 هسته، Ram تا 32 گیگ و گرافیک تا 8 گیگابایت vRam => مدل‌هایی 0.5 تا 10 میلیارد پارامتر
پردازنده تا 16 هسته، Ram تا 64 گیگ و گرافیک تا 16 گیگابایت vRam => مدل‌هایی تا 20 میلیارد پارامتر
پردازنده تا 32 هسته، Ram تا 128 گیگ و گرافیک تا 24 گیگابایت vRam => مدل‌هایی تا 30 میلیارد پارامتر

نکته: این پیشنهاد‌ها به شکل تقریبی هستند و ممکن است بسته به مدل هوش مصنوعی و موارد دیگر پردازش این تعداد پارارمتر برای هر کدام از این رنج‌های پیشنهادی متفاوت باشد.

امیدوارم که این آموزش بتواند به شما در پیشبرد اهدافتان در زمینه‌ی هوش مصنوعی کمک کرده باشد، اگر این مطلب برای شما مفید بود، خوشحال می‌شوم من را در کافیته یا دارمت به یک قهوه مهمان کنید و به من برای تولید محتوای بهتر و قوی‌تر انگیزه دهید.

هوش مصنوعیمدل‌های زبانیchatgptآموزش
۱۰
۳
Mohammad Shokoohi
Mohammad Shokoohi
یک هنرمندِ عاشق تکنولوژی...
شاید از این پست‌ها خوشتان بیاید