سلام بر همه ی شما دوستداران تکنولوژی و مخصوصا فعالان و علاقمندان حوزه ی دیجیتال مارکتینگ و سئو . من "حسین طاهری" هستم مدرس و مجری پروژه های دیجیتال مارکتینگ و سئو و در این نوشتار دومین قسمت از هرم نیازهای مازلو در دنیای سئو را با یکدیگر برسی خواهیم کرد . برای مطالعه ی مقدمه ی سلسله مباحث به این لینک و همچنین برای مطالعه ی قسمت اول سلسله نیاز های هرم مازلو برای سئو کاران به این لینک مراجعه نمایید .
همانطور که در قسمت اول تشریح کردیم امروزه موتورهای جست و جو در واقع موتورهای پاسخگو هستند . برای درک بهتر نیاز کاربر و ارائه بهترین پاسخ به این نیاز ضروری ترین عملی که باید انجام شود دسترسی به محتوی وب سایت شما میباشد اگر این کار انجام نشود هیچ راهی برای قرار گرفتن وب سایت شما در فهرست نتایج جست و جوی گوگل وجود ندارد .
خزیدن درواقع فرآیند کشف و استخراجی است که توسط موتورهای جست و جو توسط عده ای از سربازان به نام خزنده ها یا crawl ها انجام میشود و تمام محتوی قابل دسترسی وب سایت ائم از محتوی متنی و عکس و ویدئو و حتی pdf را مورد برسی قرار داده و طبقه بندی میکند .
هنگامی که شخصی جست و جویی انجام میدهد موتورهای جست و جو شروع به پردازش و ارائه اطلاعاتی که از قبل طبقه بندی شده است میکنند و در این میان اطلاعاتی که از وب سایتهای معتبر دریافت و طبقه بندی شده بعنوان نتایج به کاربر ارائه میشود .
برای اینکه مطمئن شوید وب سایت شما توسط موتورهای جست و جو و در واقع توسط خزنده ها مورد برسی قرار گرفته یا خیر میتوانید از ترفند زیر استفاده کنید و عبارت زیررا در کادر جست و جوی موتور جست و جو تایپ نمایید .
site:yourdoamin.com
با تایپ این عبارت در کادر جست و جو تمام لینکها و صفحات دخیره شده وب سایت شما توسط موتورهای جست و جو نمایش داده میشود .
هرچند نتایج فوق ممکن است چندان دقیق نباشند اما یک گزارش کلی از صورت وضعیت وب سایت شما ارائه میدهد .
در هر صورت اگر با انجام اعمال فوق هیچ نتیجه ای عاید شما نشد باید موارد زیر را برسی کنید :
برای اینکه وب سایت شما بهتر توسط موتورهای جست و جو و خزنده ها مورد برسی قرار بگیرد لازم است روشهایی را بکار بگیرید تا دسترسی خزنده ها به محتوی وب سایت شما تسهیل شود . اگر از ترفند site:yourdomain.com استفاده کرده باشید حتما متوجه شده اید که ممکن است برخی صفحات بی اهمیت در وب سایت شما توسط خزنده ها مورد جست و جو قرار گرفته باشد یا اینکه یکسری صفحات مهم با محتوی ارزشمند اصلا مورد برسی قرار نگرفته باشند . اما راه حل این موضع چیست ؟ راه حل بکارگیری یک روش تکنیکی و فنی است . برای حل این مشکل میتوانید از فایل robots.txt وب سایت خود استفاده کنید .
فایل robots.txt شامل کدها و دایرکتورهایی است که با رباتهای گوگل تعامل کرده و به آنها میگوید کدام صفحات وب سایت باید مورد برسی قرار بگیرد و کدامیک نیازی به برسی ندارد .
موتورهای جست و جو باید مطمئن شوند که وقتی کاربری عبارتی را سرچ میکند مرتبط ترین و با کیفیت ترین محتوا را دریافت میکند و برای این کار از یکسری الگوریتم استفاده میکند الگوریتمهای گوگل بسیار متنوع هستند و کسی از جزئیات دقیق آنها اطلاعی ندارد مگر اینکه خود کمپانی اقدام به ثبت و انتشار این الگوها کند مثل الگوی پاندا یا مرغ مرگس خوار البته این الگوها در طی سالیان به دفعات متعدد تغییر و تکامل پیدا کرده اند .
مبحث نقش لینکها و انواع لینک در سئو بسیار مفصل میباشد که طی مقالات جداگانه ای به شرح و توضیح هریک خواهیم پرداخت ولی بطور خلاصه میتوانیم بگوییم لینکه در استراتژی و مباحث سئو بر دو نوع میباشند یکی لینکهای داخلی و دیگری لینکهای خارجی .
لینکهای داخلی بین صفحات مختلف وب سایت شما رد و بدل میشوند ئ زمان ماندگاری کاربر در وب سایت شما را افزایش داده و علاوه بر بهبود کیفیت محتوا باعث افزایش اعتبار در معیارهای طبقه بندی موتورهای جست و جو میشود در حالیکه لینکهای خارجی در وب سایتهای دیگر ثبت میشوند و یکی از مهمترین و موثر ترین فاکتورها در رده بندی وب سایت شما در میان موتورهای جست و جو میباشد .
دومین قسمت از تشریح سلسله نیازهای هرم مازلو برای سئو کاران توسط اینجانب " حسین طاهری" برای شما مخاطبین عزیز تشریح گردید . برای پیگیری این مبحث ما را دنبال کنید .
اگر شما هم از علاقمندان یادگیری خلاق و هدفمند دیجیتال مارکتینگ هستید با شرکت در دوره آنلاین بازاریابی دیجیتال که توسط جناب آقای عادل طالب در حال برگزاری است میتوانید به اوج قله های دانش و مهارت مدرن دیجیتال مارکتینگ دست پیدا کنید . برای ثبت نام با استفاده از تخفیف از لینک زیر استفاده کنید : https://ffo.ir/au/38329