چرا ترافیک وبسایت خود را از دست می‌دهید؟

شکل ۱. گوگل
شکل ۱. گوگل
منتشر‌شده در searchenginejournal به تاریخ ۲۱ مارس ۲۰۲۱
لینک منبع The 5 Most Common Google Indexing Issues by Website Size

تعجب می‌کنید که چرا ترافیک خود را از دست می‌دهید؟ در اینجا ۵ مورد از رایج‌ترین مسائلی که گوگل را از ایندکس کردن صفحه وب شما منع می‌کند، به تفکیک اندازه سایت، آورده شده است.

گوگل در مورد این واقعیت واضح است که تمام صفحاتی که می‌تواند پیدا کند را فهرست نمی‌کند. با استفاده از کنسول جستجوی گوگل، می‌توانید صفحات وبسایت خود را که ایندکس نشده‌اند ببینید. کنسول جستجوی گوگل همچنین اطلاعات مفیدی در مورد موضوعی خاص به شما می‌دهد که از ایندکس شدن یک صفحه جلوگیری می‌کند.

این مسائل شامل خطاهای سرور، ۴۰۴ ، و اشاراتی است که صفحه ممکن است محتوای کم یا تکراری داشته باشد. اما ما هرگز نمی‌توانیم هیچ داده‌ای را ببینیم که نشان دهد کدام مشکلات در کل وب بیش‌ترین شیوع را دارند. بنابراین من تصمیم گرفتم که داده‌ها را جمع‌آوری کنم و آمار را خودم جمع‌آوری کنم!

در این مقاله، ما متداول‌ترین مسائل نمایه‌سازی را بررسی خواهیم کرد که از نمایش صفحات شما در جستجوی گوگل جلوگیری می‌کنند.

ممکن است علاقمند به مطالعه مقاله چگونه صفحه اول وبسایت را طراحی کنیم که باعث افزایش فروش و جذب ترافیک شود؟ باشید.

ایندکسینگ ۱۰۱

شاخص‌گذاری مانند ساخت یک کتابخانه است، فقط به جای کتاب گوگل با وبسایت‌ها سر و کار دارد. اگر می‌خواهید که صفحات شما در جستجو ظاهر شوند، باید به درستی فهرست بندی شوند. به بیان لیمن، گوگل باید آن‌ها را پیدا کند و آن‌ها را ذخیره کند. سپس، گوگل می‌تواند محتوای خود را تجزیه و تحلیل کند تا تصمیم بگیرد که برای چه پرسوجوهایی ممکن است مناسب باشند.

شاخص‌گذاری یک پیش‌نیاز برای دریافت ترافیک ارگانیک از گوگل است. و همانطور که صفحات بیشتری از وبسایت شما ایندکس می‌شوند، شما شانس بیشتری برای ظاهر شدن در نتایج جستجو دارید. به همین دلیل است که دانستن این که آیا گوگل می‌تواند محتوای شما را مشخص کند، برای شما بسیار مهم است.

این کاری است که من برای شناسایی مسائل شاخص انجام دادم. کارهای روزمره من شامل بهینه‌سازی وبسایت‌ها از نقطه‌نظر فنی سئو است تا آن‌ها را در گوگل بیشتر قابل‌مشاهده کند و در نتیجه، من به ده‌ها سایت در کنسول جستجوی گوگل دسترسی دارم. من تصمیم گرفتم از این روش استفاده کنم تا بتوانم امیدوار باشم که مشکلات ایندکس‌سازی شایع، کم‌تر شایع باشند. برای شفافیت، من روش کار را عوض کردم که مرا به نتایج جالبی رساند.

روش‌شناسی

من با ایجاد یک نمونه از صفحات شروع کردم، و داده‌ها را از دو منبع ترکیب کردم:


من از داده‌های مشتریان‌مان استفاده کردم که به راحتی در دسترس من بودند.

هر دو منبع مفیدی از اطلاعات را به اثبات رساندند.

حذف صفحات غیر‌مستقل

به نفع شماست که برخی از صفحات را از فهرست خارج کنید. این موارد شامل URL های قدیمی، مقالاتی که دیگر مرتبط نیستند، پارامترهای فیلتر در تجارت الکترونیک، و غیره هستند. وبمسترها می‌توانند مطمئن شوند که گوگل آن‌ها را به چند روش نادیده می‌گیرد، از جمله فایل robot s.txt و تگ noindex.

در نظر گرفتن چنین صفحاتی به طور منفی بر کیفیت یافته‌هایم تاثیر می‌گذارد، بنابراین من صفحاتی را حذف کردم که هر یک از معیارهای زیر را به عنوان نمونه داشتند:

  • توسط robot s.txt بلاک شده بودند.
  • به عنوان شاخص شناخته می‌شد.
  • صفحه Redirected شده بود.
  • یک کد وضعیت HTTP ۴۰۴ نشان می‌دادند.

حذف صفحات غیر‌ارزشمند

برای بهبود بیشتر کیفیت نمونه خود، من تنها آن صفحاتی را در نظر گرفتم که در نقشه‌های سایت گنجانده شده‌اند. بر اساس تجربه من، نقشه‌های سایت واضح‌ترین نمایشURL های ارزشمند از یک وبسایت داده شده هستند. البته، وبسایت‌های زیادی وجود دارند که در نقشه‌های سایت خود محتوای بلااستفاده (بی‌مصرف و آشغال) دارند. برخی حتی آدرس‌های مشابه را در نقشه‌های sitemaps و فایل‌های robots.txt خود قرار می‌دهند.

اما من در مرحله قبلی به آن دقت کردم.

دسته‌بندی داده‌ها

من متوجه شدم که مسائل شاخص‌گذاری شایع، بسته به اندازه یک وبسایت متفاوت است. این روشی است که من داده‌ها را از هم جدا می‌کنم:

  • وبسایت‌های کوچک (تا ۱۰ k صفحه).
  • وبسایت‌های متوسط (از ۱۰ k تا ۱۰۰ k صفحه).
  • وبسایت‌های بزرگ (تا یک میلیون صفحه).
  • وبسایت‌های عظیم (بیش از ۱ میلیون صفحه).

به دلیل تفاوت در اندازه وبسایت‌ها در نمونه من، من باید راهی برای نرمال کردن داده‌ها پیدا می‌کردم. یکی از وبسایت‌های بسیار بزرگ که با یک مسئله خاص دست و پنجه نرم می‌کند می‌تواند بر مشکلات دیگر غلبه کند، که وبسایت‌های کوچک‌تر ممکن است داشته باشند. بنابراین من به هر وبسایت به صورت جداگانه نگاه کردم تا موضوعات شاخص‌بندی که آن‌ها با آن دست و پنجه نرم می‌کنند را دسته‌بندی کنم. سپس نکاتی را به موضوعات شاخص‌گذاری بر اساس تعداد صفحاتی اختصاص دادم که تحت‌تاثیر یک موضوع مشخص در یک وبسایت قرار گرفتند.

و این فرمان این است …

اینها پنج موضوع اصلی هستند که من در وبسایت‌های با اندازه‌های مختلف پیدا کردم.

۱. کراول - در حال حاضر فهرست‌بندی نشده‌اند (مشکل کیفیت).

۲. محتوای تکرار شده.

۳. کشف شده-در حال حاضر شاخص‌گذاری نشده است (مسئله بودجه / کیفیت کراول).

۴. سافت ۴۰۴. (Soft 404)

۵. مسئله خزیدن (Crawl).

بیایید اینها را از هم بشکافیم.

مطالعه مقاله ۱۸ مشکل سئو که باعث ترافیک کمتر و افت میزان جستجو می‌شود توصیه می‌شود.

کیفیت

مسائل مربوط به کیفیت شامل این است که صفحات شما از نظر محتوا کم، گمراه‌کننده و یا بیش از حد متعصب هستند. اگر صفحه شما محتوای منحصر به فرد و ارزشمندی که گوگل می‌خواهد به کاربران نشان دهد را ارائه ندهد، شما راه سختی برای نمایه کردن آن خواهید داشت (و نباید شگفت‌زده شوید).

محتوای تکراری

گوگل ممکن است برخی از صفحات شما را به عنوان محتوای تکراری تشخیص دهد، حتی اگر شما قصد انجام این کار را نداشته باشید. یک موضوع رایج، برچسب‌های کانونیکال هستند که به صفحات مختلف اشاره می‌کنند. نتیجه این است که صفحه اصلی ایندکس نمی‌شود. اگر محتوای تکراری دارید، از مشخصه برچسب کانونیکال یا یک ریدایرکت ۳۰۱ استفاده کنید.

این کار به شما کمک خواهد کرد تا مطمئن شوید که صفحات مشابه در سایت شما برای دیدگاه‌ها، کلیک‌ها، و لینک‌ها با یکدیگر رقابت نمی‌کنند.

بودجه کراول

بودجه کراول چیست؟ بر اساس چندین عامل، Googlebot تنها مقدار مشخصی از URL ها را بر روی هر وبسایت رها می‌کند. این به این معنی است که بهینه‌سازی حیاتی است؛ اجازه ندهید وقت خود را در صفحاتی که برای شما مهم نیستند تلف کند.

نرم ۴۰۴ (Soft 404s)

خطای ۴۰۴ به معنای آن است که شما یک صفحه حذف شده یا ناموجود برای نمایه‌سازی ارسال کرده‌اید. خطای ۴۰۴ اطلاعات «پیدا نشد» را نشان می‌دهد، اما کد وضعیتHTTP ۴۰۴ را به سرور برنگردانید. تغییر جهت صفحات حذف‌شده به دیگران که بی‌ربط هستند یک اشتباه رایج است.

چندین تغییر مسیر نیز ممکن است به صورت سافت ۴۰۴خطا ظاهر شوند. سعی کنید تا جای ممکن زنجیرهای خود را کوتاه کنید.

مسئله کراول

مسائل کراول زیادی وجود دارند، اما یکی از مسائل مهم در رابطه با robot s.txt است. اگر Googlebot یک robot s.txt را برای سایت شما پیدا کند اما نتواند به آن دسترسی پیدا کند، سایت را به هیچ وجه کراول نمی‌کند. در نهایت، بیایید به نتایج برای اندازه‌های مختلف وبسایت‌ها نگاهی بیندازیم.

وبسایت‌های کوچک

اندازه نمونه: ۴۴ سایت

۱. کراول -در حال حاضر فهرست‌بندی نشده است (مسئله کیفیت یا بودجه در حال پیشرفت).

۲. محتوای تکراری

۳. مسئله بودجه کراول.

۴. سافت ۴۰۴.

۵. مسئله کراول.

وبسایت‌های متوسط

اندازه نمونه: ۸ سایت

۱. محتوای تکراری.

۲. کشف شده - در حال حاضر نمایه‌گذاری نشده است (مسئله بودجه / کیفیت).

۳. کراول - در حال حاضر شاخص‌گذاری نشده است (موضوع کیفیت).

۴. سافت ۴۰۴

۵. مسئله کراول.

وبسایت‌های بزرگ

اندازه نمونه: ۹ سایت

۱. کراول - در حال حاضر شاخص‌گذاری نشده است (موضوع کیفیت).

۲. کشف شده - در حال حاضر نمایه‌گذاری نشده است (مسئله بودجه کراول/ کیفیت).

۳. محتوای تکراری

۴. سافت ۴۰۴.

۵. مسئله کراول.

وبسایت‌های عظیم

اندازه نمونه: ۹ سایت

۱. کراول - در حال حاضر شاخص‌گذاری نشده است (موضوع کیفیت).

۲. کشف شده - در حال حاضر نمایه‌گذاری نشده است (مسئله بودجه کراول/ کیفیت).

۳. محتوای تکراری (کپی، آدرس ارسالی به عنوان کانونیکال انتخاب نشده است).

۴. سافت ۴۰۴.

۵. مسئله کراول

نکات کلیدی در مسائل شاخص‌سازی رایج

جالب است که با توجه به این یافته‌ها، دو اندازه وبسایت از مشکلات مشابهی رنج می‌برند. این نشان می‌دهد که حفظ کیفیت در وبسایت‌های بزرگ چقدر دشوار است.

  • بزرگ‌تر از ۱۰۰ k، اما کوچک‌تر از ۱میلیون.
  • بزرگ‌تر از ۱ میلیون

با این حال، نکات نهایی به این صورت هستند:

  • حتی وبسایت‌های نسبتا کوچک (۱۰ k +) ممکن است به دلیل بودجه اندک کراول به طور کامل شاخص‌گذاری نشوند.
  • هر چه وبسایت بزرگ‌تر باشد، مسائل مربوط به بودجه کراول / کیفیت بیشتر فشار می‌آورند.
  • مسئله محتوای تکراری شدید است اما ماهیت آن را بسته به وبسایت تغییر می‌دهد.

پی‌نوشت: نکته در مورد URLs Unknown برای گوگل

در طول تحقیقاتم، متوجه شدم که یک موضوع مشترک دیگر وجود دارد که از نمایه شدن صفحات جلوگیری می‌کند. ممکن است جایگاه خود را در رتبه‌بندی بالا به دست نیاورده باشد، اما هنوز هم قابل‌توجه است، و من از دیدن این که هنوز هم اینقدر متداول است شگفت‌زده شدم. من دارم در مورد صفحات یتیم (orphan) صحبت می‌کنم.

برخی صفحات وبسایت شما ممکن است هیچ لینک داخلی نداشته باشند که منجر به آن‌ها شود. اگر راهی برای Googlebot وجود ندارد که صفحه‌ای را از طریق وبسایت شما پیدا کند، ممکن است اصلا آن را پیدا نکند. راه‌حل چیست؟ اضافه کردن لینک‌ها از صفحات مرتبط. همچنین می‌توانید این کار را به صورت دستی با اضافه کردن صفحه یتیم به قسمت sitemap خود انجام دهید. متاسفانه، بسیاری از مدیران وب هنوز از انجام این کار غفلت می‌کنند.

این متن با استفاده از ربات مترجم مقاله تجارت الکترونیک ترجمه شده و به صورت محدود مورد بازبینی انسانی قرار گرفته است.در نتیجه می‌تواند دارای برخی اشکالات ترجمه باشد.
مقالات لینک‌شده در این متن می‌توانند به صورت رایگان با استفاده از مقاله‌خوان ترجمیار به فارسی مطالعه شوند.