آژانس توسعه کسب و کار باران | سمانه به نواز
آژانس توسعه کسب و کار باران | سمانه به نواز
خواندن ۱۷ دقیقه·۵ ماه پیش

اصطلاحات مربوط به الگوریتم های گوگل

اصطلاحات مربوط به الگوریتم های گوگل
اصطلاحات مربوط به الگوریتم های گوگل

الگوریتم پنگوئن

یکی از معروف ترین الگوریتم های گوگل که کار تشخیص لینک های بد و لینک سازی غیر اصولی و اسپم را بر عهده دارد الگوریتم پنگوئن است. این الگوریتم اگر تشخیص دهد که سایتی برای موفقیت در نتایج گوگل دست به لینک سازی غیر حرفه ای زده است می تواند آن سایت را از نتایج گوگل حذف و به اصطلاح پنالتی نماید.

الگوریتم پنگوئن پاسخ گوگل برای افزایش استفاده از روش‌های سئو کلاه سیاه و لینک‌سازی‌های غیرطبیعی است.Matt Cutts  در جریان کنفرانس SMX  سال 2012 در این مورد گفته بود:

“ما به این فکر کردیم که چطور با محتوای بی کیفیت مبارزه کنیم و برای حل این موضوع الگوریتم پاندا را معرفی کردیم. اما بعد از معرفی این الگوریتم متوجه شدیم که این شروع کار است و هنوز وبسایت‌های اسپم زیادی وجود دارند. سپس برای حل این مشکل الگوریتم پنگوئن را طراحی کردیم.”

هدف این الگوریتم به طور دقیق، کاهش تاثیرگذاری روش‌های کلاه سیاه و به دست گرفتن کنترل اوضاع توسط گوگل بود. با درک بهترِ فرآیند دریافت لینک، پنگوئن توانست وبسایت‌هایی که اقدام به دریافت لینک‌های طبیعی و معتبر کرده بودند را ارتقاء دهد و وبسایت‌هایی که لینک‌های اسپم و ساختگی دریافت کرده بودند را  از رتبه‌های بالا به قعر نتایج بکشاند.

در ابتدای کار، گوگل در این الگوریتم برای جریمه کردن سایت‌های خاطی، تمرکز خود را تنها بر لینک‌های دریافتی قرار داده بود و به هیچ وجه توجهی به لینک‌های خروجی وبسایت‌ها نداشت.

الگوریتم پنگوئن یک کار انجام نمیدهد! درست است که پنگوئن گوگل در ابتدای کار تنها هدف شناسایی لینک های مخرب و بمبارات کلمه کلیدی را بر عهده داشت. ولی با به روزرسانی های متعدد (حدود 8 آپدیت) سازوکار پنگوئن پیچیده تر و بیشتر شد.

الگوریتم پنگوئن
الگوریتم پنگوئن


الگوریتم پاندا

این الگوریتم شاید معروف ترین الگوریتم گوگل می باشد که می تواند تاثیر مستقیم بر روی نتایج سئو داشته باشد، کار الگوریتم پاندا این است که محتوا های بی ارزش را تشخیص داده و آن ها را در نتایج گوگل حذف می نماید. پس باید دقت کنیم که نکاتی را که این الگوریتم بررسی میکند در سایت خود رعایت نماییم.

الگوریتم پاندا چه فاکتورهایی را بررسی می‌کند؟

در زیر به برخی از مهم‌ترین عواملی که توسط الگوریتم پاندا بررسی می‌شود، می‌پردازیم:

محتوای کم‌حجم (Thin Content)

وجود محتوای بسیار ضعیف با متن نوشتاری بسیار کم و بدون ذکر منبع موثق در وب‌سایت‌ها.

محتوای تکراری (Duplicate Content)

عبارت است از محتوایی که در بیش از یک مکان آشکار می‌شود. معضل محتوای تکراری ممکن است در یک وب‌سایت نیز اتفاق بیفتد. نظیر حالتی که وب‌سایت شما ۵ صفحه دارد و شما در هر صفحه جملاتی مشابه با اندکی تغییر نوشته‌اید.

کیفیت محتوا (Content Quality)

منظور محتوایی است که دانش بسیار کمی به خوانندگان خود اضافه می‌کند. محتوای بی‌کیفیت اصلاً اطلاعاتی به مخاطب ارائه نمی‌دهد.

اعتبار سایت (Trustworthiness)

که منظور از آن محتوایی است که منابع آن‌ها قطعی و معتبر نیستند. اگر سایت‌ها بخواهند از جریمه پاندا در امان بمانند، باید همه تلاش خود را بکنند تا به عنوان مرجعی معتبر در صنف خود شناخته شوند تا کاربران راحت‌تر بتوانند به آن‌ها اعتماد کنند و اطلاعات شخصی خود را با آن‌ها به اشتراک بگذارند.

مزرعه محتوا (Content Farm)

منظور پیج‌هایی است که سطح کیفی بسیار پایین دارند و مطالب آن‌ها از سایت‌های دیگر جمع‌آوری می‌شوند. معمولاً این‌گونه وب‌سایت‌ها تولیدکننده‌های محتوایی را استخدام می‌کنند که با دستمزد بسیار پایین محتوای گسترده و بی‌کیفیت برای وب‌سایت تولید می‌کنند. هدف این‌گونه وب‌سایت‌ها رضایت و نیازهای مخاطب نیست، بلکه آن‌ها فقط می‌خواهند هر کوئری که مخاطب جستجو می‌کند در صفحه نتایج نمایش داده شوند.

محتوای باکیفیت پایین تولید شده توسط کاربران

شاید شما هم وب سایت‌هایی را دیده باشید که پست‌های وبلاگ مهمان را منتشر می‌کنند. پست‌های حاوی جملات کوتاه که فاقد هرگونه اطلاعات معتبر بوده و بیشتر نوعی اظهار نظر شخصی به شمار می‌روند.

نسبت بالای تبلیغ به محتوا

شاید شما هم پیج‌های بسیاری دیده‌اید که پر از تبلیغات پولی هستند در حالی که محتوای چندانی ندارند.

بهینه‌سازی بیش از حد (Over Optimization)

محتوایی که خوب بهینه‌سازی شده و مرتبط باشد می‌تواند عامل مهمی برای قرار گرفتن در جایگاه بالا در صفحه نتایج باشد. بهینه‌سازی بیش از حد موتور جستجو عبارت است از کاربرد افراطی عواملی که پیشرفت‌های سئو برای سایت محسوب می‌شوند. در این مواقع همین بهینه‌سازی‌ها به رتبه‌بندی آن آسیب جدی می‌رسانند. بهینه‌سازی بیش از حد می‌تواند مخاطب شما را از دیدن ارزش واقعی محتوای شما محروم کند و همین امر می‌تواند بر رنکینگ طبیعی سایت اثر منفی بگذارد.

سیگنال‌های کاربران (User Signals)

بسیاری از کاربران انسانی روزانه تعداد زیادی از وب‌سایت‌ها را یا به طور مستقیم یا توسط افزونه کروم مسدود می‌کنند. دلیل این امر عمدتاً کیفیت بسیار پایین محتواست.

عدم تطابق با کوئری مدنظر کاربر

منظور پیج‌هایی هستند که در انکرتکست چیز دیگری نشان می‌دهند طوری که به نظر می‌رسد با کلیک روی آن‌ها به جواب‌های مرتبط دست پیدا می‌کنید اما وقتی وارد صفحه می‌شوید خبری از جواب نیست. برای مثال وب‌سایتی که ادعا می‌کند برای یک جشنواره تخفیفاتی در نظر گرفته در حالی که وقتی شما آن‌ها را باز می‌کنید هیچ خبری از کوپن تخفیف نیست.

الگوریتم پاندا
الگوریتم پاندا


الگوریتم مرغ مگس خوار

به بیان ساده الگوریتم مرغ مگس خوار به کاربران کمک می‌کند تا زمانی که کلمه‌ای را سرچ می‌کنند، به سرعت به لینک ها، تصاویر، ویدئوها و… در ارتباط با آن کلمه دست یابند. همان طور که می‌دانید مرغ مگس خوار به دقت و سرعت مشهور است و علت نام‌گذاری این الگوریتم نیز این است که به سرعت و با دقت بالایی، مطالب مدنظر را حدس زده و به شما نشان می‌دهد.
الگوریتم مرغ مگس خوار با دقت و سرعت بالایی کلمات را بررسی می‌کند و مترادف آن‌ها را تا حد زیادی می‌شناسد. مگس خوار در حالی که نزدیک‌ترین نتایج را به شما نشان می‌دهد، صفحاتی را هم که بیش از حد از کلمات کلیدی استفاده کرده‌اند و محتوای درست و حسابی ندارند جریمه می‌کند.

باید این را بدانید که مرغ مگس خوار بیشتر به انسان‌ها اعتماد دارد، تا ربات‌های گوگل. یعنی چه؟ بگذارید با یک مثال ساده توضیح دهم.

وقتی کاربران عبارت “بازاریابی محتوا چیست” را در گوگل جستجو می‌کنند، به نتایج مختلفی برخورد می‌کنند. حال اگر تعداد کاربرانی که روی نتیجۀ چهارم کلیک می‌کنند بیشتر از تعداد کاربرانی باشد که روی نتیجۀ اول کلیک می‌کنند، پس از مدتی جایگاه نتیجه چهارم ارتقا پیدا می‌کند و در مقابل جایگاه نتیجه اول پایین‌تر می‌رود. این یعنی مرغ مگس خوار گوگل رفتار کاربران را تحلیل می‌کند و به آن‌ها اعتماد می‌کند. پس سعی کنید هنگام تولید محتوا، در کنار الگوریتم‌ها و ربات‌های مختلف گوگل، مخاطبانتان را هم به طور جدی در نظر بگیرید و ببینید که به چه چیزهایی توجه بیشتری نشان می‌دهند. البته فقط تعداد کلیک‌ها نیست که تعیین کننده است؛ عوامل مختلفی مثل نرخ پرش، میزان گردش در سایت، محبوبیت در شبکه‌های اجتماعی و … هم در سنجش میزان محبوبیت شما نزد کاربران دخیلند.

الگوریتم مرغ مگس خوار
الگوریتم مرغ مگس خوار


الگوریتم bert

برت (Bidirectional Encoder Representations from Transformers) یک الگوریتم یادگیری عمیق است که از پردازش زبان طبیعی (NLP) برای درک بهتر داده‌های مربوط به جستجو استفاده می‌کند. درحقیقت، الگوریتم برت نوعی هوش مصنوعی است که به گوگل اجازه می‌دهد تا روابط بین عناصر زبان در یک کلمه یا عبارت جستجو شده توسط کاربر را بهتر درک کند.

برخلاف به روز رسانی‌های قبلی مانند پاندا و پنگوئن، برت برای جریمه کردن وب سایت‌ها در نظر گرفته نشده است بلکه به گوگل کمک می‌کند تا قصد جستجوگر را درک کند. گوگل از طریق برت می‌تواند معنای دقیق عبارات جستجو شده را با توجه به متن و ترتیب کلمات بفهمد. گوگل اکنون می‌تواند نتایج دقیق‌تر و بهتری را برای عبارات جستجوی طولانی‌تر و پیچیده‌تر نشان دهد.

با توجه به هدف اصلی در پشت پرده اکثر به‌روزرسانی‌های الگوریتم گوگل، ارتقاء BERT به گوگل کمک می‌کند هنگام تایپ یک عبارت جستجو، آنچه را که به دنبال آن هستید را بهتر جستجو کنید.

هدف الگوریتم برت ارائه پاسخ‌های مستقیم به سوالات به جای تاکید زیاد بر روی کلمات کلیدی خاص است. اساساً، BERT قصد دارد به کاربر اجازه دهد به روشی طبیعی‌تر جستجو کند و به نتیجه برسد. درحقیقت، این الگوریتم در حال از بین بردن درک زبان ماشینی است و می‌خواهد به ماهیت طبیعی و واقعی زبان انسانی برسد.

الگوریتم برت گوگل از هوش مصنوعی، یادگیری ماشینی و پردازش زبان طبیعی استفاده می‌کند. برت از طریق این عناصر قادر است معنی و روابط بین کلمات و عبارات را درک کند و  اصطلاحات قبل و بعد از هر کلمه را شناسایی کرده و در نظر بگیرد. این ویژگی‌ها باعث می‌شود که برت بتواند به شکلی عمیق‌تر زبان انسان را با زبان عامیانه، مترادف‌ها، عبارات، اختصارات، حروف ربط، حروف اضافه و حتی خطاهای املایی درک کند.

بنابراین، گوگل می‌تواند هر دو طرف سکه از جمله «هدف کاربران از جستجو» و «محتوای صفحات ایندکس شده» را هدف قرار دهد. به این ترتیب، برت بهترین پاسخ را نسبت به جستجوی کاربر ارائه می‌دهد.

نمونه‌ای از پیشرفت به دست آمده از طریق الگوریتم BERT این است که گوگل حروف اضافه در کلمات کلیدی جستجو شده توسط کاربر را در نظر می‌گیرد. حروف اضافه قبلاً در نظر گرفته نمی‌شدند اما می‌دانیم که این حروف می‌توانند معنای یک جمله را کاملاً تغییر دهند.

از این گذشته، برت حتی می‌تواند املای اشتباه کلمات کلیدی را نیز تشخیص دهید. این ویژگی هم برای جستجوی نوشتاری و هم برای جستجوی صوتی کار می‌کند. به عبارت دیگر، اگر کاربر هنگام جستجو کلمه‌ای را اشتباه تلفظ کند، موتور جستجو احتمالاً آن را می‌فهمد و نتایج درست را نمایش می‌دهد.

الگوریتم bert
الگوریتم bert


الگوریتم گورخر

گورخر نام یکی از الگوریتم های گوگل است که به بررسی سایت های متقلب و سایت هایی که تبلیغاتشان زیاد است می‌پردازد.

الگوریتم گورخر گوگل (Google Zebra Algorithm) یکی از پرکاربردترین الگوریتم‌های گوگل است که مسئول نظارت بر فروشگاه‌های اینترنتی و جلوگیری از کلاه‌برداری‌هایی که از طریق فروشگاه‌های اینترنتی صورت می‌گیرد است. این الگوریتم با شناسایی فروشگاه‌های قلابی و بی‌کیفیت اینترنتی آن‌ها را حذف می‌کند. این الگوریتم توسط مت کاتس (Matt Cutts)، مدیر سابق بخش اسپم گوگل در مارس 2013 جهت نظارت بر سایت‌های فروشگاهی و تجاری ارائه شد.

با افزایش فروشگاه‌های اینترنتی امروزه اکثر مردم خریدهای خود را در بستر اینترنت انجام می‌دهند. بنابراین گوگل برای حفظ اعتماد کاربران خود، الگوریتم گورخر را آپدیت کرد.

درواقع الگوریتم گورخر گوگل زمانی به وجود آمد که گوگل تصمیم به مقابله با سایت‌های فروشگاهی بی‌کیفیت گرفت و هدف خود را جلب اعتماد کاربر قرارداد و این به این دلیل بود که بعضی از وب‌سایت‌های فروشگاهی بی‌کیفیت و نامعتبر توانسته بودند توسط استفاده از تکنیک‌ها و روش‌های کلاه‌سیاه، خود را به رتبه‌های اول گوگل برسانند که این باعث ناراحتی و نارضایتی کاربران شد. بنابراین گوگل با آپدیت الگوریتم گورخر (زبرا) به مبارزه با سایت‌های فروشگاهی نامعتبر و قلابی پرداخت. بنابراین به‌طور کلی هدف از طراحی الگوریتم گورخر یا زبرا حذف سایت‌های فروشگاهی بی‌کیفیت و نامعتبر است.

نحوه کار الگوریتم گورخر به چه شکل است

در الگوریتم زبرا یا گورخر گوگل بیشتر به مسائل فنی سایت توجه می‌کند. بنابراین اگر شما سئو یک سایت فروشگاهی‌ را به عهده دارید باید بیش از دیگران با نحوه کار و ساختار این الگوریتم آشنا شوید. اگر می‌خواهید توسط الگوریتم گورخر جریمه نشوید و از لیست نتایج گوگل حذف نشوید بهتر است اعتماد کاربران را با ارائه سرویس‌های امن و مطمئن در سطح اینترنت جلب کنید. مثلا از SSL برای سایت خود استفاده کنید و امنیت اطلاعات کاربران را تضمین کنید.

الگوریتم گورخر به محض اینکه متوجه شود که سایت شما ناامن است یا قصد کلاه‌برداری، فریب و سوء استفاده از اطلاعات کاربران را دارد خیلی سریع سایت شمارا حذف می‌کند. بنابراین اگر دارای یک سایت فروشگاهی هستید برای اینکه بتوانید در سطح گوگل باقی بمانید باید قوانین الگوریتم گورخر گوگل را رعایت کنید.

هدف اصلی الگوریتم گورخر چیست

همان‌طور که اشاره کردیم الگوریتم گورخر به مبارزه با سایت‌های، بی‌اعتبار و ناامن می‌پردازد و از رتبه گرفتن سایت‌های ناامن ، بی‌کیفیت، سطح پایین و کم اعتبار جلوگیری می‌کند. برای رسیدن به این منظور موارد زیر را مورد هدف قرار می‌دهد:

  1. حذف فروشگاه‌های اینترنتی که قصد سوء استفاده از اطلاعات کاربران را دارد.
  2. حذف فروشگاه‌های اینترنتی فیک و دروغین.
  3. حذف سایت‌های فروشگاهی بی‌کیفیت و بی اعتبار.
  4. حذف سایت‌های فروشگاهی که قوانین را دور می‌زنند.
  5. از بین بردن خرده‌فروش‌های سطح پایین و ضعیف.
  6. جلوگیری از هک اطلاعات کاربران.

درواقع اهداف اصلی الگوریتم‌های گوگل تمایز بین سایت‌های بی‌کیفیت و بی‌اعتبار با سایت‌های فروشگاهی باکیفیت و امن است. پس هدف الگوریتم زبرا فراهم کردن بستر خرید امن و راحت برای کاربران گوگل است.

الگوریتم گورخر
الگوریتم گورخر


الگوریتم RankBrain

کار الگوریتم rankbrain این می باشد که تشخیص دهد کاربر از جستجوی عبارت انجام شده واقعاً به دنبال چه چیزی است؟ برای مثال اگر فردی سرچ کند نتیجه مسابقه ایران، قطعاً به دنبال این بوده است که اگر در یک روز گذشته تیم فوتبال ایران مسابقه ای داشته است نتیجه آن را بداند.

رنک برین یک الگوریتم یادگیری ماشین است. در یادگیری ماشین، ابزار به جای اینکه دائما توسط انسان برنامه‌ریزی شود، خودش از رفتار انسان چیزی که باید را یاد می‌گیرد و به این ترتیب در یک چرخه رشد مداوم و بهبود دائمی قرار خواهد گرفت.

قبل از اینکه گوگل الگوریتم رنک برین را معرفی کند، الگوریتم‌های قبلی سعی می‌کردند به کمک کدگذاری مهندسان گوگل و توجه به یک‌سری شاخص‌ها، مثلا اینکه فلان کلمه کلیدی بیشتر در کدام صفحه از وب تکرار شده یا «بک لینک» و… رتبه صفحات را در نتایج جستجو مشخص کنند. اما امروز این الگوریتم تلاش می‌کند با بررسی مفهوم صفحات و دقت به رفتار کاربر، به سایت‌هایی رتبه بدهد که ارزش بیشتری ایجاد می‌کنند. به این ترتیب دیگر سئوکارها نمی‌توانند صرفا با تکرار بی‌مورد کلمه کلیدی در یک صفحه یا خرید تعداد زیادی بک لینک، صفحه‌شان را به رتبه اول نتایج برسانند!

الگوریتم RankBrain چطور کار میکند؟

الگوریتم رنک برین چند اقدام بسیار مهم انجام می‌دهد. اگر با نحوه کارکرد این الگوریتم آشنا باشید، خیلی راحت‌تر ‌می‌توانید سایت‌تان را برای دیده شدن در نتایج جستجو آماده کنید. پس اجازه بدهید به زبان ساده همه چیز را توضیح بدهم.

1_ توجه به رفتار کاربر

یکی از مهم‌ترین تفاوت‌هایی که رنک برین ایجاد کرد، بررسی رفتار کاربر بود. همانطور که بالاتر هم گفته شد الگوریتم‌های قبلی با توجه به چیزهایی مثل تعداد دفعات تکرار کلمه کلیدی در صفحه، بک لینک، تازه بودن محتوا، طول محتوای صفحه و… آن را رتبه‌بندی می‌کردند. اما الگوریتم رنک برین در کنار انواع شاخص‌هایی که عنوان شد، به یک شاخص دیگر که رفتار کاربر است، اهمیت زیادی می‌دهد. یعنی چه؟ اجازه بدهید مثال بزنم:

تصور کنید کاربر بعد از جستجوی کلمه مورد نظرش، وارد سایت لینک اول می‌شود، بعد به دلیل سرعت پایین صفحه از آن بیرون می آید. وارد سایت دوم شده و به دلیل پیدا نکردن محتوای کاربردی از آن هم خارج میشود. در نهایت وارد سایت سوم شده و به خاطر اینکه محتوای مورد نظرش را در آن پیدا می‌کند، زمان زیادی را در آن صرف کرده و حتی چند صفحه دیگر آن سایت را هم مشاهده می‌کند.

خب در این شرایط رنک برین متوجه خواهد شد که 2 سایت اول برای کاربر، بازدهی نداشتند اما سایت سوم توانست جواب او را بدهد. حالا اگر رفتار این کاربر توسط دیگر کاربران هم تکرار شود، رنک برین اهمیت دیگر شاخص‌های رتبه بندی را کاهش داده و سایت لینک سوم را به لینک اول می آورد!

2_ توجه به مفهوم صفحه

در گذشته الگوریتم‌های گوگل برای پیدا کردن صفحات نزدیک به جستجوی کاربران، صرفا در میان متن صفحات به جستجو می‌پرداختند. حالا این را در نظر بگیرید که حدود 15 درصد از کلماتی که در روز در گوگل جستجو می‌شود، برای اولین بار جستجو شده‌اند! این یعنی 450 میلیون کلمه کلیدی ناآشنا برای الگوریتم‌های گوگل و همین موضوع باعث می‌شد گوگل حسابی به مشکل بخورد. چون مثلا اگر کاربر عبارت “خرید خانه در منطقه مسکونی پایین شهر تهران” را در گوگل وارد می‌کرد، الگوریتم‌ها به دنبال عباراتی مثل خرید خانه، منطقه مسکونی، پایین شهر تهران و… می‌گشتند و صفحات نه‌چندان دقیقی را به کاربر نشان می‌دادند.

اما امروز شرایط فرق کرده! در واقع امروز رنک برین به مفهوم کلماتی که شما جستجو می‌کنید توجه دارد و نه فقط خود عبارت! به همین دلیل است که امروز گوگل، هم در نتیجه جستجوی عبارت هدیه و هم عبارت کادو، یک‌سری نتیجه مشابه را به شما نشان می‌دهد!

همانطور که مشخص است، رنک برین به کمک یادگیری ماشین، سعی می‌کند منظور شما را از جستجو بفهمد و در نتیجه، صفحات نزدیک‌تری به جستجوی‌تان را نشان‌تان بدهد. اگر می‌پرسید که دقیقا گوگل چطور به چنین فناوری خاصی دست پیدا کرده و چطور اینقدر دقیق منظور ما را متوجه می‌شود، جواب در یک‌سری الگوریتم‌های پیچیده و البته سخت است که توضیح‌شان از حوصله این مقاله خارج است.

چطور سایت‌مان را برای رنک برین سئو کنیم؟

خب، احتمالا حتی اگر این بخش از مقاله را هم نخوانید خودتان تا حدودی متوجه شده‌اید که دیگر الگوریتم رنک برین چطور کار می‌کند و ما چطور باید سایت‌مان را برای دیده شدن در آن سئو کنیم. اما با این‌حال برای اینکه نکات ریز و مهم جا نیوفتد، در ادامه چیزهایی که باید بدانید را به شما توضیح می‌دهم.

1_ عنوان‌ها را بهینه کنید

2_ برندسازی کنید

3_ سرعت را بهینه کنید

4_ تجربه کاربری را بهینه کنید

5_ محتوا بنویسید!

6_ به سراغ کلمات طولانی بروید

7_ اسکیماها را اضافه کنید

الگوریتم RankBrain
الگوریتم RankBrain


الگوریتم موبایل فرندلی

گوگل شرکتی است که همیشه با تغییرات رفتاری انسانی‌ها همسو شده است و خود را با تغییرات وفق داده است! نمونه‌ی این کار را می‌توان در ایجاد و طراحی الگوریتم موبایل فرندلی Mobile First Index دانست.
الگوریتم موبایل فرندلی mobile-friendly گوگل نشان می‌دهد که کاربران ترجیح می‌دهند برای گذشت و گذار در اینترنت و استفاده از موتور جستجو گوگل از موبایل خود بجای مانیتورها و صفحه نمایش‌‎های غول پیکر استفاده کنند. در واقع این الگوریتم موبایل فرندلی نتیجه تغییر سلیقه ما انسان هاست!

چگونه خودمان را برای الگوریتم موبایل Google آماده کنیم؟

  1. اطمینان حاصل کنید که Googlebot می تواند به محتوای شما دسترسی پیدا کرده و آن را رندرینگ بکند.
  2. متا تگ های استفاده شده در قالب تلفن همراه و دسک تاپ یکسان باشد.
  3. اطمینان حاصل کنید که meta robots tag مورد استفاده در صفحه نو ایندکس یا نو فالوو نباشد. در صورت نوایندکس بودن متا ربوت صفحه Googlebot نمی تواند محتوای صفحه را بفهمد.
  4. برای محتوای اصلی سایت از lazy-load استفاده نکنید.
  5. اطمینان حاصل کنید که URL را با دستورالعمل disallow مسدود نمی کنید.
  6. اطمینان حاصل کنید که محتوای نمایش داده شده در نسخه دسک تاپ و موبایل سایت یکسان است
  7. در ورژن موبایل از همان عناوین و تگ های هدینگ واضح و معنی دار که در نسخه دسک تاپ استفاده می کنید، استفاده کنید.
  8. اگر از استراکچر دیتا در سایت خود بهره می برید، مطمئن شوید که در هر دو نسخه سایت شما وجود دارد.
  9. از تصاویر خیلی کوچک یا وضوح پایین در سایت تلفن همراه استفاده نکنید.
  10. از تصاویر و ویدیوهای با فرمت های ناشناس برای گوگل در سایت استفاده نکنید.
  11. از URL های تصویری و ویدویی یکسان در هر دو نسخه سایت خود استفاده کنید.
  12. محتوای سایدبار و فوتر خود را جدی بگیرید.
الگوریتم موبایل فرندلی
الگوریتم موبایل فرندلی


الگوریتم eat

الگوریتم E.A.T اصطلاحی است که از دستورالعمل‌های سنجش کیفیت گوگل گرفته شده و صورت خلاصه‌شده Expertise، Authoritativeness و Trustworthiness استاین دستورالعمل‌ها توسط هزاران نفر از منتقدان فعال گوگل تدوین شده‌اند. در واقع E.A.T الگوریتمی برای سنجیدن میزان اعتبار، تخصص و مورد اعتماد بودن سایت است.

هر چند فهمیدن فرایندهای داخلی گوگل کار ساده‌ای نیست، بسیاری منابع موثق اعلام کرده‌اند که معیار الگوریتم E.A.T بیشتر مخصوص سایت‌های YMYL (سایت‌هایی که به ارائه توصیه‌های پزشکی، سلامتی و مالی می‌پردازند) است.

طبیعتا گوگل ترجیح می‌دهد محتوایی را که ممکن است سلامتی یا وضعیت مالی کاربران را به خطر بیاندازد منتشر نکند. به همین دلیل بررسی کیفیت محتوای وب سایت‌هایی که به چنین مسائلی می‌پردازند از اهمیت ویژه‌ای برخوردار است.

ممکن است فکر کنید اگر در چنین حوزه‌هایی فعالیت ندارید، E.A.T روی سایت شما تاثیر نمی‌گذارد زیرا گوگل اعلام کرده است این فاکتور را در مورد وب سایت‌هایی که به مسائل سلامتی یا مالی نمی‌پردازند اعمال نمی‌کند.

این طور نیست!

به نظر من  تخصصی بودن، معتبر بودن و موثق بودن محتوا باید در تمامی حوزه‌های کاری در نظر گرفته شود. کدام کسب‌وکاری است که نخواهد قابل اطمینان شناخته شود!؟

البته گوگل معمولا اصطلاحات را به صورت اختصاصی به کار می‌برد. یعنی اصطلاح E.A.T منحصرا مربوط به حوزه مالی و سلامتی می‌شود اما مفهوم پشت این اصطلاح، یعنی معتبر و موثق بودن محتوا احتمالا در تمامی زمینه‌ها موثر است.

کریس سیلور اسمیت معتقد است گوگل تا حدی از سیستم امتیازدهی عددی برای سنجش E.A.T استفاده می‌کند. بنابراین فاکتور E.A.T در مورد سایت‌های حوزه سلامت و مالی بسیار سنگین‌تر از حوزه‌هایی مثل سرگرمی اعمال می‌شود.

با این توضیحات، می‌توانیم بگوییم الگوریتم E.A.T صرف نظر از حوزه فعالیت‌تان، روی سئو سایت اثر می‌گذارد. حتی اگر این طور نبود هم به نظر من تکنیک‌های معتبر کردن محتوا باید بخشی از استراتژی سئو در هر حوزه‌ای باشد.

الگوریتم eat
الگوریتم eat
الگوریتم های گوگلسئو سایت
www.baranbusinessagency.ir www.samanehbehnavaz.ir بازاریابی، فروش و تبلیغات توسعه کسب و کار طراحی سایت، سئو، دیجیتال مارکتینگ برندسازی و مدیریت برند، حضور موثر در نمایشگاه
شاید از این پست‌ها خوشتان بیاید