یا میدانید که موتورهای جستجو بر چه اساسی کار میکنند و چه اتفاقی میافتد که از نظر گوگل وب سایتی نسبت به وب سایت دیگری ارجحیت پیدا میکند؟ شما در این مطلب با الگوریتم های گوگل آشنا شده و خواهید دید که تاثیرشان بر نتایج جستجو چگونه است.
اخیرا یکی دیگر از الگوریتم های گوگل تحت عنوان Google MEDIC UPDATE منتشر شده است و این نشان میدهد که گوگل مدام در حال به روز رسانی الگوریتم های خود است. این الگوریتمها به گوگل کمک میکنند که نسبت به مطالب و شرایط مختلف عکس العمل نشان داده و بهترین شرایط برای کاربران به وجود بیاورد. البته یکی از دیدگاههای اشتباهی که در مورد الگوریتم های گوگل وجود دارد این است که اکثر کاربران و وبمستران فکر میکنند که هر کدام از این الگوریتمها یک سیستم مجزا بوده که همیشه بر روی گوگل باقی میمانند.
این در حالی است که هر کدام از این الگوریتمها یک آپدیت یا بروز رسانی از سیستم کلی گوگل است، که با وجود باقی ماندن آپدیتهای قبلی، یک آپدیت جدید به آن اضافه میشود. به منظور درک بیشتر این موضوع و آشنایی شما با الگوریتم های گوگل، مروری کلی بر همه الگوریتم های به وجود آمده از سال ۲۰۰۳ تا کنون خواهیم داشت و نشان خواهیم داد که هر کدام از این الگوریتمها با چه هدفی به وجود آمدهاند.
قبل از هر چیزی باید بدانیم که الگوریتم های گوگل چه هستند و با چه سیستمی کار میکنند؟ بطور کلی الگوریتم به یک سیستم ریاضی گفته میشود که در جریان آن میتوان چند موضوع دیگر را تعریف کرد و آنها را به نتیجه رساند. به عنوان مثال، فرض بگیرید که فردی میخواهد به یک آدرس مشخص برسد، اگر این فرد از شما بپرسد که از چه مسیری عبور کند، میتوانیم پیشنهاد پیاده رفتن، استفاده از مترو و همچنین استفاده از اتوبوس را که سه پیشنهاد متفاوت است، به او دهیم. هر سه روش او را به مقصد میرساند و تنها زمان رسیدن در هر کدام از آنها متفاوت است. ما میتوانیم اسم هر کدام از این مسیرها را یک الگوریتم بنامیم.
الگوریتمهای گوگل به همین شیوه عمل میکنند و به کاربران این نکته را نشان میدهند که نحوه رسیدن به بهترین رتبه در گوگل به چه صورت است. تفاوتی که در این الگوریتمها وجود دارد این است که او در مورد آنها اطلاعات چندانی بروز نمیدهد تا وبمسترها فقط بر روی آنها متمرکز نشوند. این موضوع باعث میشود که همیشه کاربر و بازدیدکننده در اولویت قرار گیرد و مطالب مناسب دریافت کند. حالا برویم تا تکتک الگوریتمها را با هم بشناسیم.
الگوریتم بوستون به عنوان اولین آپدیت و بروزرسانی الگوریتم های گوگل بود که در سال ۲۰۰۳ در یک کنفرانس علمی مهندسی ارائه شد. این الگوریتم، تصمیم گرفت که در روند بررسی، مطالب را به صورت ماهانه یا حتی زودتر انجام دهد. در گامهای بعدی تغییراتی در این الگوریتم بوجود آمد که در جریان آن مطالب به صورت روزانه بررسی میشد و کاربران به فکر انتشار روزانه محتوا در وب سایت خود بودند.
این الگوریتم در ماه نوامبر سال ۲۰۰۳ منتشر شد و به نوعی وبمسترهای آن زمان را تحت تأثیر قرار داد. در واقع در این الگوریتم به وبمسترها نشان داده شد که از چه تکنیکی برای جذب ترافیک ارگانیک استفاده کند. به عنوان مثال، استفاده از کلمات کلیدی یا حتی استفاده از لینکهای داخلی و خارجی مواردی بود که در این الگوریتم رنگ واقعیت به خود گرفت.
این الگوریتم در ژوئن سال ۲۰۰۵ از طرف گوگل منتشر شد و در آن کاربران میتوانستند از تاریخچه جستجوی خود برای جستجوهای جدید استفاده کنند. در واقع، تلاشها و جستجوهای قبلی کاربران در این الگوریتم ذخیره شده و گوگل در جستجوهای بعدی این موارد را به آنها نشان میداد. این الگوریتم نشان دهنده دسترسی گوگل برای اولین بار به تاریخچه جستجوی کاربران است.
این الگوریتم در ماه می سال ۲۰۰۷ برای سهولت کاربران گوگل راهاندازی شد و میتوان آن را به عنوان یکی از بهترین بهروزرسانیهای گوگل در نظر گرفت. تا قبل از به وجود آمدن این الگوریتم، کاربران به هنگام جستجو، نتایجی شامل تصاویر، اخبار، کتابها و موارد مشابه دریافت میکردند. این در حالی است که الگوریتم جستجوی کلی باعث تفکیک هر کدام از این نتایج بود و ما از این تاریخ به بعد میتوانیم اخبار، تصاویر گوگل یا هر مطلب متفرقه دیگری را به صورت مجزا بگیریم.
پس از ۴ سال استفاده آزمایشی، بالاخره الگوریتم پیشنهاد گوگل در آگوست سال ۲۰۰۸ راه اندازی شد. در این الگوریتم، تمرکز بر روی استفاده از عبارات کلیدی یا همان کوئری (Query) بود. این الگوریتم به کاربران کمک میکرد که علاوه بر کلمه یا عبارت کلیدی خود، کلمات کلیدی محبوب را نیز ببیند و از بین آنها گزینههای بهتر را انتخاب کنند. این الگوریتم به عنوان مقدمه برای الگوریتم Google Instant بود که در سال ۲۰۱۰ پیشنهاد شد و نوع پیشرفته دیگری از الگوریتم های گوگل است.
تا قبل از به وجود آمدن الگوریتم کافئین، سیستم ارائه محتوا در گوگل و نتایج جستجو به صورت لایه لایه بود که فقط سایتهای دارای رتبه بالاتر در همان جستجوی اول نشان داده میشدند و اغلب سایتهای جدید دیده نمیشدند. گوگل برای حمایت از وب سایتهای جدید و وب سایتهای ضعیفتر، در سال ۲۰۰۹ یک الگوریتم به نام الگوریتم کافئین معرفی کرد که راه اندازی آن به ژوئن ۲۰۱۰ موکول شد. در این سیستم دیگر خبری از لایه بندی بودن سایتها با توجه به قیمت آنها نبود و در حقیقت جستجوی کاربران به صورت کلی و در بین همه سایتها انجام میگرفت.
الگوریتم پاندا در ابتدا با نام Farmer منتشر شد که به نوعی به صورت غیرمستقیم ریز شدن گوگل در مزارع محتوا و ارائه یک محتوای با کیفیت توسط وی را نشان میداد. اما در هر صورت این الگوریتم در سال ۲۰۱۱ با نام رسمی پاندا ارائه شد که نام آن از نام مهندس سازنده الگوریتم برگرفته شده است. در حقیقت این الگوریتم در پاسخ به تعداد روز افزون شکایت جامعه جهانی به سایتهای با محتوای بیکیفیت ساخته شد. پاندا عمدتاً به سراغ سایتهایی با محتوای ضعیف میرود که مطالب سایر سایتها را کپی کرده و به عنوان محتوای خود منتشر میکنند. الگوریتم پاندا یکی از مهمترین ابزارهای بود که با هدف مبارزه با نتایج جستجوی خاکستری یا همان سئو کلاه خاکستری به وجود آمد.
الگوریتم پنگوئن را میتوان الگوریتم تراشکار گوگل معرفی کرد که هدف اصلی آن کاهش رتبه بندی سایتهایی بود که از طریق غیر قانونی و با نقض دستورالعملهای کیفی گوگل خود را به رتبههای بالاتر رسانده بودند. این الگوریتم در ماه آوریل سال ۲۰۱۲ منتشر شد و هنوز هم به عنوان یکی از مهمترین اصول کار گوگل شناخته میشود.
اصولاً سایتهایی که از تکنیکهای مختلف مانند روشهای اسپم، به کار بردن بیش از حد کلمات کلیدی و همچنین لینکهای غیرقانونی استفاده میکنند، آمار بازدیدها و ترافیک و ارگانیک را کاهش میدهند. این به روزرسانی در الگوریتم های گوگل سایتهای مختلف استفاده کننده از سئو کلاه سیاه را به شدت مجازات میکند. بنابراین وبمسترها مجبور هستند که سایتهایی با کیفیت محتوای بالا ایجاد کنند و تجربیات مثبتی در اختیار کاربران قرار دهند تا تجربه کاربری وب سایت نیز رشد کند.
به طور کلی، مبارزه با لینکهای به دست آمده از سایتهای اسپم، تشخیص لینکهای پولی و یا کلیکهای خریداری شده و همچنین تشخیص بهینه سازی بیش از حد، از نقاط قوت پنگوئن هستند.
این مورد از الگوریتم های گوگل به این دلیل راه اندازی شده که کاربران و جستجوگران خیلی راحتتر و سریع به اطلاعات علمی دسترسی داشته باشد. الگوریتم Google Knowledge Graph در ماه می سال ۲۰۱۲ معرفی شد و روال کار آن بدین صورت است که یک نمودار از اطلاعات در سمت راست نتایج به کاربر نشان میدهد. گوگل اعلام کرده است که این الگوریتم به درک بهتر جستجوگران از جهان واقعی و روابط آنها با یکدیگر کمک میکند. جالب است بدانید که این الگوریتم در هنگام راهاندازی، اطلاعات مربوط به ۵۰۰ میلیون شی خاص و همچنین اطلاعات درباره ارتباط بین سه و نیم میلیارد مورد مختلف را، بهطور کامل داشته است.
به مرور زمان، گوگل متوجه شد که عکس العمل جستجوگران نسبت به کوئری ها بسیار خاص و منحصر به فرد است و ترجیح آنها به شکلی است که فقط به سراغ یک عبارت یا چند کلمه مربوطه بروند. این موضوع نشان میداد که کاربران نسبت به نتایج جستجو حساسیت بالایی دارند و ترجیح میدهند که نتایج بسیار نزدیکتر و دقیقتر باشد. بنابراین یکی دیگر از الگوریتم های گوگل تحت عنوان الگوریتم مرغ مگس خوار در سال ۲۰۱۳ منتشر شد.
این الگوریتم نسبت به مدلهای قبلی تغییر آن چنانی و بسیار بزرگی نداشت، اما توانایی آن بسیار مهم و تاثیرگذار بود که باعث جلب رضایت کاربران میشد. جستجوهای گوگل نشان میدهد که استفاده از الگوریتم مرغ مگس خوار تقریباً نزدیک به ۹۰ درصد از نتایج جستجو را تحت تأثیر قرار داده و نتایج بهینه شده را به کاربران عرضه میکنند.
توصیه میکنم که در همین ابتدا به کبوتر نامه بر فکر کنید تا درک درستی از این الگوریتم داشته باشد. الگوریتم کبوتر ژوئن سال ۲۰۱۴ توسط شرکت گوگل معرفی شد که برای جستجوهای محلی طراحی شده است. این الگوریتم جدید به گوگل این امکان را میدهد که از بین نتایج مختلف، بهترین گزینه را از نظر موقعیت مکانی و جغرافیایی پیشنهاد دهد. در واقع الگوریتم کبوتراز قابلیت الگوریتم پیشنهاد گوگل، الگوریتم نمودار دانش، الگوریتم تشخیص زبان و همچنین الگوریتم مرغ مگسخوار خود استفاده میکند تا بهترین گزینه ممکن را با توجه به موقعیت مکانی جستجوگر، به او پیشنهاد دهد. این یکی از جامعترین و بهترین الگوریتم های گوگل در جستجوهای محلی است.
شرکت گوگل با توجه به پیش بینیهایی که در مورد استفاده از گوشیهای هوشمند و روند رو به رشد کاربرد آنها داشته است، یک الگوریتم به همین موضوع اختصاص داده است. الگوریتم جدید Mobilegeddon در ماه آوریل سال ۲۰۱۵ پخش شد و وظیفه آن بررسی وب سایتهای مرتبط با تلفن همراه و محتوای آنهاست. در واقع این الگوریتم در نگاه کلی به وب سایت این نکته را مد نظر قرار میدهد که سایت مورد نظر تا چه اندازه متناسب با گوشیهای هوشمند و تبلتها طراحی شده است. حتماً بحث ریسپانسیو بودن طراحی سایت را شنیدهاید که دقیقاً برای تناسب با این الگوریتم مطرح شدهاست.
شرکت گوگل الگوریتم رنک برین را بدین شکل معرفی میکند که یک سیستم هوش مصنوعی یادگیری ماشین است که موتورهای جستجو را در ایجاد رابطه بین کلمات مختلف کمک کرده و نتایج را بهینه سازی میکند. کاری به معنی تحت اللفظی این الگوریتم نداریم و بیشتر میخواهیم عملکرد آنها را بررسی کنیم. فرض بگیرید که شما در مورد الگوریتم های گوگل جستجو میکنید. در الگوریتم رنک برین، نتایج مختلفی با توجه به این کلمه کلیدی بررسی میشود و نزدیکترین آنها را به شما پیشنهاد میدهد. در واقع، این الگوریتم مانع میشود که نتایج مربوط به خود کلمه گوگل یا خود کلمه الگوریتم در نتایج اصلی آورده شود تا کاربر نتایج را به صورت دقیق و مرتبط دریافت کند.
الگوریتم موش کور را میتوان نسخه بهبود یافته الگوریتم کبوتر معرفی کرد که در سپتامبر سال ۲۰۱۶ معرفی شد. این الگوریتم پا را فراتر گذاشته و محدوده جستجوهای محلی را بسیار کوچکتر کرده است. به عنوان مثال، در این الگوریتم به شما این امکان داده میشود که کسب و کارهای خارج شهر را از کسب وکارهای داخل شهر تفکیک کنید. حتی با کمک این ابزار امکان تعیین مسافت تا محل مورد نظر نیز به جستجوگران داده میشوند. به طور کلی مزایای استفاده از الگوریتم موش کور در سه مورد خلاصه میشود:
بروزرسانی و آپدیت کردن فقط به معنای معرفی نسخههای جدید نیست و میتوان الگوریتم های گوگل را با شیوههای مختلف به روز رسانی کرد. یکی از این موارد، الگوریتم پنگوئن ۴ است که در سال ۲۰۱۶ و در سپتامبر معرفی شد. این نسخه از الگوریتم پنگوئن دو مزیت بزرگ دارد که یکی از آنها به کار بردن جستجوی زمان لحظهای در نتایج است. یعنی در این لحظه نتایج جستجو با ۵ دقیقه دیگر ممکن است تفاوت داشته باشد.
همچنین در نسخه ۴ این الگوریتم برای کسانی که در نسخههای قبلی متضرر شدهاند راهکارهایی پیشنهاد شده است که بتوانند رتبههای قبلی خود را به دست آورند. در واقع اگر این افراد یا وب سایتها اقدامات لازم برای پاکسازی لینکهای اسپم و دیدگاههای بدون هویت انجام دهند، به همان رتبه قبلی خود برمیگردند.
ظهور این الگوریتم در ماه ژانویه سال ۲۰۱۷ را میتوان بهترین خبر برای جستجوگران و بازدیدکنندگان در نظر گرفت. در حقیقت، این یکی از بهترین الگوریتم های گوگل برای ایجاد تجربه کاربری خوب و مناسب بین کاربران است. حتماً این تجربه را داشتهاید که با مراجعه به یک سایت، بلافاصله یک پاپ آپ باز میشود یا یک صفحه مزاحم جلوی چشم شما قرار میگیرد که حتماً باید آن را ببندید. این موضوع بارها و بارها تکرار میشود و در نتیجه کاربر از حضور در چنین سایتی پشیمان میشود.
گوگل برای جلوگیری از این موضوع، الگوریتم Intrusive Interstitial Penalty را معرفی کرده است. این الگوریتم سه دسته از وب سایتها را مجازات میکند:
به روز رسانی الگوریتم فرد در ماه مارس سال ۲۰۱۷ رخ داد. این الگوریتم بیشتر سایتهایی را مورد هدف قرار میداد که کسب درآمد و تبلیغات را بیش از تجربه کاربران در اولویت خود قرار میدهند. استفاده از اسم فرد برای این الگوریتم توجیه خاصی ندارد و در واقع طراح آن، به نوعی از یک اسم شوخی و غیر رسمی برای آن استفاده کرده است.
وب سایتهایی با محتوای بیکیفیت، دارای لینکهای نامطلوب و نرخ تبدیل بیش از حد، پاپ آپ ها وشیوه های تبلیغاتی بیش از حد بر روی صفحه، به اصطلاح به دنبال کم کردن ترافیک ارگانیک و بردن کاربران به سمت انتقال بازدید هستند. جالب است بدانید که بعضی از این سایتها تا ۹۰ درصد از ترافیک خود را به جاهای دیگر منتقل میکنند و از حربههایی مانند تبلیغات بنری و تبلیغات کلیکی استفاده میکند.
الگوریتم فرد به این وب سایتها اجازه کار نمیدهد و معتقد است که این موضوع به کاربران گوگل لطمه میزند. بنابراین، وب سایتهایی که از این شیوه استفاده میکنند، باید در انتظار مجازات گوگل باشند که همان پنالتی شدن است.
در آگوست سال ۲۰۱۸، گوگل در توییتر تأیید کرد که در این هفته به روز رسانی الگوریتم های مرکزی به شکل گسترده انجام گرفته است. با وجود اینکه گوگل هر روز تغییراتی به صورت ریز و غیر محسوس در نتایج خود به وجود میآورد، اما برخی از آنها گستردهتر و متمرکزتر هستند. این مورد باعث میشود که الگوریتم های جدیدی به وجود بیایند که این الگوریتم نیز در بین آنها قرار میگیرد. کارایی الگوریتم Google BROAD CORE این است که هیچ کدام از وب سایتها محل امنی برای حضور ندارند و اگر یک وب سایت بتواند محتوای عالی و با کیفیت و البته «تخصصی» تولید کند، بدون توجه به رتبه سایت، میتواند خود را به بالاترین رتبه ممکن برساند.
این الگوریتم بخشی از الگوریتم اصلی Google BROAD CORE است که همزمان با آن شروع به کار کرده است. در ابتدا از این الگوریتم با عنوان Medic یاد میشد، زیرا بیشتر وب سایتهای مربوط به بخش پزشکی و بهداشتی را تحت تأثیر قرار میدهد. اما بعد از مدتی گوگل با تغییراتی در آن، اعلام کرد که حوزههای دیگر صنعتی و حقوقی را نیز توسط این الگوریتم تحت تأثیر قرار میدهد.
این در واقع یک ترفند از طرف گوگل برای تقویت سایتهای تخصصی است. اما میبینید وقتی که برای یک مطلب پزشکی تخصصی جستجو میکنید، بیشتر وبلاگهایی بالا میآیند که رتبه بهتری دارند. با وجود الگوریتم Medic، این موضوع منتفی شده و شما برای هر بحث تخصصی به همان وبسایت تخصصی آن هدایت میشوید.
پس میبینیم که روند رشد الگوریتم های گوگل بیشتر به سود کاربران و برای به دست آوردن مطالب مرتبط است. در حقیقت، گوگل این موضوع را در نظر گرفته که اکثر جستجوگران، افرادی با سطح دانش معمولی هستند که تنها کلید واژه را وارد میکنند و با جستجوی تخصصی آشنایی ندارند. حالا باید منتظر بمانیم تا ببینیم که گوگل در سالهای بعدی چه تغییراتی در الگوریتم های خود به وجود میآورد.
منبع: آموزشگاه کامپیوتر پایا