تاحالا به این موضوع فکر کردین که چجوری رتبه بندی سئو صورت میگیره یا آنالیز الگوریتم های گوگل به چه شکل انجام میشه؟ آیا همیشه پول صرف تبلیغات میکنین؟ فکر میکنم که دیگه وقتش رسیده این معما رو حل کنین و به سایت خودتون یه رونق حسابی بدین. اکثر افراد به دنبال آنالیز الگوریتم های گوگل برای رتبه بندی هستن. این که چجوری میتونن طی یه مدت کم، ترافیک سایت خودشون رو بالا ببرن و دیده بشن.
این که به صورت مداوم صفحه اول جستجو قرار بگیرین خیلی لذت بخشه و کیه که همچین چیزی رو دلش نخواد! ولی این اتفاقات یک شبه رخ نمیدن و نیازمند تلاش هستن. حتی اگر یک شبه هم رخ بدن (که در این صورت ارزش خاصی ندارن و یک شبه از بین میرن!) حفظ جایگاه به دست اومده قدم بعدی میشه. اگر دنبال پاسخ به این سوالها هستین، پس این مقاله رو مطالعه کنین.
اطلاعات و منابع صحیح
تجزیه و تحلیل الگوریتم های گوگل نیازمند دانش ریاضی قویه. ولی شاید برای شما هم جالب باشه که بعضی افراد معتقد هستن فقط ضریب همبستگی رتبهای اسپیرمن برای حل این الگوریتم ها کافیه! ولی راه حلهای دیگهای هم موجوده، مثل رگرسیون چند متغیره، روشهای آماری پیشرفته، یادگیری ماشینها و شبکهها. البته در این مقاله بیشتر تمرکز روی رگرسیون صورت گرفته. اینجا جاییه که داشتن مهارتهای تجزیه و تحلیل دادههای مناسب با تجربه SEO سئو به کار میاد و دیده میشه.
همینطور که این روزها بارها و بارها در مورد تجزیه و تحلیل Covid-19 دیده شده، فقط داشتن یک پسزمینه تحلیلگری داده برای این که یک نفر بیاد و ادعا کنه میتونه چالشهای متخصصان اپیدمیولوژی رو در توییتر حل کنه، کافی نیست. البته ممکنه به نظر بیاد خیلی از افراد ایدههای ارزشمندی رو با بقیه به اشتراک بذارن ولی اکثریت بدون احتیاط، اطلاعات غلطی رو گسترش میدن. خب گسترش این اطلاعات غلط نه تنها به تک تک افراد آسیب میرسونه بلکه کسب و کارها رو هم به خطر میندازه. طی این مدت به اندازه کافی اقتصاد و کسب و کارهای اینترنتی تحت الشعاع کرونا قرار گرفتن و آسیبهای زیادی متحمل شدن. رواج اطلاعات غلط در هر زمینهای شرایط رو بدتر میکنه. اینجوری تصور کنین که اگر اطلاعات غلطی درباره SEO توسط افراد غیر متخصص پخش بشه، چه اتفاقاتی پیش میاد؟
چرا رگرسیون چند متغیره؟
مسئله مهم اینه که، در مورد هر نوع تجزیه و تحلیلی، بررسی یک اندازه واحد کافی نیست. به این دلیل که عوامل مختلفی باهم در تعامل هستن. درباره موضوع مورد بحث ما هم امر صادقه. فاکتورهای مختلفی با یکدیگر همکاری میکنن و روی رتبه بندی سئو تأثیر میذارن. سئو همیشه از چندین معیار حرف میزنه و یک مجوعه رو در بهبود رتبه بندی مؤثر میدونه. برای همین موضوعه که روزانه هزاران مقاله پیرامون عوامل رتبه بندی گوگل نوشته میشه و با این حال هنوز هم کافی نیستن و همه به دنبال رسیدن به جایگاه اول در گوگل هستن. حداقل در این قسمت بررسی از طریق رگرسیون چند متغیره ضروریه.
علاوه بر این، استفاده از سری زمانی با تجزیه و تحلیل رگرسیون (جایی که عوامل طی یک دوره زمانی بررسی میشن نه در یک نقطه خاص) میتونه به تغییرات اصلی کمک کنه. در حالی که بینش به چیزهایی که الگوریتم اصلی به روز میشه، در حال تغییر مداومه.
ممکنه در قدم اول این کار سخت به نظر برسه. این که چجوری میشه تمام فاکتورها و عوامل رو باهم در راستای یک هدف حرکت داد. اما مطمئن باشین ترسیدن و کاری نکردن خیلی بدتر و دلهره آورتر از مرتکب خطا شدن و شکست خوردنه. قطعاً این رو شنیدین که هر شکست مقدمه پیروزیه. پس لزومی برای ترس نیست. هر مشکلی که پیش بیاد یک تجربه برای آینده میشه. زمانی که عوامل مؤثر برای رتبه بندی گوگل و سئو رو شناسایی کردین، فقط کافی طبق اونها پیش برین. طی چند مدت تأثیرات قابل ملاحظه در سایت خودتون رو حس میکنین. باز هم تکرار میکنم هیچ کدوم از این اتفاقات قرار نیست یک شبه بیفتن پس باید صبور باشین. اینجاست که آنالیز الگوریتم های گوگل خودش رو نشون میده!
رگرسیون چند متغیره و زمینههای علمی مختلف
برای آژانسهایی که به دنبال کسب اعتبار هستن، باید به زمینههای علمی که هر روزه مورد بررسی قرار میگیرن دقت کنین تا متوجه بشین چجوری تجزیه و تحلیل رگرسیون رو روی مناطق پیچیده انجام میدن. به عنوان مثال:
- افزایش سطح دریا
- علم مواد برای ابررسانایی
- چه عواملی ترافیک ارگانیک رو به سایتهای خرده فروشی هدایت میکنه؟
اهمیت مهارت در تجزیه و تحلیل الگوریتم های گوگل
منطقی نیست که اگه به کسی ابزاری رو ارائه بدیم بدون این که به اون شخص آموزش صحیح داده باشیم و تازه بعد توقع رسیدن به نتایج خوبی داشته باشیم. یعنی هر چقدر که اون ابزار کارآمد و مناسب باشه، بدون تخصص و مهارت رسماً به کار نمیاد. میتونین اینجوری تصور کنین که بهترین لپتاپ موجود رو بذارین جلوی یک بچه 3ساله. اون بچه حتی نمیدونه چجوری روشنش کنه. اصلاً شاید هم بدونه و حتی قارد باشه باهاش کار کنه ولی قطعاً در حد تواناییهای اون لپتاپ نیست. به همین دلیله که داشتن ذهنیت مناسب ( مثل قدرت کاربر) و قرار دادن دادهها در جایگاه مناسب، ابزار آماری پیشرفته رو تکمیل میکنه.
این ذهنیت برای تعیین این موارد نیاز هست:
- چه اطلاعاتی باید جمع آوری بشه؟
- این اطلاعات چه کیفیتی دارن؟
- کدوم اطلاعات قبل از شروع آنالیز لازم هست که حذف بشه؟
این یک استاندارد اساسی هست که نیاز به شناخت برخی تجربههای سئو، به خصوص برای تشخیص در سطح ویژه که چه معیارهایی ممکنه علت اصلی وقوع یک سری عوامل باشن، داره، عواملی مثل تعصب روی یک سایت و یک محصول یا اجتناب از اون، قصد خریدار و موارد مختلف دیگه.
داشتن این تجربه همچنین به این معنیه که آنالیز الگوریتم های گوگل شانس بیشتری برای شامل شدن اثرات متقابل ارزشمند برای تجزیه و تحلیل دارن. به ویژه وقتی که یک بهینه سازی جدا شده ممکنه به شکل یک هرزنامه دیده نشه مگه این که در ارتباط با تاکتیکهای دیگهای انجام بشه.
چرا الگوریتم های گوگل تغییر میکنن؟
شاید بهتر باشه قبل از پرداختن به ادامه موضوع یک توضیح مختصر درباره نحوه کار الگوریتم گوگل داشته باشیم. کلمه الگوریتم به یک روش مبتنی بر منطق، گام به گام برای حل یک مشکل خاص اشاره داره. در مورد یک موتور جستجو، مشکل اینه که چجوری گوگل یا به طور کلی یک موتور جستجو صفحات مربوطی رو برای جستجوهای ما پیدا میکنه؟ یعنی چجوری جستجو رو دریافت میکنه، رتبه بندی میکنه و نتایج مربوطه رو به ما برمیگردونه. گوگل بهترین موتور جستجو در وب هست. به این دلیل که بهترین نتایج رو در کمترین زمان ممکن ارائه میده. همیشه گوگل در حال به روز رسانیه، چون به دنبال بهترین بودن در ارائه نتایج به کاربران هست. به دنبال همین تغییرات، بسیاری از سایتها با رتبه بندی پایینتر جریمه شدن، در حالی که سایت های دیگه افزایش ترافیک ارگانیک و بهبود یافتن رتبه بندی رو تجریه کردن.
تغییرات گوگل میتونه بزرگ یا جزئی باشه. با این حال اکثراً تغییرات، جزئی هستن. در سال 2014، گوگل تقریباً 500 تغییر در الگوریتم ها ایجاد کرد که بعد از این تغییرات عمده خیلی از سایت ها رتبه بندی حودشون رو از دست دادن.
الگوریتم گوگل
دونستن این که گوگل از یک الگوریتم یکپارچه تک استفاده نمیکنه، به این معنیه که هر گونه تجزیه و تحلیل باید شامل دسته بندیها یا گروههایی باشه:
- هدف کلمه کلیدی
- میزان جستجو
- موقعیتهای رتبه بندی
- صنایع
به همین دلیله که بررسی پراکندگی دادهها برای اطمینان از عدم وجود مشکلات زیر صورت میگیره:
- Heteroskedasiticity یا ناهمواریانسی: دادههایی که به دلیل ناهمسانی پراکندگی روی پلات به بیرون زنگولهای میشن.
- Simpson’s Paradox یا پارادوکس سیمپسون: وقتی یک ترند در دو یا چند جمعیت آماری مشاهده میشه اما با ترکیب این جمعیتهای آماری، ترند، معکوس میشه.
بنابراین نمودارهای پراکندگی و خطی باید در تجزیه و تحلیلها به عنوان یک راه برای این که این مطالعه از مشکلات آماری جلوگیری میکنه، نشون داده بشه. ارائه یک رگرسیون استاندارد به کسایی که دارای یک پس زمینه آماری هستن کمک میکنه که به راحتی و با سرعت بدون نیاز به جداسازی عوامل، نتیجه گیری کنن. فقط لازمه که بررسیهای لازم انجام بشه. این بررسیها با کمک به یافتن نقاط کور، پیش فرضهای چالش، بهبود کیفیت مطالعه و ایجاد فضای مناسب برای SEO، ما رو به سطح دیگهای از اعتماد میرسونه.
میتونید به مقاله Hulya Coban برای نحوه نوشتن یک مطالعه رگرسیون و استفاده از پایتون برای اجرا یک مدل رگرسیون خطی نگاهی بندازین. اما ما واقعاً میخوایم درک کنیم که چه چیزی در الگوریتم گوگل اتفاق میفته.
روشهای آماری پیشرفته
روشهای آماری پیشرفته و مهارتهای آنالیز الگوریتم های گوگل با تجربه SEO برای هر صنعتی ضروریه. به اندازه کافی روشهایی وجود داره که به ما کمک میکنه و پیشنهادات لازم رو برای مطالعات معتبر ارائه میده. هر روزه نقدهای متفاوتی پیرامون روشهای مختلف سئو ارائه میشه ولی قطعاً همه اونها معتبر و صحیح نیستن. خیلی از متخصصان همیشه در حال تحقیق پیرامون همین موضوع هستن تا نقدهای درست رو به دست ماها برسونن و از سوء استفاده بعضی افراد جلوگیری کنن.
یک مدل رگرسیون چند متغیره با توجه به نیاز به تکیه بر داده های تاریخی و میزان نگهداری در طول زمان کامل نیست. در غیر این صورت یک تعصب در نتایج ایجاد میکنه. هنوز هم یک گام در جهت درست برای صنعت سئو، بیشتر آماری به نظر میرسه.
آنالیز الگوریتم های گوگل با حجم بالای داده
اگر مقدار زیادی از دادهها و همچنین زمان و منابع رو داشته باشیم، لازمه که یک سری کارها رو انجام بدیم تا بتونیم جز اولین پیشگامان در این عرصه قرار بگیریم. پس به یک سری موارد نیاز هست:
- یک مدل آماری پیشرفته مثل رگرسیون چند متغیره
- یک ذهنیت آماده با تجربه SEO
- مجموعهای از معیارهای بزرگ و مختلف(زمانی که با کیفیت باشن از نظر تعداد کاهش پیدا میکنن)
- معیارهای تعامل
- گروه و دستههایی از دادهها
- یک دوره زمانی بیشتر از یک هفته
- حذف دادههای اضافی
- توضیح درباره روش استفاده شده
- دادهها و تجزیه و تحلیلهایی که قبلاً بررسی شدن
- ناهمواریانسی و اقتصاد سنجی و هر نکته بررسی شده دیگه
چجوری بفهمیم توسط الگوریتم های گوگل جریمه شدیم؟
اگر سایت شما هر کدوم از نشونههای زیر رو داشت، ممکنه دلیلی باشه برای جریمه شدن توسط الگوریتم های گوگل:
رتبه بندی و ترافیک ارگانیک پایین
شاید این مورد یکی از نتایج آشکار جریمه شدن باشه. یعنی کاهش ناگهانی در رتبه بندی سایت شما در SERPs. مثلاً اگر جلوی سایت شما از صفحه اول گوگل برای یک اصطلاح گرفته بشه ، ترافیک سایت شما تقریباً بلافاصله اثرات رو احساس میکنه. با توجه به این که نتایج بالا در جستجوهای ارگانیک تقریباً 35 درصد از کلیکها رو دریافت میکنن، تنزل رتبه بندی میتونه فاجعه بار باشه.
تغییر دستی رتبه
در اغلب موارد، الگوریتم گوگل بیشترین کار رو هنگام مجازات صفحات انجام میده. یعنی گوگل اگر به سایت شما مشکوک بشه و تشخیص بده که شما خوب عمل نمیکنین، یک سری اقدامات دستی رو اعمال میکنه. این اتفاق هم طی زمان رخ میده. خوشبختانه گوگل قبل از اقدام به هر عملی به شما اطلاع رسانی میکنه. چون گوگل که نمیخواد همه سایتها بدون هیچ دلیلی جریمه بشن. تا زمانی که از تکنیکهای سئو کلاه سیاه استفاده نکنین، از جریمه شدن در امان میمونین.
تحریم شدن توسط گوگل
اگر شما کارهایی مثل خرید لینکها، اسپم کردن دایرکتوریها یا استفاده بیش از اندازه از کلمه کلیدی رو انجام داده باشین، به احتمال زیاد گوگل سایت شما رو وارد blacklist خودش میکنه. البته شامل انجام کارهای غیرقانونی مثل توزیع یک ویروس یا بدافزار در سایت هم میشه. گوگل هیچوقت شک و تردیدی نسبت به تنبیه سایتهای متقلب نداشته، چون هدف اول گوگل اینه که کاربران از یک سایت راضی باشن. البته نگران موضوع جریمه شدن نباشین. اگر واقعاً قصد اصلاح سایت خودتون رو دارین با استفاده از تغییرات الگوریتمهای سئو گوگل میتونین این کار رو انجام بدین. فقط قبل از اون باید بررسی کنین که با چه جریمههایی مواجه هستین.
انواع الگوریتم های گوگل
در اینجا 5 الگوریتم اصلی جستجو گوگل آورده شده. هر یک از به روزرسانیهای الگوریتم های گوگل تأثیر مهمی در بازاریابی موتور جستجو، سئو سایت، آنالیز الگوریتم های گوگل و استراتژی کلی محتوا سایت شما برای بهترین نتایج داره:
الگوریتم پاندا
احتمالاً اسم این الگوریتم رو شنیدین. به روز رسانی الگوریتم پاندا انقلاب عظیمی در سئو ایجاد کرد و توجه هر کسب و کاری رو به خودش جلب کرد. یک درس مهم که میشه یاد گرفت اینه که سئو هرگز ثابت نیست و به طور مداوم در حال تکامله. بعنی ممکنه بهترین شیوههای امروز، فردا منسوخ بشن.
الگوریتم پنگوئن
در سال 2012 گوگل اولین به روزرسانی الگوریتم پنگوئن رو منتشر کرد. در حالی که به روزرسانی پاندا در درجه اول محتوا بیکیفیت رو هدف قرار میداد، الگوریتم پنگوئن روی پیوندهای ورودی تمرکز پیدا کرد. قبل از سال 2012 صاحبان سایت از تاکتیکهای مختلفی برای ساختار لینک استفاده میکردن که الان تعداد انگشت شماری از اون روشها کار میکنه.
الگوریتم مرغ مگس خوار
در سال 2013، گوگل یکی از مهمترین پیشرفتهای الگوریتم موتور جستجو رو به روز کرد. الگوریتم مرغ مگس خوار یک پلتفرم سریع و دقیقه که باعث میشه کاربران راحت به مواردی که در جستجوی اونها هستن دست پیدا کنن.
الگوریتم کبوتر
الگوریتم کبوتر در سال 2014 به روزرسانی شد. این الگوریتم بر تجربه جستجوگران محلی تأکید کرد. برای تأمین نیاز کاربرانی که به دنبال محصولات و مشاغل تجارب هستن بسیار مهم بود. در واقع گوگل نتایج موتور جستجو خودش رو با Google Maps ترکیب کرد تا همون نتایج رو تولید کنه، البته نتابج کاملتر. مثلاً وقتی که شما “بهترین پیتزا تهران” رو جستجو میکنبن.
الگوریتم فِرِد
از سال 2017 سؤالهایی پیرامون این الگوریتم وجود داره. چون همچنان گوگل به روزرسانی رو تأیید نکرده. این به روزرسانی مشکوک به هدف قرار دان سایت ها برای تأکید بر تولید محتوا با کیفیت.
امیدوارم این مقاله آنالیز الگوریتم های گوگل به شما کمک کرده باشه تا به روزرسانی اصلی گوگل رو بشناسین. الگوریتم های گوگل از پاندا گرفته تا فرد و فراتر از اون، همه برای کمک به جستجوگران هستن و در واقع با محتواهای بی کیفیت مبارزه میکنن. از طریق این الگوریتم ها بازاریابان میفهمن که چه کاری رو برای موندن در جایگاه خوب گوگل باید انجام بدن. علاوه بر این اگر مشکلی پیش بیاد ما میدونیم که چجوری اونها رو بر طرف کنیم.