سقوط مبهم وبسایتها و بررسی ضعفهای گوگل و الگوریتمها
با نام و یاد خدا، موضوعی که در این ساعت قصد پرداختن به آن را داشتم، علت یا علل عدم موفقیت وبسایتهای بزرگ ایرانی در کسب جایگاههای جهانی بود که بنا بر دلایلی، این موضوع را به فرصت دیگری موکول کرده و در این ساعت به مبحث مهمتری خواهم پرداخت که بیشک پرسش بسیاری از مخاطبین نیز بوده و خواهد بود.
ضعفهای الگوریتمهای گوگل، موضوعی که شاید خود مسئولین کمپانی نیز از آن آگاه بوده و هستند و اما به دلایل تجاری و بیزنسی، هرگز به زیر بار این ضعفها نرفتهاند. در این نوشته میخواهیم این موضوع را بیشتر تشریح نماییم و در نهایت خواهیم دید که بسیاری از آسیبهایی که به وبسایتها وارد میشود، نه نتیجه کار غیرحرفهای و نه نتیجه سهل انگاری مدیران و نه نتیجه عدم مدیریت صحیح و نه نتیجه عدم کیفیت سرورها و دامنهها و زیر دامنهها و نه نتیجه استاندارد نبودن و بلکه نتیجه ضعف الگوریتمهایی است که وظایف مختلفی را باید به عهده داشته باشند که این وظایف را گاها با ضعفهای آشکاری، کامل و درست به پایان نمیرسانند و وبسایتهایی بیمسئولیت، خلافکار، اسپم نویس، سارق آثار پژوهشی و… بهراحتی از این ضعفها استفاده کرده و الگوریتمهایی را که در تبلیغات و معرفی آنان، به عنوان غولهای کمپانی معرفی شدند را دور میزنند و در جایگاه هایی قرار میگیرند که شایسته آنها نیست . الگوریتم ها را کم و بیش میشناسیم و از تکرار مجدد تعاریف و کار و وظایف آنها خودداری کرده به سراغ اصل موضوع میروم.
الگوریتم گوگل پنگوئن Google Penguin algorithm
به نظر میرسد که کار این الگوریتم، مبارزه با کمپین لینک بوده و جریمه وبسایتهایی که از جایگاه خود سو استفاده کرده و لینک میفروشند و آنها که این لینکها را میخرند. این الگوریتم وظایف دیگری نیز دارد که جای بحث آن اینجا نیست. خب ببینیم که ضعف این الگوریتم چیست؟ فرض میکنیم که وبسایتی دارای رتبه عالی بوده و برای مثال پیج رنک 5 دارد و با این امکان، اقدام به فروختن لینک و یا راهاندازی کمپین لینکها در سایت خود نموده است. تا اینجا به ظاهر، گوگل با یک وبسایت خلافکار (طبق قوانین کمپانی) روبروست و الگوریتم پنگوئن، موظف است بعد از شناسایی و پیبردن به خلاف این وبسایت، آن را طبق اطلاعیهای که در معرفی این الگوریتم ارایه شد، جریمه کرده و جایگاه آن را گرفته و از آن پس نیز هرگز ارتقا ندهد. خب تا اینجا بسیار هم عالیست. اما مشکل کجاست؟ مشکل جاییست که پنگوئن، تر و خشکها را با هم میسوزاند و در واقع توان دنبال نمودن لینکهایی که در کمپین لینک وبسایت خلافکار بوده را ندارد.
پنگوئن تمام لینکهایی را که در کمپین بودهاند را به عنوان خریداران لینک شناسایی و آنان را نیز جریمه میکند. ایراد کار چیست؟ ایراد از آن جایی نشات میگیرد که بسیاری از لینکهای قرار داده شده در کمپینها میتوانند با هدف تخریب سایر وبسایتها قرار داده شده باشند، بدون اینکه مسئولین آن، خلافی را مرتکب شده باشند و نمونه آن، وبسایتهای ثبت لینک، تبادل لینک و سایر وبسایتهایی است که چه لینک را میفروشند و چه رایگان عرضه میکنند. رقبایی که توان رقابت سالم در محیط را ندارند، با پی بردن به این ضعف بزرگ پنگوئن، از این هربه برای آسیب رسانی به وبسایتهای دیگر استفاده کرده و به راحتی این الگوریتم را دور زده و به آن به غلط تفهیم میکنند که سایت مقصد، خریدار بوده و خلافکار است و پنگوئن نیز، از آنجا که توان دنبال نمودن و پیبردن به اصل ماجرا را ندارد، به سرعت تمامی لینکها را با چشم بسته جریمه میکند. نتیجه این میشود که فردی درستکار با وبسایتی بدون 1 خط اسپم، میگوید که نمیدانم چرا وبسایتم پیشرفت نمیکند.
موضوع بعدی در رابطه با بخش بیزنسهاست که خواهیم دید چگونه گوگل، بر خلاف شعار خود، کیفیت را فدای درآمد میکند. در این کمپانی، دو بخش Google Adwords و Google Adsense که به ترتیب مسئول دریافت تبلیغات سازمانی و شخصی در امور وبسایتها هستند، به نحو چشمگیری با بخش ضد اسپم این کمپانی ارتباط دارند. این دو سرویس که درآمد کل کمپانی نیز به میزان 10 میلیارد دلار در 8 سال پیش (یعنی تنها در سال 2006) و 16 میلیارد دلار در سالهای اخیر، را تامین میکنند (گزارش ادوارد سیک در آنوال ریپورت http://www.webcitation.org/61rPRmWhL) به اَشکالی گوناگون نشان دادهاند که آن دسته وبسایتها که هزینه میکنند، میتوانند به نوعی از الگوریتمها نیز عبور نموده و فارغ از محتوای خود (چه اسپم چه محتوای سرقتی چه تازه و نوآورانه) جایگاههای خوبی را برای خود دست و پا نمایند و آن دسته وبسایتها که هزینه نمیکنند را به راحتی لگد مال نمایند. نتیجه چه میشود؟ فردی برای نمونه، عبارت مقالات وردپرس را در این موتور جستجوگر سرچ میکند و به ردیف، محتویاتی را خواهد دید که همگی از روی یکی کپی برداری شدهاند، خب قضیه جالبتر مانده و آن این موضوع است که در صفحات سوم و چهارم و پنجم از نتایج جستجو، با تعجب به موارد تازه و جدیدی بر میخورد. این به چه معناست؟ گوگلی که خود وبسایتها را از خرید بک لینک بازداشته و مجازات میکند، خود مقولهای به نام پیج رنک را در معرض فروش قرار میدهد و آشکار و پنهان، این موضوع را القا میکند که میتوانید پول بدهید و فارغ از کیفیت محتوای خود، جایگاههای خوب را کسب کنید. اگر به نشریه خوارزمی در 21 سپتامبر 2011 هم نگاهی داشته باشیم که گوگل از کلیک بر هر لینک تبلیغاتی 60 سنت سود میکند، این روند هم منطقی به نظر میرسد که محتوای لینکی که تبلیغات داده است، میتواند برای گوگل بیاهمیت باشد. البته در این نکته که تبلیغات بسیار هم خوب است شکی نیست اما اینکه تبلیغات هر محتوایی از نظر گوگل، یکسان تلقی و یکسان مورد لطف قرار میگیرد، نه تنها یک ضعف برای الگوریتمها بلکه یک ضعف اساسی و ناعادلانه برای کل کمپانی گوگل محسوب میشود که فضای رقابت سالم را به فضای جنگ سرمایه تبدیل میکند. این یک اتهام نیست، بلکه واقعیتی است که وجود دارد، چه ما بر سر و کله یکدیگر بکوبیم و چه نکوبیم، این مورد وجود دارد.
الگوریتم گوگل پاندا
خب به الگوریتم پاندای گوگل میرسیم. الگوریتمی که شاید وقتی نسخه سوم آن معرفی شد، همگان فکر کردند که از شر کپی کنندگان راحت شدند در حالی که چنین نبود و در ادامه خواهیم دید که کپیکنندهها و سارقان آثار، چگونه این الگوریتم را دور میزنند. پاندا 3 در واقع چیز جدیدی نبود، بلکه به نوعی در آن تلاش شد ضعفهای نسخههای قدیمیتر، اصلاح شود. با ورود این الگوریتم، از آنجا که ما در ایران 70 میلیون نفر بهینهساز داریم، این الگوریتم، غول مبارزه با کپی برداران محتوا و سارقان آثار منتشر شده معرفی شد. عدهای به شکلی ماهرانه که نشان داد همیشه خلافکارها یک قدم جلوتر از الگوریتمها هستند، با نامنویسی در خبرنامههای وبسایتهای درستنویس و تمیزکار، بلافاصله از ورود محتوای جدید به سایتها آگاه شده و در دم اقدام به های لایت و کپی مطلب در وبلاگ و یا وبسایت خود (که سابقا نیز با تبلیغات بالاتر از آن وبسایتها قرار گرفته بود) کرده و به نوعی پاندا 3 و جانورهای گوگل و روباتها و عنکبوتهای کند گوگل را، پیش از رسیدن به آن مطلب، دور میزنند و آن مقاله و مطلب را به نام وبسایت خود، به عنوان محتوای تازه، منتشر میکنند . نتیجه چه میشود؟ پاندا و روباتها کند هستند، کندتر از خلافکاران، وبسایت اصلی جریمه میشود و وبسایت سارق تقدیر شده و لینکش در جایگاه بهتری قرار میگیرد. مدیران وبسایت جریمه شده بعد از چند روز، لینک خود را در ته نتایج دیده و یا همان مطلب را در رتبه اول اما با آدرس دیگری تماشا میکنند. این به نظر عادلانه نمیرسد، اما ما باور داریم که فضا، فضای رقابت سرمایه است و نه رقابت نوآورانه و سالم و منطقی و تمیز.
الگوریتم مرغ مگس خوار
این الگوریتم که سالهای زیادی از عمر آن نمیگذرد، به نوعی آمده است تا خلاف تمام گفتههای ما در این مقاله را اثبات نماید. اما هنوز نیامده ایرادی از جانب پارسی زبانان به آن وارد شد که جای تامل داشت. این الگوریتم، زبان پارسی را به درستی تشخیص نمیدهد و تعدادی از واژههای پارسی مانند ک و ی و گ و پ را به شکل عربی آن (ي) و (ك) مورد تحلیل قرار میدهد که در نتایج کار آن در وب پارسی، یک ضعف محسوب میشود. این الگوریتم از آنجا که هنوز آنطور که باید و شاید مورد مطالعه قرار نگرفته، و از طرفی هدف آن توجه بیشتر به محتوا اعلام شده است، کار خود، ادعای گوگل، ضعفها و نقاط قوت خود و سایر موارد را در آینده بهتر نشان خواهد داد.
دیدگاهها در "سقوط مبهم وبسایتها و بررسی ضعفهای گوگل و الگوریتمها"
دیدگاه خود را بنویسید
برای نوشتن دیدگاه باید وارد بشوید.
بسیار کامل بود روحان جان
همونطور که اشاره کردید واقعاً در برخی موارد نتیجه ها معکوس بوده
ممنون
خواهش میکنم امیر عزیز . خوشحالم که مفید بود و استفاده کردید .
سلام جناب روهان دست شما درد نكنه يه سوال داشتم از خدمتتون من سايتم نزديك به يك سال و دو ماه هست شروع به كار كرده و رتبه الكساي سايت من 800 تقريبا است yeknet.ir مي خواستم ببينم رشد سايت نسبت به عمر كمش خوب بوده؟ و اينكه آيا دچار اين الگوريتم هاي جديد گوگل خواهد شد يا نه ؟ چون در هر صورت 90 درصد مطالب كپي است البته با تيترهاي متفاوت ..ممنون ميشم پاسخ بديد
سلام و شب به خیر YEKNET عزیز . بله بسیار هم عالی بوده . البته این که گفتید 90 درصد مطالب کپی بوده , واقعا آفرین داره به شجاعت و صداقت شما . به هر حال تبریک میگم .
این مطلب رو الان نتونستم بخونم .
مطمئنم چون شما نوشتید عالی است.
موفق باشید
سلام رضا جان شب به خیر . خواهش میکنم . محبت دارید
مطلب جالبی بود به نکات خوبی اشاره کرده بودید ولی درمورد مرغ مگس خوار توضیح کم بوداز طرفی درمورد ربات های یاهو وبینگ که اصلاشناخته شده نیستند چیزی نگفتید چرا؟
یک جوان عزیز سلام . شب به خیر . بله مرغ مگس خوار , همونطور که گفتم چون عمر زیادی نداره و مکانیسم عملش هنوز اونطور که باید و شاید محک نخورده , غیر از اون یک موردی که عنوان شد , مورد دیگه ای رو من مشاهده نکرده بودم . در رابطه با ربات های یاهو و بینگ هم در اولین فرصت که منابعش رو بتونم پیدا کنم , ترجمه میکنم و خواهم نوشت . موفق باشید
سلام روحان جان … ممنون و تشکر و مطلب بسیار خوبی بود، کاش گوگل هم وقت میگذاشتو این مطلبو میخوند. خخخخخخخخخ
دقیقا هم سایت ما با 4 سال سابقه، بعد از اپدیت جدید الگوریتم گوگل شده شبیه یک وبلاگ دو سه ماه امارش !!!!!!
نمیدونم والا چی بگم.
ادرس سایتمو لینک کردم اقا روحان، اگر وقت کردید یه نگاه بندازید ببینید مشکلش چیه از نظر گوگل که این همه رتبه سایت رو کشونده پایین.
تشکر و سپاس
عالی بود تشکر
سلام
تو رو قرآن استراتژی شرکتی مثل گوگل رو تفسیر نکنید – در این حدود نیستید
شما خودتون در حدی هستید که اعلام کنید ما توان انجام اینکار رو داریم یا نه؟ که اگر بودید از نام و ایمیل درست استفاده میکردید برای گذاشتن دیدگاه
ممنونم مطلب جالبی بود
خیلی هم نکات خوبی رو اشاره کرده بودید
امیدوارم الگوریتم های گوگل هرچه بیشتر بهبود پیدا کنند و به سمتی پیش بروند که سایت های مفید رو که به کاربران احترام میزارند در صدر نتایج ببینیم