عکس های خفن

عکس های خفن

عکس های خفن

عکس های خفن

صفحه نتایج موتور جستجو

 نمونه از صفحه نتایج موتور جستجو

نسخه‌های اولیه الگوریتم‌های جستجو به اطلاعات فراهم شده توسط مدیران وب سایت‌ها نظیر متا تگ واژه‌های کلیدی، یا فایل ایندکس موتورهای جستجو مانند ای‌ال‌آی‌وب اعتماد و اتکا می‌کردند. متاتگ‌ها یک راهنمایی برای محتوای  هر صفحه فراهم می‌کنند. با این‌حال، استفاده از داده‌های متا در صفحات ایندکس، کمتر قابل اطمینان بود زیرا انتخاب واژگان در یک متاتگ توسط وب سایتها، بالقوه می‌تواند یک نمایش غیر دقیق از محتوای واقعی وب سایت باشد. داده‌های نادرست، ناقص و ناسازگار در متا تگ‌ها می‌تواند موجب رتبه‌بندی شدن صفحه برای جستجوهای غیر مرتبط گردد. تولیدکنندگان محتوای شبکه همچنین تعدادی از ویژگی‌های منبع اچ‌تی‌ام‌ال یک صفحه را دستکاری کردند تا  رتبه صفحه را در موتورهای جستجو بهبود بدهند.

با تأکید بر عواملی مانند تراکم واژه کلیدی، که بطور انحصاری تحت کنترل مدیر وب سایت است، موتورهای جستجوی اولیه از سوء استفاده و دستکاری رتبه‌بندی رنج می‌بردند. به منظور ارائه نتایج بهتر به کاربران خود، موتورهای جستجو باید انطباق یافته و از نتایج صفحاتی اطمینان یابند که نتایج مرتبط تری دارند، نه نتایج مربوط به صفحاتی که نامربوط بوده و توسط مدیران شبکه بدون وجدان کاری و با استفاده از کلمات کلیدی متعدد پر شده‌اند. از آنجایی که موفقیت و محبوبیت یک موتور جستجو از طریق توانایی آن در تولید نتایج مرتبط تر در قبال هر جستجوی صورت گرفته مشخص می‌شود، کیفیت پایین یا نتایج نامرتبط می‌تواند سبب سوق دادن کاربران به منابع جستجوی دیگر شود.  موتورهای جستجو با توسعه الگوریتمی رتبه‌بندی پیچیده‌تر به این عمل پاسخ دادند؛ که در آن عوامل بیشتری مورد توجه قرار می‌گیرند و دستکاری را برای مدیران شبکه، سخت‌تر می‌سازند. لری پیج و سرگئی برین دو دانشجوی فارق التحصیل دانشگاه استنفورد یک موتور جستجو موسوم به بک‌روب را توسعه دادند که جهت ارزیابی برجستگی صفحات وب، به یک الگاریتم ریاضیاتی تکیه داشت. عددی که توسط الگوریتم محاسبه می‌شد، یعنی «رتبه صفحه»،  تابعی است از مقدار و قدرت لینک‌های ورودی. رتبه صفحه میزان یک صفحه معین را که توسط یک کاربر که بصورت تصادفی شبکه را جستجو می‌کند مورد دسترسی قرار گرفته، تخمین می‌زند و لینک‌های یک صفحه به صفحه دیگر را دنبال می‌کند. در واقع، این بدان معناست که برخی لینک‌ها از سایر لینک‌ها قوی تر بوده، رتبه صفحه بالاتر احتمال دیده شدن صفحه توسط وب گردهای تصادفی را افزایش می‌دهد.

پیچ و برین، گوگل را در سال ۱۹۹۸ بنیان‌گذاری کردند. گوگل درمیان کاربران فزاینده اینترنت، هواداران ثابت قدمی را به خود جذب کرد که طراحی ساده آن را دوست داشتند. عوامل خارج از صفحه (مانند رتبه صفحه و تجزیه تحلیل لینک) نیز همانند عوامل داخل صفحه (فراوانی واژه‌های کلیدی، متاتگ‌ها، عنوان‌ها، لینک و ساختار وب سایت) مورد توجه قرار گرفتند تا گوگل را قادر به این امر سازند که از نوعی دستکاری که در موتورهای جستجویی دیده می‌شود که تنها به عوامل داخل صفحه توجه می‌کنند، اجتناب نماید. علی‌رغم اینکه به بازی گرفتن رتبه صفحه سخت‌تر بود، مدیران شبکه سرانجام ابزارها و طرح‌های تولید لینک را جهت تحت تأثیر قرار دادن موتور جستجوی اینکتومی توسعه دادند، و این روش‌ها ثابت کردند که به طریقی مشابه می‌توان رتبه  صفحه را تحت تأثیر قرار داد. بسیاری از وب سایت‌ها روی تبادل، خرید و فروش لینک در حجم زیاد و وسیع متمرکز هستند. بعضی از این طرح‌ها یا مزارع لینک، موجب ایجاد هزاران وب سایت برای فروش هرزنگاری لینک‌ها می‌شوند.

تا سال ۲۰۰۴، موتورهای جستجو، طیف گسترده‌ای از عوامل نامعلوم را در الگوریتم‌های رتبه‌بندی خود جای داده بودند تا اثر دستکاری لینک‌ها را کاهش دهند. در ژوئن ۲۰۰۷، یک گزارشگر از نیویورک تایمز بنام سول هنسل گفت که گوگل، رتبه‌بندی سایت‌ها را با استفاده از بیش ۲۰۰ علامت مختلف انجام می‌دهد. موتورهای جستجوی پیشرو یعنی گوگل، بینگ و یاهو الگوریتم‌های رتبه‌بندی‌های خود را افشا نمی‌کنند. برخی از شاغلان در سئو روش‌های مختلفی را جهت بهینه‌سازی موتور جستجو مورد مطالعه قرار داده و نظرات شخصی خود را منتشر نموده‌اند. ثبت اختراع‌های مربوط به موتورهای  جستجو می‌تواند اطلاعاتی را برای درک بهتر موتورهای جستجو فراهم نماید.

در سال ۲۰۰۵، شروع به شخصی‌سازی نتایج جستجو برای هر کاربر نمود. بر اساس تاریخچه جستجوهای قبلی آنها، گوگل اقدام به ایجاد نتایج برای کاربرانی نمود که وارد حساب کاربری خود شده‌اند. در سال ۲۰۰۸، بروس کلی گفت که «رتبه‌بندی مرده است» زیرا جستجوی شخصی شده سبب آن می‌گردد. او احضار کرد که بحث در مورد نحوه رتبه‌بندی یک وب سایت بی‌معنی است؛ زیرا رتبه یک وب سایت، بالقوه برای هر کاربر و هر جستجو می‌تواند متفاوت باشد.
در سال ۲۰۰۷، گوگل کمپینی به راه انداخت علیه لینک‌هایی که در ازای پرداخت پول، رتبه صفحه را منتقل می‌کنند. در ۱۵ ژوئن ۲۰۰۹، گوگل فاش کرد که اقداماتی در پیش گرفته تا با استفاده از ویژگی‌های نوفالو در لینک‌ها، اثر مدلسازی رتبه صفحه را کاهش دهد. مت کاتس یک مهندس نرم‌افزارشناخته شده در گوگل، اعلام کرد که عنکبوت خزنده گوگل دیگر به طریق مشابه به لینک‌های دنبال نشده نمی‌پردازد تا تأمین کنندگان خدمات سئو را از استفاده از آن در تعیین مدلسازی رتبه صفحه منع نماید. در نتیجه این تغییر استفاده از نوفالو منجر به از دست رفتن رتبه صفحه می‌شود. به منظور اجتناب از این امر، مهندسان سئو تکنیک‌های جایگزینی را توسعه دادند که تگ‌های نوفالو شده را با جاوا اسکریپت مبهم جایگزین کرده و در نتیجه، مدلسازی رتبه صفحه را میسر می‌سازد. بعلاوه چند راه حل پیشنهاد شده است که شامل استفاده از آی‌فریم، فلش، جاوا اسکریپت می‌شود.
در دسامبر ۲۰۰۹، گوگل اعلام کرد که از سوابق جستجوی تمام کاربرانش جهت جمع‌آوری نتایج جستجو استفاده خواهد کرد.

در ۸ ژوئن ۲۰۱۰ از یک سیستم ایندکس گذاری جدید موسوم به گوگل کافئین رونمایی شد. گوگل کافئین تغییری بود در روش به روز شدن ایندکس گوگل به منظور نمایش سریعتر نتایج گوگل نسبت به گذشته. این سیستم طراحی شد تا به کاربرها اجازه یافتن سریعتر از قبل نتایج جدید، پستهای فورم‌ها و سایر مطالب را بلافاصله پس از انتشار آنها بدهد. Carrie Grimes مهندس نرم‌افزاری که به گوگل، سیستم کافئین را معرفی کرد، معتقد است که این سیستم جستجوهای شبکه را ۵۰ درصد نسبت به ایندکس پیشین بهبود می‌دهد.

سئو

سئو سایت

گوگل اینستنت، یا جستجوی زمان واقعی، در اواخر سال ۲۰۱۰ در تلاشی به منظور به‌هنگام‌تر و مرتبط نمودن جستجوها ارائه شد. به‌طور تاریخی، ادمین‌های وب سایت‌ها، ماه‌ها و یا حتی سالها روی بهینه‌سازی یک وب سایت و ارتقای رتبهٔ جستجوی آن زمان گذاشته‌اند. با گسترش عمومیت وب سایت‌ها و وبلاگ‌های رسانه‌های اجتماعی، موتورهای جستجوی پیشرفته در الگوریتم‌های خود تغییراتی ایجاد کردند تا مطالب تازه به سرعت در میان نتایج جستجو رتبه‌بندی شوند.

در فوریه ۲۰۱۱، از آپدیت پاندا خبر داد که وب سایت‌هایی را که حاوی محتوای تکثیر شده از وب سایت‌ها و منابع دیگر باشند، جریمه می‌کند. بطور تاریخی، وب سایت‌ها محتوا را از یکدیگر کپی کرده و از آن در رتبه‌بندی موتورهای جستجو بهره‌مند شده‌اند. با این حال، گوگل یک سیستم جدید پیاده‌سازی کرد که سایتهایی را که حاوی محتوای منحصر به فرد نیستند، جریمه می‌کند.

در آوریل ۲۰۱۲، گوگل از آپدیت گوگل پنگوئن رونمایی کرد که هدف آن، جریمه کردن وب سایت‌هایی بود که از روش‌های دستکاری جهت بهبود رتبه خود در موتورهای جستجو استفاده می‌کردند.

در سپتامبر ۲۰۱۳، کمپانی گوگل از آپدیت الگوریتم مرغ مگس خوار رونمایی کرد؛ یک الگوریتم که جهت بهبود پردازش زبان طبیعی گوگل و درک معنایی صفحات وب طراحی شد.

سئو سایت و بهینه سازی سایت در اصفهان

سئو سایت و بهینه سازی سایت+

نظرات 0 + ارسال نظر
برای نمایش آواتار خود در این وبلاگ در سایت Gravatar.com ثبت نام کنید. (راهنما)
ایمیل شما بعد از ثبت نمایش داده نخواهد شد