Як тільки з’явилася глобальна мережа, пошукові системи отримали фільтрацію результатів запитів. На той час і з’явилася індексація сайту за ключовими словами. Перевірка індексації сторінок сайту робилася просто – чим більше ключів знаходив на ньому пошуковик, тим вищий був ресурс у видачі. Для прискорення індексації сайту та його просування на топові позиції досить було додати туди якнайбільше популярних фраз. Такий метод оцінки призвів до того, що на перших рядках результатів пошуку з’являлися абсолютно марні сторінки, часто заповнені необхідними словоформами. І це був текст не для клієнтів, а для роботів. Адже жива людина просто закриє такий просунутий сайт і піде шукати ресурс, де інформація читальна і зрозуміла.
З того часу багато що змінилося. Пошукові роботи навчилися оцінювати сайти не тільки за ключовими словами, але й за іншими параметрами для отримання найбільш релевантних даних та ранжування у видачі.
Сьогодні індексація сайту складається з трьох етапів: сканування, аналіз та видача результатів.
Так алгоритми пошукових систем складають індекс і шукають лише потрібні сторінки.
Алгоритм відповідає за те, як провести індексацію сайту, та в процесі аналізує ряд унікальних характеристик кожної веб-сторінки, що індексується. Це допомагає пошуковим системам відображати найбільш релевантні сторінки у відповідь на запит користувача.
Мало хто знає реальні алгоритми пошукових систем. Основний механізм тримається в секреті, інакше робота пошукових систем може бути паралізована. І у відповідь на запит користувача видаватимуться результати, далекі від того, що людина дійсно шукає. Тому немає чарівних рецептів, як дізнатися про тонкощі індексації сайту і як гарантовано вивести сторінки на перші місця у видачі.
Головне, що потрібно знати: позиція відображення ресурсу залежить від його якості. Якісна індексація сайту базується на особливостях алгоритмів двох основних пошукових систем: Google та Яндекс. Розглянемо найпоширеніші питання проходження індексації.
Індексація сайту – процес, за допомогою якого пошуковий робот виявляє нові та оновлені сторінки для додавання до індексу. Якщо робот не може просканувати сторінку, перевірити індексацію сайту не вийде.
Автоматична індексація сайту в пошукових системах відбувається за допомогою механізмів, які самостійно знаходять ресурс та аналізують його контент, релевантність інформації, посилання, трафік, час візитів користувачів та багато іншого. Початку проходження такої перевірки сприяє посилання на сайт на інших ресурсах.
Перевірити індексацію сторінки можна:
1. За допомогою пошукового рядка додавши до домену сайту символи «site:».
Також індексація сайту перевіряється вбудованими інструментами Яндекс.Вебмайстер та Google Search Console. Вони допомагають провести перевірку індексації сторінки в Яндексі та Гуглі в напівавтоматичному режимі.
Корисні сервіси для інтернет-маркетолога.
Скільки займає перевірка залежить від пошукової системи. Google є швидкісним лідером у цьому процесі, керуючись індексацією приблизно за один тиждень. Час індексації в Яндексі може бути більшим — до двох-трьох тижнів.
Швидкість, з якою пошуковик помітить ресурс, залежить від безлічі параметрів, тому зазначені терміни дуже умовні. Наприклад, додаткові сторінки вже проіндексованого сайту розглядаються швидше.
Щоб дізнатися скільки сторінок сайту проіндексовано Яндексом. Для аналогічного моніторингу у Google необхідно ввести в пошуковий рядок значення site: домен сайту. Наприклад, site:moisait.ua
Переіндексація – це повторний аналіз сторінок, що проводять роботи пошукових систем. Як часто відбувається цей процес? Це залежить від регулярності оновлень. Чим частіше на сайті з’являється нова інформація, тим більше уваги пошуковик розглядає ресурс. Про інші лайфхаки для прискорення індексації поговоримо далі.
При індексації сайту можуть виникнути проблеми, які потребують оперативного усунення. Це потрібно для успішного проходження перевірки та відображення у пошуку.
Яндекс.Вебмайстер та Search Console містять розділи, в яких можна переглянути проблеми, знайдені на ресурсі. Наприклад, система може заборонити індексацію сторінок за порушення правил безпеки або за відсутність підтвердженого домену.
Наслідки заборони індексації частини сайту позначаться на показах цих сторінок. Користувач просто не побачить їх, коли введе до пошукової системи цільовий запит.
Однак іноді частина сторінок потрібно закрити від індексації навмисно, прописавши їх у файлі robots.txt. Ось для яких сторінок це може стати в нагоді:
По-перше, заборонити індексацію спеціально можна шляхом вказівки імені потрібного файлу або папки у файлі robots.txt:
User-agent: *
Disallow: /folder/file.ph
Disallow: /folder/
Системи не зможуть перевірити noindex і nofollow, тому другий варіант приховування непотрібного контенту – це вказівка даних тегів.
Іноді потрібно повністю видалити сайт із бази даних пошукових систем. Для цього необхідно прописати в robots.txt значення:
User-agent: *
Disallow: /
Якщо сайт не індексується, коли потрібно, варто в першу чергу перевірити цей же файл. Можливо, під час проведення якихось робіт на ресурсі його тимчасово сховали від сторонніх поглядів. І забули повернути все, як було.
Крім реєстрації в Яндекс.Вебмайстер і Search Console , необхідно перевірити карту сайту — sitemap.xml, а також вказати необхідні параметри індексації у файлі robots.txt.
За реєстрацією в системах часто зустрічаються 2 основні питання: індексація сайту в Google, як це зробити вручну, і чому Яндекс не індексує сайт.
Щоб прискорити процес перевірки, необхідно внести ресурс до сервісу Google Search Console . Решту системи зробить сама.
Яндекс сканує ресурси повільніше за Google. Для отримання заповітної позначки в базі даних необхідно зареєструватися в Яндекс.Вебмайстер.
Індексація сайту – це ціла низка процесів, вплинути на які можливо, покращивши якість ресурсу. Як перевірити, чи достатньо хороший сайт з погляду пошукових роботів та прискорити індексацію сайту в Яндексі та Гуглі? Основні 2 правила: проведіть індексацію сайту так, щоб там був якісний контент і забезпечте зручність ресурсу для користувачів.
Також візьміть на озброєння перелічені нижче пункти — застосувавши їх на практиці, ви забезпечите видимість сайту в пошукових системах.
Окремим пунктом оптимізації для індексування варто виділити дублі. Це найчастіше джерело проблем. Дубльований контент — коли на сайті є кілька сторінок з однаковим чи схожим змістом, щонайменше 70% збігів. Коли пошукові системи виявляють такий контент, це створює плутанину щодо того, яку версію сторінки індексувати. Зрештою пошукова система вибирає варіант, який, на її думку, є найкращим. І відфільтровує решту. Таким чином 2 схожі сторінки на сайті конкурують між собою за одні й самі пошукові запити.
Існує кілька способів вирішення та запобігання проблемам з дубльованим контентом. Ось найпоширеніші:
Щоб знайти дубльований контент на своєму сайті, можна використовувати спеціальні сервіси, наприклад Siteliner .
Останнє, на що потрібно звернути увагу, щоб прискорити індексацію сайту, це протокол передачі даних, який використовує сайт. Пошукові системи, особливо Google, прагнуть створити більш безпечний веб-інтерфейс для користувачів. Тому рекомендують веб-майстрам використовувати шифрування HTTPS замість звичного протоколу передачі HTTP. На нього можна перейти, встановивши дійсний сертифікат безпеки сайту SSL. Для Google це особливо добре працює, оскільки система підвищує швидкість індексації та рейтинг сайтів, які використовують HTTPS. При цьому сторінки з HTTP позначаються як “небезпечні”, щоб попереджати користувачів.
Більше цікавих матеріалів у нашій спільноті facebook.