После публикации web-ресурса у его владельца возникает закономерный вопрос, как добавить свой сайт в поисковик Яндекс и Google. В статье рассказываем, как сделать так, чтобы веб-ресурс быстрее находился через поисковые системы.
Один из способов решения данной проблемы – это правильно подобрать поисковые запросы для сайта.
Что такое индексация и зачем она нужна?
Индексацией называется добавление страниц сайта в базу различных поисковиков. Чтобы проиндексировать такие веб-страницы, специальные роботы проводят анализ HTML-кода. В обязательном порядке они учитывают:
Наполнение страниц метатегами (description, title, keywords, h1, p) и их соответствие стандартам верстки;
Расположение и написание текстов.
Кроме этого, обязательно учитываются микроразметка, перелинковка, карта сайта и прочие нюансы. Благодаря такой проверке, веб-ресурс индексируется и попадает в список поисковой выдачи.
Основные причины, почему сайт не появляется в поиске
Регистрация сайта в поисковиках и его последующая индексация может длиться несколько недель. При этом страницы определенного web-ресурса не индексируются одновременно. Случается и такое, что в коде робот видит то, что не соответствует требованиям поисковых систем. Результат – индексация будет более длительной.
Кроме этого, сразу после публикации ваш веб-ресурс не будет попадать в список выдачи Яндекс и Google. По этой причине в некоторых случаях владельцы сайтов и seo-специалисты прибегают к ускорению индексации вручную. В следующих разделах рассмотрим, как это сделать правильно.
Подготовка сайта перед добавлением в поиск
Перед регистрацией сайта в поисковых системах рекомендовано учитывать следующее:
Доменное имя. Оно должно быть короткое, соответствующее зоне продвижения и тематике веб-ресурса;
Выбор хостинга или сервера для хранения. Хостинг – это более дешевый вариант, но для больших планов на будущее стоит отдавать предпочтение серверу;
Покупку SSL-сертификата (HTTPS). Его наличие позволит не только гарантировать зашифрованное соединение между браузером пользователя и сервером (данные будут защищены от перехвата и подмены), но и продемонстрирует поисковикам, что перед ними не сайт-однодневка;
Файлы robots.txt и sitemap.xml. Благодаря настройке robots.txt, закрываются от индексации системные файлы и определенные страницы. Создание sitemap.xml позволит роботам сканировать необходимые разделы.
Настройку редиректов. В результате гарантируется автоматическое перенаправление пользователей и поисковых роботов с одного URL на второй. Такой подход позволяет сохранять трафик и ссылочный вес, предотвращать потерю позиций в поисковой выдаче, улучшать пользовательский опыт (люди попадают только на актуальный контент) и пр.
Детальный анализ сайта, ниши и конкурентов
Заполните форму - и в течение 1 рабочего дня вы получите подробную стратегию роста с цифрами, сроками и приоритетами.
Подбор эффективных точек роста и инструментов продвижения
Индивидуальный SEO план на 6–12 месяцев
Бесплатный анализ вашего бизнеса + стратегия продвижения
1
2
3
Как добавить сайт в поисковые системы вручную?
Для регистрации сайта в Яндекс потребуется такая специальная панель, как Яндекс.Вебмастер. Для Google используется Google Search Console.
Добавление сайта в Яндекс.Вебмастер
В этом случае необходимо выполнить следующие действия:
Перейти на страницу Яндекс.Вебмастера;
Выбрать «Добавить сайт»;
Ввести доменное имя и кликнуть по «Добавить»;
Подтвердить права на web-ресурс (через код-страницы, загрузку файла на хостинг или добавление TXT-записи);
Кликнуть по «Проверить» (если перечисленные выше действия выполнены правильно и права подтверждены, вы увидите строку со следующей информацией: логин, метод проверки, код подтверждения и дата проверки).
Добавление сайта в Google Search Console
Для регистрации в поисковой системе Google необходимо:
Перейти на страницу Google Search Console;
Ввести адрес web-ресурса в первом блоке и кликнуть по «Продолжить»;
Добавить запись в зону домена и кликнуть по «Подтвердить» (если данное действие будет выполнено правильно, вы увидите информацию, что «Право собственности подтверждено»).
Стоит сделать акцент на том факте, что описанные выше способы не требуют технических знаний и навыков относительно SEO-оптимизации. Но при этом они и не гарантируют, что ваш веб-ресурс сразу появится в поисковых системах.
Ускорение индексации сайта
Использование такого инструмента, как «Переобход страниц» и «Просмотреть как Googlebot». С его помощью можно указывать страницы, которым необходима индексация в первую очередь;
Настройка внутренней перелинковки и создание внешних ссылок. Во втором случае речь идет про закупку ссылочной массы, подготовку соответствующих постов в социальных сетях, использование ссылок на форумах. Известный факт: чем больше внутренних и внешних ссылок, тем быстрее они будут просканированы поисковиками;
Использование RSS-ленты. На веб-ресурсе создается RSS-лента, записи транслируются через специальные сервисы (пример – Feedburner). Результат – поисковики чаще получат уведомления о публикации новых страниц;
Регулярное обновление контента. Поисковые роботы быстрее сканируют такие сайты, на которых постоянно обновляется контент;
Подготовка анонсов в социальных сетях. Речь идет про своевременную публикацию ссылок на новые статьи в соцсетях;
Организация правильной структуры. Сделайте так, чтобы до любой страницы пользователь мог добраться не более чем за 3 клика.
Задать вопрос
Заполните и отправьте форму, мы свяжемся с вами в ближайшее время Мы также есть в соц.сетях:
Частые ошибки при регистрации сайта
Ошибки в настройки DNS. Данная настройка позволяет переводить доменное имя в IP-адрес сервера, где он размещается. Из-за неправильной настройки DNC web-ресурс становится недоступным.
Блокировка в robots.txt. В результате часто возникает такая ситуация, когда случайно поисковым роботам запрещается доступ к определенным страницам (и они важные).
Использование «пустых» страниц. Речь идет про малоинформативные страницы, которые не являются ценными и полезными для пользователей.
Кроме этого, при регистрации сайта в поисковиках можно допустить такие ошибки, как неправильный подбор домена, использование небезопасного пароля и пр.
Дополнительные рекомендации для быстрой индексации
В дополнение к перечисленным выше советам стоит добавить следующие пункты:
Ускорение загрузки страниц;
Использование микроразметки (Schema.org, Open Graph), чтобы поисковики лучше понимали контент: Schema.org структурирует данные о товарах, событиях и пр; Open Graph помогает оптимизировать отображение ссылок в соцсетях;
Мобильная адаптивность;
Устранение дубликатов (страниц с одинаковым контентом);
Проверка структуры веб-ресурса;
Регулярная работа с текстами, их уникализация.
Полезные инструменты и сервисы
Онлайн-проверка robots.txt. Используются Яндекс.Вебмастер и Google Search Console, сторонние онлайн-сервисы (пример - Pixelplus и Websiteplanet);
Генераторы sitemap. Речь идет про специальные генераторы или отдельные функции в CMS;
Сервисы для анализа индексации. Помощниками в данном вопросе будут Яндекс.Метрика, Google Analytics и инструменты из Яндекс.Вебмастера.
Итоги и чек-лист по регистрации сайта в поисковике Яндекс и Google
Перед добавлением web-ресурса в поиск рекомендовано: выбрать подходящее доменное имя, выбрать хостинг или сервер для хранения, купить SSL-сертификата (HTTPS), настроить файлы robots.txt и sitemap.xml (редиректы);
Ручное добавление требует выполнения определенного алгоритма действий. Яндекс.Вебмастер: выбирается «Добавить сайт», вводится доменное имя, подтверждается права на web-ресурс (через код-страницы, загрузку файла на хостинг или добавление TXT-записи). Google Search Console: вводится адрес web-ресурса в первом блоке, вносится запись в зону домена;
Для ускорения индексации используются инструменты «Переобход страниц» и «Просмотреть как Googlebot», настраивается внутренняя перелинковка и создаются внешние ссылки, используется RSS-лента, регулярно обновляется контент;
При регистрации веб-ресурса повышен риск столкнуться с такими ошибками, как неправильная настройка DNS, блокировка в robots.txt, использование «пустых» страниц;
Для того, чтобы регистрация и индексация веб-ресурса прошли быстро и без ошибок рекомендована онлайн-проверка robots.txt, использование специальных генераторов sitemap и сервисов для анализа.