Как проверить качество ссылок онлайн сервисами

Создание ссылочной стратегии в Rookee

Используя полученные ранее данные, мы теперь без особого труда можем создать свою ссылочную стратегию для сервиса Rookee. Составим сводную таблицу с полученными параметрами и их значениями.

На зоне с настройками фильтрации ссылок необходимо заполнить следующие поля:

  • Наличие в каталогах — ЯК и DMOZ;
  • Доменная зона — ru;
  • Уровень домена — второй;
  • Спамность — максимальный уровень;
  • тИЦ — от 0 до 800;
  • PR главной — от 0 до 5;
  • Возраст домена в днях — от 365 до 2141;
  • Продажный возраст — от 0 до 2141;
  • Страниц в индексе Яндекса — от 50;
  • Страниц в индексе Google — от 100;
  • Отношение страниц в индексе Я/G — от 0,3 до 1,5;

Итак, половина дела сделана, но не стоит забывать, что помимо параметров сайта, в Rookee есть еще и параметры страницы, которые также необходимо правильно настроить. Для параметров страницы необходимо установить следующие значения фильтров:

Страницы в индексе Яндекса — да;
Страницы в индексе Google — да;
Исключать: порно-страницы;
страницы без CSS;
страницы со скрытыми внешними ссылками;
форумы;
линкпомойки и служебные страницы;
warez и доски объявлений;
фотогалереи;
англоязычные страницы;

Внешних ссылок — от 0 до 10 (ниже объясню, почему именно так);
Прогноз внешних ссылок — от 1 до 9;
Внутренних ссылок и отношение внутр./внеш

— не важно;
Уровень вложенности — от 0 до 3;
PageRank страницы — от 0 до 5;
Размер текста страницы без учета текстов ссылок — от 1500 знаков

Чтобы повысить качество продвигаемой ссылочной массы, включим максимальный уровень WL.

Наша ссылочная стратегия почти готова. Осталось всего несколько штрихов, а именно добавить правила съема ссылок. Это необходимо для того, чтобы система автоматически следила за качеством ссылочной массы, и в случае снижения показателей купленных доноров — снимала такие ссылки. Только в этом случае наш ссылочный паттерн будет оставаться чистым и что самое главное, действующим.

Правила снятия настраиваем следующим образом:

  • Не в индексе Яндекса:
    • УВ 0 — 14 дней;
    • УВ 1 — 14 дней;
    • УВ 2 — 21 дней;
    • УВ 3 — 28 дней;
  • Не в индексе Google:
    • УВ 0 — 14 дней;
    • УВ 1 — 14 дней;
    • УВ 2 — 21 дней;
    • УВ 3 — 28 дней;
  • Выпала из индекса Яндекса — более 7 дней назад;
  • Выпала из индекса Google — более 7 дней назад;
  • Снимать ссылку только при одновременном выполнении условий для Я и G — да;
  • Ссылка не обнаружена — более 3 дней;
  • Ссылка размещается — более 10 дней;
  • Ссылка размещается в скрытом блоке — да;
  • Сайт попал в черный список — да;
  • Параметры страницы не соответствуют уровню WL — да;
  • Количество страниц в индексе Яндекса — менее 50;
  • Количество внешних ссылок — более 10 .

Теперь нашу стратегию для воссоздания ссылочного паттерна конкурентов можно смело использовать.

Подбор ключевых слов и работа с семантикой

Сервисы для составления и анализа семантического ядра — списка поисковых запросов, которые могут искать потенциальные посетители сайта.

Подбор слов Яндекса (Wordstat)

Сервис Яндекса для подбора ключевых слов для контекстной и поисковой рекламы. Вполне может быть использован для составления семантического ядра в SEO. Есть инструменты для проверки поискового спроса по регионам и данные об истории количества запросов по неделям и месяцам. Для оценки частоты запросов также можно использовать инструмент «Оценка месячного бюджета рекламной кампании» Яндекс.Директа.

Yandex Wordstat Assistant

Расширение для браузеров, которое облегчают работу с сервисом подбора слов Яндекса. Ещё один аналог — Yandex Wordstat Helper.

Key Collector

Незаменимое приложение для Windows, которое позволяет не только собирать запросы и их частоту, но и оценивать конкуренцию по ним, подбирать для них релевантные страницы сайта, определять позиции сайта по запросам и многое другое. Умеет собирать данные из множества источников.

MOAB Tools

Огромная база ключевых слов с данными о частотности. Источники данных — Wordstat и поисковые подсказки. Есть бесплатная версия и набор тарифов для крупных проектов и агентств.

Just-Magic

Сервис подбора семантики на основе собственных баз, продвинутая система кластеризации запросов, модуль текстового анализа и инструмент для составления списка релевантных слов для написания нового текста.

KeyAssort

Windows-приложение для кластеризации и структуризации семантического ядра. Есть demo-версия, но в ней отключена функция экспорта.

Букварикс

Подбор ключевых слов из большой базы поисковых запросов — пока что бесплатно и без регистрации. Есть API и несколько дополнительных инструментов для работы с ключевыми словами.

SEO-Excel

Бесплатная надстройка для Microsoft Excel, которая добавляет в него более двух десятков инструментов, облегчающих работу с семантикой и проектирование структуры сайта.

Настройка Robots.txt

Robots.txt – текстовый файл, который содержит параметры индексирования сайта для роботов поисковых систем. Robots.txt не пустит поискового робота на страницы, которые вы хотите закрыть от индексации.

Как сделать robots.txt:

В текстовом редакторе создайте файл с именем robots.txt

Важно! Все буквы в нижнем регистре;
Заполните файл в соответствии с правилами и вашими требованиями к индексированию сайта. Важно! Кодировка файла должна быть ;
Загрузите файл в корневую директорию сайта.

Файл robots.txt использует систему директив – правил, задаваемых поисковому роботу.

Формат строки файла robots.txt:

Директива:значение

Для корректной работы robots.txt необходимо, чтобы хотя бы одна директива Disallow была после каждого указания User-agent.

Директивы для robots.txt:

«User-agent:» – основная директива robots.txt. Используется для конкретизации поискового робота, которому будут даваться указания.

  • User-agent: Googlebot – все команды, следующие после этой директивы, будут касаться исключительно индексирующего робота Google;
  • User-agent: Yandex – адресат в этом случае — Яндекс;
  • User-agent: * – обращение ко всем поисковикам.

После основной директивы «User-agent:» следуют конкретные команды:

«Disallow:» — директива запрета индексации в robots.txt. Запрещает поисковому роботу индексировать веб-ресурс целиком или какую-то его часть.

  • Disallow: / – сайт не будет индексироваться
  • Disallow: /forum – из индексации исключается папка «forum»
  • Disallow: – весь сайт открыт для индексации

«Allow:» — директива разрешения индексации. При помощи тех же самых уточняющих элементов, но используя эту команду в файле robots.txt, можно разрешить индексирующему роботу вносить нужные элементы сайта в поисковую базу.

Команда запрещает роботу Яндекса индексировать всё, кроме раздела «forum»:

User-agent: YandexAllow: /forumDisallow: /

На практике директива «Allow:» используется редко, поскольку поисковый бот применяет ее автоматически.

Спецсимволы * и $

При указании путей директив Allow и Disallow можно использовать спецсимволы * и $, чтобы задать определенные регулярные выражения.

Спецсимвол * – означает любую, в том числе пустую, последовательность символов.

Disallow: /support/*.html – запрещает индексировать все страницы .html в директории support.

По умолчанию к концу каждого правила, описанного в файле robots.txt, приписывается спецсимвол *. Строки «Disallow: /example» и «Disallow: /example*» поисковый бот воспримет как идентичные. Чтобы отменить * на конце правила, можно использовать спецсимвол $. 
Disallow: /example$ – запрещает «/example», но не запрещает «/example.html».

«Sitemap:» — директива, указывающая индексирующему роботу путь к файлу карты сайта. Помогает поисковому роботу быстрее проиндексировать Карту сайта, чтобы страницы веб-сайта быстрее попали в поисковую выдачу.

User-agent: *Sitemap: http://example.com/sitemap.xml

Сгенерировать файл robots.txt для вашего сайта можно с помощью
сервиса PR-CY.

Подробнее о robots.txt в
статье на нашем сайте. 

Существуют другие директивы, предназначенные для конкретных поисковых систем.

Например, директива
«Host:», которую использует робот Яндекса, чтобы определить основное зеркало сайта.

Подробнее о дополнительных директивах Яндекса, их синтаксисе и функциональности читайте в
Яндекс.Помощи.

Об особенностях взаимодействия поискового робота Google с файлом robots.txt читайте в
справочных материалах Google.

Проверьте файл robots.txt на наличие ошибок с помощью
сервиса Яндекса.

Semrush

Сервис Semrush содержит большое количество инструментов, которые пригодятся маркетологу для качественного продвижения проекта. Это касается и анализа ссылочной массы. Есть большие возможности для детального изучения, проверка внешних ссылок осуществляется по массе параметров.

Преимущества

  • Высокая точность оценки трафика;
  • Получение подсказок по оптимизации;
  • Большое количество статистических выкладок.

Недостатки

  • Сложность в освоении для новичков;
  • В использовании некоторых инструментов есть проблемы;
  • Отсутствие русской локализации на некоторых страницах сайта, что вызывает определённые трудности.

Воспользоваться сервисом Semrush можно по одному из трёх тарифов: Pro (99 долларов в месяц), Guru (199 долларов), Business (399 долларов). Также есть возможность работы на индивидуальных условиях.

Этап 6. Внешний SEO-аудит

Исходящие ссылки

Часто владельцы сайтов внимательно относятся только к получению трастовых обратных ссылок, но заботиться нужно и об исходящих ссылках с вашего сайта на другие ресурсы.

Ссылайтесь на внешний контент, тематически связанный с вашей страницей, а в текст ссылок старайтесь включать слова, описывающие целевую страницу.

Регулярно проводите проверку на наличие битых ссылок, то есть тех, переход по которым приводит к ошибкам с кодом вида 4xx или 5xx. Для этого можно использовать Link Checker от W3C и другие сервисы.

Обратные ссылки

Ссылочное ранжирование все еще работает, и нам стоит принимать во внимание количество и качество входящих ссылок, хотя тенденции и говорят о снижении в будущем их значения для продвижения сайта.

Воспользуйтесь такими сервисами, как Majestic SEO,Open Site Explorer, Ahrefs или инструментами для веб-мастеров от Яндекса и Google, чтобы узнать, какое количество сайтов ссылаются на ваш сайт, связаны ли они тематически с вашим сайтом и являются ли они трастовыми.

Если на вас ссылается множество качественных сайтов из той же отрасли, вы приобретаете высокий авторитет. Если же эти сайты имеют плохую репутацию и содержат контент низкого качества, поисковые системы начинают считать таковым и ваш сайт.

Старайтесь приобретать обратные ссылки, в тексте которых присутствуют нужные вам ключевые слова. В этом деле надо соблюдать меру: большое количество входящих ссылок с других сайтов с одинаковым или похожим анкорным текстом может приводить к понижению позиций вашего сайта в поиске по содержащимся в тексте ссылок ключевым словам. Общая масса обратных ссылок на ваш сайт должна выглядеть естественной для поисковых машин: пусть одни ссылки имеют в анкорах ключевые слова, другие— призывы к действию, вроде «щелкните здесь», «ознакомьтесь», или другой нейтральный текст.

RotaPost – покупка ссылок и обзоров, реклама в блогах. Площадка связывает рекламодателей с владельцами блогов, микроблогов и новостных сайтов, готовых предоставить свои ресурсы для размещения ссылок.

B2Blogger – сервис по рассылке пресс-релизов в Рунете. Помогает распространять пресс-релизы по тематическим ресурсам, транслирует публикации в новостные агрегаторы Яндекс и Google. Хорошо индексируется поисковыми системами и сервисами мониторинга.

Миралинкс – инструмент статейного маркетинга. Вручную размещает статьи на вручную же проверенных площадках. Есть банк готовых статей, написанных копирайтерами компании.

GoGetLinks – еще одна биржа покупки вечных ссылок. Предлагает размещать ссылки в заметках, контекстные ссылки и ссылки в картинках. Автоматизирует процессы, создает заметки.

Защита от негативного SEO

Негативная поисковая оптимизация объединяет совокупность черных и неэтичных методов и технологий, которыми пользуются конкуренты, чтобы снизить позиции вашего сайта в поисковой выдаче или вообще забанить его в поисковых системах. Вот некоторые способы достичь этих целей:

  • хакерская атака и взлом сайта;
  • распространение тысяч спамерских ссылок на вашем сайте через комментарии;
  • создание клонов вашего сайта и копирование контента без вашего разрешения;
  • создание поддельных профилей в соцсетях, через которые распространяется негатив против вашей компании и сайта;
  • удаление трастовых ссылок с других сайтов на ваш сайт.

Оптимизация Title и Descriptions

Title

 <title>Заголовок</title>

Каким должен быть тег title:

Текст тега отражает суть страницы.

При несоответствии текста title содержанию страницы сайт может попасть под санкции поисковиков.

Включает ключевые слова, но не более 2-3.

Наиболее важные ключевые слова ставьте в начало текста тега. Спам ключевыми словами может привести к санкциям поисковиков и сделает текст ссылки в поисковой выдаче непривлекательным.

Не содержит лишних слов.

Лишние слова размывают релевантность title.

Плохо:

Кожаные сумки, рюкзаки из кожи – удобно и элегантно :: Купить кожаную сумку в нашем магазине

Хорошо:

Кожаные сумки, рюкзаки – купить кожаную сумку в Москве

Легко читается.

Не содержит несогласованных между собой элементов

Плохо:

Купить кроссовки кеды Рибок Reebok детские для детей Москва

Хорошо:

Купить детские кроссовки в Москве — Reebok

Уникален внутри сайта и среди конкурирующих ресурсов

Title каждой страницы должен быть уникальным и говорить поисковой системе, как данная страница отличается от других страниц вашего сайта. Увеличить уникальность title среди конкурентов можно добавлением названия вашей организации или бренда.

Найти дубли title можно в
Search Console Google:

Дублирующиеся title

Содержит от 50 до 150 символов

Слишком короткие title неинформативны и имеют низкую релевантность. Слишком длинные
— размывают релевантность ключевых слов в начале тега и выглядят спамно.

Не совпадает с h1

Поисковик может расценить двойное употребление ключевых слов, как спам.

При составлении заголовка сайта учитывайте
.

Description

Мета-тег description — это краткое описание страницы. Играет наибольшую роль в формировании сниппета в поисковой выдаче. Размещается в html сайта внутри тега :

 <meta name="description" content="Описание страницы сайта.">

Как составить Description

Для description действуют те же правила, что и для title, за исключением двух моментов:

Ключевые слова в Description

Текст мета-тега description должен содержать большее количество ключевых слов. Это не скажется на позиции в выдаче, но может повлиять на решение пользователя перейти именно на ваш сайт, так как ключевые слова подсвечиваются в сниппете. Но текст description должен быть осмысленным, поэтому бездумный спам ключевиками недопустим.

Длина Description

Этот тег должен подробнее описывать содержание страницы. Поэтому может быть длиннее — от 100 до 200 символов

Роль в SEO

Продвижение ссылками на сегодняшний день остается одним из приоритетных способов у оптимизаторов. Кроме внутренних факторов, поисковики при ранжировании учитывают также количество и качество обратных ссылок на продвигаемый ресурс.

Ссылочная масса может влиять на продвижение сайта по-разному:

  • Положительно. Для этого в общем ссылочном профиле должны преобладать естественные ссылки, размещенные на авторитетных ресурсах, а сам прирост количества обратных ссылок должен быть плавным и постепенным. Резкие скачки — признак объемной закупки ссылок (это не любят поисковики).
  • Отрицательно. Ссылки на некачественных ресурсах, спамные ссылки, плохой анкор-лист — все это может стать причиной пессимизации сайта в выдаче.

Что такое естественная ссылочная масса

В чистом виде естественные ссылки — это такие ссылки, которые размещаются пользователями или владельцами сайтов по собственному желанию (например, в качестве рекомендации). Поэтому такие ссылки будут разнообразными:

  • ссылки с адресом страницы, главным доменом сайта или названием бренда;
  • ссылки с анкорами «здесь», «тут» и т. д.;
  • ссылки с неточными и точными анкорами;
  • ссылки с низкочастотными анкорами;
  • ссылки с атрибутом nofollow;
  • ссылки в пользовательском контенте (отзывы, комментарии и т. д.).

Понятно, что для продвижения сайта ссылки все равно закупают. Однако делать это надо с умом: уделять много внимания качеству сайтов, избегать переспама и наращивать количество ссылок разных типов.

Ключевая идея естественных ссылок — они должны быть полезны пользователям.

Как проверить ссылочную массу сайта?

Для проверки ссылочной массы есть как специализированные программы, так и онлайн-сервисы, часть из которых бесплатна и отлично подойдет для базовой проверки всех внешних url, ссылающихся на сайт. Программ и веб-сайтов очень много, практически все копируют функции друг друга, отличаясь только визуальной составляющей и стоимостью подписки. В подборке мы выбрали шесть инструментов, которые просты в использовании и подойдут для практически всех задач по работе со ссылочной массой.

  1. Вебмастер Яндекс и Search Console Google. Панели вебмастеров призваны помогать оптимизаторам в работе со своим ресурсом. Для анализа ссылок каждый из сервисов имеет отдельный встроенный модуль. В вебмастере Яндекса данные по ссылкам обновляются после «ссылочного» апдейта 1-2 раза в месяц, у Гугла апдейт происходит ежедневно, но менее глобально. В реальном времени посмотреть ссылки там нельзя. Сам виджет показывает только неработающие, битые ссылки, историю изменения и общие данные по ссылочной массе. Аналогичные опции есть и у приложения Google, где также показываются неработающие ссылки и есть возможность выгрузить всю аналитику в файле

  2. Онлайн-сервис Ahrefs. С помощью Ahrefs можно получить подробную информацию как о самом сайте, так и о внешнем ссылочном профиле ресурса. Сервис имеет бесплатный режим, в котором можно проанализировать часть ссылок без регистрации. Платная подписка дает очень много полезной информации, включая показ анкоров, ошибки оптимизации и другие опции, но стоимость лицензии крайне высока. Lite версия обойдется в 99 долларов/месяц, стандарт в 180 долларов/месяц.

  3. Онлайн-сервис Pr-cy. Простой и удобный сервис, который проанализирует внешнюю и внутреннюю ссылочную базу, пока данные в сводном отчете. Ограниченная проверка доступна без регистрации, более полную информацию сервис предоставляет на платной основе. При этом сервис анализирует отдельный url, для полной информации нужно будет суммировать данные по каждой странице.

  4. Онлайн-сервис Checktrust. Ресурс, добавленный в закладки у любого оптимизатора, позволяет посмотреть каждую ссылку на предмет уровня спама и доверия (траста). Работа кропотливая и долгая, но для проверки «жирных» ссылок это то что нужно. Бесплатно можно проверить 500 доменов, требуется активация через телефон. 

  5. Утилита Scrimimg Seo Spider. Программа, которая устанавливается на ПК, позволяет выгрузить всю ссылочную массу ресурса. Плюсом являются многочисленные опции, показывающие статус ссылок (Nofollow, noindex), возможность сортировки и группировки данных, проверка не только самих урл, но и стилей/скриптов, вывод метатегов и редиректов. Программа платная, есть триальный режим с лимитом проверок до 500 url.

  6. Утилита Netpeak Spider. Аналогом Seo Spider является русскоязычная программа Netpeak Spider. Основным отличием софта была его бесплатность и отсутствие лимита проверок, однако с недавнего времени был введен 14 дневный trial режим. Аналогично Scrimimg Seo Spider, мы можем выгрузить внешние ссылки сайта, посмотреть ошибки, статусы, редиректы, метатеги и многое другое.

Итоги

Ссылочная масса важна, это неотъемлемая часть продвижения и влияние ссылок значительное, чтобы не заявляли поисковые системы. Также для сайта имеет огромное значение отсутствие битых (неработающих) ссылок. Поэтому проверяйте ресурс, работайте со своей ссылочной массой, следите, чтобы не появлялись 404 ошибки, при необходимости ставьте 301 редиректы и не используйте автоматическую покупку внешних ссылок, это верный путь к бану поисковых систем.

Лучшие инструменты для онлайн-анализа SEO сайта

SEO ― совокупность работ, которая направлена на повышение позиций сайта в поисковой выдаче. Чем выше сайт в выдаче поиска, тем чаще его видят пользователи и тем больше шансов привлечь потребителей на сайт.

Так же как и при изучении посещаемости, выбор сервисов для анализа зависит от того, чей сайт вы изучаете. Если вы хотите проанализировать свой сайт, то самыми популярными сервисами являются Яндекс.Вебмастер и Google Search Console. Если ваш ресурс создан на REG.Site, настроить базовое SEO-продвижение поможет статья Как настроить SEO-продвижение сайта, созданного в REG.Site.

Проанализировать сторонний ресурс помогут другие сервисы. Ниже мы сделаем обзор наиболее популярных сервисов, с помощью которых можно сделать онлайн SEO-анализ сайта бесплатно.

XTOOL

XTOOL позволяет быстро сделать комплексный SEO-анализ сайта бесплатно.
С его помощью можно узнать:

возраст сайта,

рейтинг веб-ресурса в поисковых системах,

наличие санкций на сайт,

количество внутренних и внешних ссылок,

показатели PR, ИКС, ТИЦ,

траст.

SBUP.com

По сравнению с XTOOL SBUP.com имеет более широкий функционал. Кроме стандартных SEO-параметров (возраст, PR, ИКС и ТИЦ-показатели, ключевые слова, внутренние и внешние ссылки), он показывает:

IP-адрес,

тип и ПО сервера,

наличие вирусов,

скорость ресурса,

определяет примерную цену.

PR-CY

PR-CY.RU ― один из самых популярных бесплатных сервисов, с помощью которого можно проверить оптимизацию сайта.
Введите интересующий вас домен и сервис покажет вам:

важные изменения, которые происходили на сайте, например изменения в файле robots.txt,

ИКС, PR, позиция в Яндекс и Google,

вирусы и санкции,

посещаемость,

рейтинг в Alexa.

В платной версии можно получить ещё больше информации:

географию аудитории,

источники трафика,

поведение пользователей (количество отказов, время на сайте, количество посещенных страниц).

SeoLik

С помощью сервиса SeoLik можно сделать полный анализ сайта по разным показателям, в том числе SEO. Чтобы запустить проверку, достаточно ввести доменное имя и нажать «Анализ». Сервис позволяет проверить:

CY-PR.com

CY-PR.com ― ещё один бесплатный сервис для экспресс-анализа показателей SEO. Регистрироваться не нужно, просто введите доменное имя и нажмите Анализировать:

Он будет полезен для анализа своего сайта и для анализа конкурентов. Кроме стандартных критериев оценки, CY-PR.COM предлагает:

измерение скорости работы сайта,

данные из WHOIS,

проверяет ошибки в кэшировании и CSS,

проверяет оптимизацию для мобильных устройств и планшетов.

Пиксель Тулс

Пиксель Тулс — универсальный анализатор сайта, который поможет узнать практически всё о ресурсе. Он простой в использовании, в бесплатной версии достаточно много инструментов для SEO-анализа. Сервис:

проверяет тексты на уникальность и вхождение ключевых слов,

проверяет позиции в Google и Яндекс,

показывает количество переходов из социальных сетей,

анализирует количество рекламных объявлений в выдаче Яндекса,

рассчитывает KPI,

анализирует ссылочную массу,

анализирует скорость загрузки контента.

В платной версии можно получить ещё больше возможностей, таких как анализ XML-карты, проверка поведенческих факторов пользователей, анализ SEO-тегов для списка URL и др. Можно настроить автоматический аудит.

Зачем покупать ссылки для продвижения сайта?

В основе поискового алгоритма лежит один простой принцип — чем точнее документ отвечает запросу пользователя, тем он релевантнее. Но качественных текстов в сети много, что существенно усложняет работу поисковым системам.

Для решения этой проблемы был добавлен новый фактор ранжирования — ссылочная цитируемость. Чем больше сайтов и страниц ссылается на конкретный документ, тем более ценным он выглядит в глазах поисковиков.

Впрочем, ссылки можно просто купить. И специально для этого существуют так называемые ссылочные биржи. Здесь можно легко приобрести дешевые и дорогие обратные ссылки с трастовых сайтов, личных блогов, новостных порталов. Это существенно упрощает поиск подходящих площадок.

Подобные манипуляции поисковым системам воспринимаются, как попытка обмана. По этому они пытаются с ними бороться. Стоит отметить, не без успехов.

Алгоритм Пингвин от Google и Минусинск от Яндекса внесли серьезные корректировки в работу со ссылочным продвижение. Основное же изменение простое — нужны ссылки более высокого качества. Добывать ссылки стало гораздо сложней.

Поисковые системы также пытаются дисконтировать влияние ссылок на ранжирование, но сделать это крайне сложно, так как ссылки, как фактор ранжирования, находятся в ядре алгоритма.

В итоге ссылки решают следующие задачи:

увеличивают авторитетность (траст) сайта;
влияют на ранжирование сайта в поисковых системах;
привлекают внимание новых пользователей (реферальный трафик);
повышают узнаваемость сайта.

Таким образом, наличие качественной ссылочной массы является обязательным условием для раскрутки сайтов в конкурентных нишах.

Без нее ваш сайт не сможет обойти конкурентов. Но и одними ссылками, как раньше, продвинуть сайт не получится, поскольку сегодня нужен комплексный подход.

Попасть в подборку материалов

Некоторые издания собирают тематические подборки материалов из других источников. Это могут быть ежедневные, еженедельные или ежемесячные посты в блогах со ссылками на лучший контент по теме. К примеру, «10 статей от экспертов о продвижении», «Лучшие материалы по оптимизации сайта за март» и другие.

Попасть в такую подборку — отличный способ получить качественную ссылку. К тому же, ими охотно делятся в соцсетях и авторы остальных статей из списка, и читатели.

Пример тематической подборки Seprstat

Как попасть в тематическую подборку материалов:

  1. Найти тех, кто делает подборки в вашей сфере.
  2. Предложить свой материал представителям ресурса.

Если ваш пост покажется редактору подходящим, он добавит его в список статей, а вы получите ссылку.

Пост от PR-CY в подборке

Обычно это бесплатно, некоторые ресурсы могут попросить, чтобы вы поделились подборкой в соцсетях.

Значение ссылок в будущем

Наше мнение, что сейчас основная борьба в формуле ранжирования идет между обратными ссылками и поведенческими факторами. Все элементы связанные с технической оптимизацией страницы (ключевые слова в title, h1 теге, контенте,  альт-тегах, короткий URL адрес – все то, что можно изменить достаточно быстро и легко) имеют все меньшее значение. У Google становится все больше данных, чтобы понять насколько пользователю нравится определенный сайт по сравнению с другими. А значит основная борьба идет между теми параметрами, накопление которых стоит дорого в плане времени, денег, доверия. В итоге, формула победы в конкурентных нишах звучат так: улучшайте продукт и стройте ссылки – комбинацию этих преимуществ победить сложнее всего.

LinkPad

Сервис LinkPad позволяет выполнить анализ ссылок сайта онлайн, также на нём есть возможность продажи ссылок. Качество работы платформы гарантируется тем, что её база данных сопоставима с базами данных ведущих поисковых систем. Инструменты сервиса удобны для использования.

Преимущества

  • Бесплатное использование инструментов;
  • Большой набор инструментов;
  • Возможность экспорта данных;
  • Получение аналитики за 12 месяцев.

Недостатки

  • Медленная работа;
  • Индексация и переиндексация доноров может занять много времени;
  • Небольшая база данных;
  • Отдельные функции предоставляются только платно.

Отслеживание внешних ссылок

Представим, что вы уже наполнили свой сайт полезным контентом и в частности расставили ссылки на авторитетные и релевантные ресурсы. Но это еще не вся работа со ссылками, ведь страницы, на которые они ведут, могут измениться или исчезнуть со временем.

Скрипты отслеживания в Google Analytics помогут понять, сколько трафика вы приносите сайтам, на которые ссылаетесь. Вы можете использовать эти данные, чтобы устанавливать связи для линкбилдинга и написания гостевых постов. А в Google Tag Manager можно создавать триггеры и отслеживать, какие исходящие ссылки открывают посетители вашего сайта.

Также важно регулярно проверять, чтобы внешние ссылки на сайте оставались рабочими. Битые линки могут навредить и удобству пользователей, и ранжированию сайта

Если поисковые роботы натыкаются на множество 404 ошибок, авторитет ресурса падает для поисковиков. Находя битые исходящие ссылки, вы можете связаться с ресурсами и узнать, что случилось с их страницами, заменить ссылки на более актуальные или же просто их удалить.

«Анализ сайта» в SE Ranking поможет определить все проблемы со ссылками. Раздел «Анализ ссылок» даст вам представление о том, сколько всего внешних ссылок на сайте и какие существуют проблемы (отсутствие анкорного текста, ошибки в ответах сервера).

Этот инструмент обнаружит, если на вашем сайте есть ссылки с кодом ответа 3** (означающем, что пользователи перенаправляются на другую страницу), 4** (битые ссылки) или 5** (ошибка сервера), а также если некоторые ссылки не имеют анкорного текста. Кроме того, вы можете просмотреть, у каких линков стоит атрибут nofollow, и при необходимости заменить его на UGC or Sponsored.

Любой список ссылок вы можете сохранить в xls-формате:

Вывод – знание статистики дает преимущество

Как видно, узнать, как обстоят дела у того или иного сайта, дело зачастую нескольких минут.

Зато такая информация поможет вам более успешно и грамотно вести раскрутку, избегать невыгодных предложений и неперспективных рекламных платформ.

Вы потратите немого времени на сбор информации и анализ цифр, зато сэкономите намного больше.

Цифры помогут вам не ввязываться в невыгодные проекты и не платить за неквалифицированные услуги и консультации.

Ведь заработать в сети хотят многие, но лишь единицы по-настоящему грамотны в этом деле и могут на самом деле помочь вам продвинуть ваш сайт, научить этому.

Поэтому не стоит цепляться за каждый подвернувшийся шанс и применять любые советы.

Для того чтобы понять, эффективна ли какая-то программа, достаточно увидеть, как она работает. А в этом помогут цифры.

 Постоянно наблюдая за статистикой дел наиболее успешных, конкурирующих с вашим, сайтов, можно понять, какие маленькие хитрости эффективно влияют на посещаемость. 

Можно просто наблюдать подходы, который используют другие для продвижения сайтов и перенимать их.

Мы рассмотрели самые удобные ресурсы, которыми можно воспользоваться быстро и бесплатно в режиме онлайн.

Конечно, если вас интересует более основательная аналитика работы сайтов, лучше установить приложение посерьезнее и пользоваться им.

Но для мгновенного и единократного получения статистических данных эти приложения окажутся полезными.

Главное, что не нужно долго возиться, регистрироваться, скачивать что-то и платить. Однако, можно воспользоваться любым другим доступным ресурсам.

Еще лучше смотреть статистику на разных сервисах. Поскольку информация приблизительная, то данные могут сильно разниться.

Сравнивая цифры, полученные из разных источников, можно увидеть более полную картину.