Вход / Попробовать бесплатно
Почему мы
КристинаКристина
· 6 мин
0

Уменьшение влияния SEO-ссылок

Давным-давно раскрутка сайта в поисковых системах (ПС) делалась очень просто: писали «простыни» длинных текстов, напичканных ключевыми словами, а для борьбы с конкурентами размещались внешние ссылки любыми методами.

А способов было много — как ручных, так и автоматизированных:

  • Сайты менялись ссылками друг на друга, а позже для естественности использовали круговой обмен, когда группа сайтов ссылается друг на друга по кругу.
  • Ссылки размещались в виде комментариев вручную или с помощью специальных программ, например, для спама на форумах или досках объявлений, блогах и т. д.
  • Наконец, размещение ссылки всегда можно было купить. Причем вначале считалось нормальным автоматизированная продажа временных ссылок (через биржи наподобие «Sape») и постепенно приоритетным стало ручное размещение вечных ссылок в тематических статьях с уникальным текстом (через Миралинкс).

В те давние времени ТОП выдачи поиска нередко был нерелевантный и унылый, иногда невозможно было найти нужный ресурс, так как первые десятки вариантов в выдаче были «заспамлены». Проблема была в несовершенстве алгоритмов и поначалу внутренние факторы несколько уступали внешним по важности. Несколько лет назад для успешной раскрутки достаточно было сделать сателлит с более-менее уникальными текстами (простой рерайт с кучей ключевых слов) и купить внешних ссылок, причем чем больше, тем лучше. Годились даже временные ссылки, после их индексации позиции в выдаче росли даже у ГС («говносайтов»).

satellit

Таким образом, борьба за позиции велась бюджетами: кто больше ссылок купит, тот и в выдаче выше. Хорошее качество сайтов было не так уж важно, поскольку даже шаблонный дизайн, непонятное меню (плохая структура) и невнятный текст все равно дает какую-то конверсию при большом трафике. Постепенно для увеличения продаж или заказов улучшали продающие страницы. Но у многих вполне серьезных компаний годами никаких изменений не было: идет трафик, есть продажи, зачем что-то менять… Считалось самым важным бороться за позиции в выдаче для привлечения массовой целевой аудитории (ЦА).

Кому угрожают фильтры АГС от Yandex и Пингвин от Google

Еще пять лет назад в ТОП-10 Yandex и Google можно было увидеть дорвеи, но и качественных СДЛ («сайт для людей») было относительно мало. Чтобы отфильтровать «плохие» сайты с генерированным контентом (сателлиты и дорвеи), Яндекс ввел в 2009 году фильтр АГС-17 и достаточно быстро усовершенствовал его до АГС-30. Изначально эти фильтры были автоматическими и могли ошибаться, блокируя в выдаче поиска Яндекса даже «хорошие» СДЛ. Приходилось писать жалобы яндексоидам Платонам (сотрудникам Яндекса) и живой модератор мог вернуть сайту позиции, если не находил недочетов. В любых иных случаях яндексоиды никогда не говорили про найденные недостатки — всегда рекомендовали перечитать советы вебмастерам от Yandex.Help и не нарушать установленные ими правила, улучшать и правильно оптимизировать все страницы, исправлять ошибки.

У Гугла раньше началось постепенное уменьшение влияния SEO ссылок, но Яндекс старался не отставать и постоянно совершенствовал алгоритмы, которые ранжировали порядок выдачи. Вначале роботы ПС определяли только уникальность текста, потом научились отличать качественный текст от «простыни» написанной ради ключевых слов, в том числе за счет контроля поведенческих факторов (время пребывания посетителя на странице, процент отказов по статистике). Наконец, алгоритмы ПС стали различать региональные запросы и отделять коммерческие от информационных, при ранжировании учитывалось все больше и больше факторов, кратко вспомним самые основные:

  • Возраст сайта (траст), имя домена, количество страниц в индексе Яндекса, регулярность обновления контента и его качество.
  • Оптимизация структуры меню (перелинковка гиперссылками), уровень вложенности страниц и ЧПУ («Человеку Понятный Урл»).
  • Уникальные seo-тексты с умеренными вхождениями ключевиков, оформление публикаций (заголовки и подзаголовки, тайтлы, мета-теги и ALT для картинок).
  • Чистый код страниц, отсутствие лишних фреймов, присутствие правильного robots.txt
  • Географическое определение сайта (зависит от доменной зоны или контента, можно устанавливать вручную, если указать нужные контакты).
  • Количество и качество внешних ссылок (с анкорами в виде ключевых слов для продвижения и безанкорные ссылки для естественности).

Уже давно в выдаче поиска Яндекса практически нет дорвеев, почти не осталось сателлитов, но ТОП-10 в 2013 году (особенно по коммерческим запросам) занимали оптимизированные сайты, которые закупили качественные внешние ссылки. Яндекс постоянно вводил новые алгоритмы для того, чтобы разнообразить поиск и в ТОПе были справочники, блоги, форумы, каталоги, информационные проекты, а не только «прокачанные» внешними ссылками коммерческие интернет-магазины или компании, продающие свои услуги.

Постепенно  ПС научились определять, кто продает ссылки, и Yandex, Google перестали учитывать ссылки с таких доменов. Чтобы улучшить качество выдачи поиска в 2011 году, Гугл ввел алгоритм Панда, из-за которого произошло уменьшение влияния внешних ссылок. При этом усилилось влияние поведенческих факторов (ПФ) – времени пребывания посетителей на страницах, а также отказы по статистике, то есть Панда боролась с «псевдоСДЛ». Особенно легко алгоритмы ПС срабатывали, когда через биржи автоматом покупали временные ссылки и в «бан» уходил как донор, так и акцептор. Тогда оптимизаторы стали закупать «вечные ссылки» с хороших старых ресурсов с высоким ТИЦ и PR, но Гугл пополнил свой «зоопарк» алгоритмов и в апреле 2012 года пришел Пингвин.

GooglePandaPinguin

Вебмастера приспособились к Панде и потом к Пингвину, а также к АГС-30: тщательная перелинковка внутренних страниц и естественные анкоры для внешних ссылок, теперь приходилось покупать безанкорные ссылки, а также оставлять некий процент анкоров «тут», «здесь» и т. д. Пингвин автоматически безжалостно понижал позиции и обнулял PR у всех сайтов, которые попадали под «подозрение», а выйти из-под фильтра — всегда долгое и сложное занятие по исправлению ошибок.

Массовая SEO покупка ссылок для Яндекса уходит в прошлое

В 2012-1013 гг. наблюдалось постепенное уменьшение влияния SEO ссылок, что было заметно по увеличивающимся срокам такого вида раскрутки. Яндекс , как и Гугл, постоянно совершенствовал алгоритмы, все труднее было попасть в ТОП, и при правильной удачной закупке внешних ссылок результат повышения позиций приходилось ждать месяцами, иногда полгода (причем никаких гарантий, всегда приходилось учитывать возможность неудачи).

 AGS_Yandex

В конце 2013 года Яндекс ввел новый фильтр АГС-40, который массово забанил множество «псевдоСДЛ» (опять под новым жестким алгоритмом пострадали и «правильные» СДЛ). А все из-за желания максимально быстро выходить в ТОП. Оптимизаторы и сеошники нередко рискуют, поскольку «переоптимизация» похожа на попытку манипуляции алгоритмами ранжирования, а это запрещено у ПС. Больше всего пострадали сеошники, массово закупавшие внешние ссылки: они потеряли позиции и трафик, ведь теперь учитывалось еще больше факторов в комплексе:

  • Возраст донора, вариант размещения (в подвале или блоками по несколько штук подряд).
  • Соотношение количества проданных ссылок и количества страниц, а также объем текстов на страницах (безусловно, чем больше ссылок, тем меньше их вес).
  • Если раньше содержание ключевых слов или фраз в анкоре ссылки было необходимо, то теперь слишком частое повторение одинаковых анкоров приводило Пингвина или АГС.
  • Быстрый прирост ссылочной массы, особенно у новых ресурсов с молодым доменом.
  • Внутренняя перелинковка стала лучше влиять на позиции, тогда как влияние внешних ссылок ослабевало при однообразных анкорах.
  • Нерелевантные тексту заголовки и тайтлы теперь уменьшали вес ссылок с таких страниц. Также мало толку стало от ссылок с площадок, которые сильно отличались по тематике.
  • Усилилась важность качества доноров, где размещаешь ссылки: траст и уникальность, наличие живого трафика у донора – залог успеха, а множество ссылок с «плохих» доноров могли даже понизить в позициях по выдаче в ПС.

Все эти факторы увеличивали ценность «вечных» ссылок,  но если не хватало денег на дорогие площадки и размещение «навсегда» – искали варианты занять нишу за счет продвижения по низкочастотным запросам.

Борьба алгоритмов ПС и сеошников идет постоянно, но и качество сайтов улучшалось, поскольку иначе нельзя было занимать высокие позиции в выдаче ПС с неуникальным контентом или плохой структурой. Теперь стало проще заказать качественный уникальный текст, оплатить оригинальный дизайн и профессионально оптимизировать все страницы, чем пытаться обмануть алгоритмы  и  банально покупать массу ссылок. Но злоупотребления внешними факторами продолжаются до сих пор, и потому скоро Яндекс совсем перестанет учитывать ссылки в ранжировании. Накрутки ТИЦ и внешних факторов авторитетности для повышения позиций в выдаче дискредитировали значимость влияния внешних ссылок.

Модераторов-яндексоидов никогда на все сайты не хватит, зато алгоритмы роботов ПС научились качественно отличать хороший контент от плохого, в том числе благодаря увеличению влияния ПФ. А с начала 2014 года Яндекс отменил ссылочное ранжирование — это, безусловно, заставит опять менять методики продвижения и трансформирует рынок бизнеса в сети Интернет.  Для выбора актуального метода продвижения нужно регулярно отслеживать статистику по выдаче всех основных ключевых запросов – сделать это можно с помощью сервиса seranking.ru

ПОДЕЛИТЬСЯ

Send this to a friend