Смысловая неуникальность — новый подход к оценке контента Яндексом и Гуглом. Часть 1

Kristina | Август 31, 2015

Знаете, компьютер уже может обыграть чемпиона мира по шахматам, хоть белыми, хоть черными фигурами. Вот и современные алгоритмы поисковых систем, ранжирующие сайты, опираясь на вычислительную мощь компьютеров, становятся все более изощренными и уже могут отличить СДЛ (сайт для людей) от ГС (г..о сайта), как бы он ни маскировался. И уже практически сбылась голубая мечта разработчиков таких алгоритмов — расставлять сайты в выдаче строго в зависимости от их ОБЪЕКТИВНОЙ полезности.

good-seo-bad-seo

Все мы знаем, что основой любого продвижения сайта является контент (см. статью «Уникальный контент сайта — его основа и инструмент продвижения»). И во всех учебниках по SEO пишется, что эффективность интернет-ресурса напрямую зависит от уникальности и релевантности контента. То есть он нигде не должен больше встречаться  и исчерпывающе давать информацию по заданной тематике. И тут как гром среди ясного неба неожиданно выяснилось, что с некоторых пор  для Яндекса и Гугла это, оказывается, недостаточно! И всплыло дивное словосочетание — смысловая неуникальность. Теперь, если сайт уличается в том, что его текстовый контент имеет смысловую неуникальность, то он пессимизируется. На практике это означает резкое проседание позиций в выдаче по основным поисковым запросам и уменьшение трафика на 90 % (при помощи сравнения позиций по датам можно очень точно определить, когда произошло проседание и на сколько позиций).Но прежде, чем рассказать об этой новой напасти для владельцев сайта — смысловой неуникальности, вначале  расскажем, как оценивался контент в благостные времена, когда правили бал копирайт и рерайт.

Как раньше оценивалось качество контента поисковыми системами

prostoj-kontent

По сути, оценка качества контента состояла из двух этапов:

  1. Оценка технической уникальности контента. При помощи специальных программ текст разбивался на группы (шинглы) последовательно идущих слов (4 – 5 слов в каждой) и эти группы искались в интернете. При полном совпадении этот шингл (и все слова в нём) считался неуникальным. В конце проверки подсчитывалось соотношение количества уникальных слов к общему количеству слов. По получившейся величине судили об уникальности текста. Общепринято считается, что текст, где 80% таких групп слов являются уникальными, сам тоже уникален. Хотя еще раз акцентируем внимание — общепринято. Как на самом деле считают Яндекс и Гугл, какие у них критерии уникальности текста никто не знает, кроме посвященных. Подозреваем, что все обстояло и обстоит несколько иначе и при определении уникальности обязательно учитывается тематика, общий объем текста и ряд других факторов.
    Следует сказать, что со временем программы по проверке уникальности стали более совершенны и уже видели и рерайт, то есть текст, полученный из уникального, путем перестановки слов, изменения окончаний и т. д.  Наверное, это видели и поисковики, но никак не реагировали, так как сайты и с копирайтингом, и с рерайтом чувствовали себя одинаково хорошо. Разве что появилось больше головной боли у авторов. Теперь нередко в ТЗ на текст указывался не только минимальный уровень уникальности, но и рерайта.
  1. Оценка ключевых слов. О тематике текста поисковые системы судят по ключевым фразам. Они считают процент всех слов в контенте и те из них, которые имеют наибольший процент, и определяют тематику текста. В былые времена качество текста оценивалось бесхитростно. Чем больше его уникальность и чем больший в нем процент ключевых слов, тем считался он более полезным. Но довольно быстро разработчики алгоритмов ранжирования поняли, что это ерунда. И действительно, ну какая польза человеку, который ищет информацию о металлопластиковых окнах, от текста, где эти окна торчат в каждом предложении, а больше ничего нет?! Было введено понятие переспам. Если процент ключевых слов превышал определенную величину, поисковая система считала, что текст написан именно для нее, а не для людей и штрафовала сайт. Сейчас считается, что процент ключевых слов не должен превышать 4 – 5%.

Как сейчас оценивают контент поисковые системы

ocenka-kachestva-kontenta

Теперь помимо технической уникальности контент сайта проверяется и на смысловую уникальность. Четкого определения этого понятия нет. Более того, Гугл и Яндекс оперируют разными терминами!

Начнем с Гугла, который с февраля 2011 года запустил новый алгоритм под названием Панда. И этот безобидный зверек стал наказывать сайты за «недостаточный контент», то есть контент, который не несет никакой новизны для читателя. Именно так расшифровывает этот термин сам Google. То, что имеется в виду именно смысловая уникальность, сомнению не подлежит, так как были пессимизированы интернет-ресурсы, которые имели текстовое наполнение безупречное с точки зрения технической уникальности.

Затем выстрелил Яндекс, введя с ноября 2013 года новый фильтр АГС-40 (термин один в один совпадает с названием грозного стрелкового оружия — АГС 40 «Балкан» — 40-мм автоматический гранатомёт, предназначенный для уничтожения живой силы противника). Интернетовский АГС-40 был предназначен для уничтожения пессимизации «малополезных сайтов». Также Яндекс ввел очень интересный термин —добавочная ценность. То есть, если интернет-ресурс предоставляет посетителю только информацию, которая уже есть на других сайтах, то он не обладает добавочной ценностью и может быть пессимизирован. С точки зрения поисковика все логично. Зачем плодить ресурсы, которые только засоряют интернет, не добавляя ничего нового?

Как определяется смысловая неуникальность

opredelenie-smyslovoj-neunikalnosti

  1. Компьютерный лингвистический анализ текста. Об этом мы писали в самом начале статьи. При помощи специальных программ компьютер может понять смысл текста и сопоставить его с другими текстами. Если текст А по смыслу полностью совпадает с текстом Б, который появился позже, то последний может быть пессимизирован.
  2. Критерии от асессоров. Асессор — это человек, который оценивает качество выдачи поисковой системы. Напрямую рейтинг сайта он понизить/повысить не может. Но он разрабатывает критерии, которые затем учитываются в машинном поиске. То есть по его оценкам настраивают машинный поиск, чтобы на первых позициях были наиболее полезные сайты.

Конечно, говорят, что есть еще ручная модерация и сам Платон Щукин безжалостно пессимизирует сайты с ухмылочкой на лице, пробежав их глазами по диагонали. Начнем с того, что Платон Щукин — это такой же реальный персонаж, как Козьма Прутков. Это просто название техподдержки Яндекса. И пессимизировать вручную сайты — это все равно, что пытаться вычерпать воду из озера Байкал пластиковым ведром.

Кто попадает в группу риска

smyslovaya-neunikalnost
По большому счету пессимизирован может быть любой сайт, который фильтр АГС -40 Яндекса посчитал малополезным или Панда Гугла определила, что его контент недостаточен. Но наибольшей вероятностью обладают следующие группы интернет-ресурсов:

  1. Информационные, специализирующиеся на обзорах по какой-либо тематике (автомобили, банки, кулинария и т. д.)
  2. Развлекательные: сайты с онлайн-играми, музыкой и фильмами.

Следует сказать, что за смысловую неуникальность пока преследуются сайты, основная коммерческая составляющая которых — это продажа ссылок и размещение рекламы, как правило, тизерной. Интернет-магазины и тому подобные коммерческие сайты такой пессимизации пока не подвергались. Яндекс и Гугл справедливо рассудили, что на таких ресурсах посетители ищут не добавочную информационную ценность, а товар, качество которого поисковики пока еще не научились оценивать.

Но это совсем не означает, что владельцам коммерческих  сайтов можно спать спокойно. Да, Яндекс и Гугл пока еще не были замечены в наказании таких интернет-ресурсов за смысловую неуникальность. Но наверняка она уже учитывается в общем алгоритме ранжирования. И действительно, смысл собирать и обрабатывать дополнительный огромный массив информации, чтобы только использовать в фильтрах? Вы можете спросить, как может выиграть посетитель, который ищет конкретный товар, от того, что на одном сайте информация о нем будет изложена полнее?

Во-первых, чем больше технической информации о товаре, тем лучше  для посетителя. Ведь именно какой-нибудь технический нюанс может склонить чашу весов в ту или иную сторону: покупать — не покупать.  А, во-вторых, если помимо технического описания будут приведены цены и отзывы, то текст приобретет смысловую уникальность и посетитель от такой дополнительной информации только выиграет (о важности уникализации контента посредством отзывов мы уже писали в статье «12 советов по  оптимизации сайта интернет-магазина»).

В следующей статье «Смысловая неуникальность — новый подход к оценке контента Яндексом и Гуглом. Часть 2» мы расскажем, как писать статьи с добавочной ценностью, а также, что делать, если сайт был пессимизирован по причине смысловой неуникальности (недостаточности контента).

Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedInShare on VKPin on Pinterest

2 thoughts on “Смысловая неуникальность — новый подход к оценке контента Яндексом и Гуглом. Часть 1

  1. Серж

    Копирайт и рерайт Вы хороните преждевременно. Во-первых, сила инерции еще долго удержит на плаву эти благородные занятия. Во-вторых, никто не помешает разработать новые критерии для этого подвида писателей.

    1. Irina Post author

      Все верно. Но уже сейчас стоит более серьезно подходить к созданию контента для сайта, чтобы не получить в будущем проблем от поисковиков.

Comments are closed.