Блог студии веб-дизайна «Make a Site» Дизайн, верстка, программирование, наполнение и раскрутка сайтов.

Новый подход Яндекса к определению релевантности страниц

Буквально на днях Яндекс в своем официальном блоге сообщил о том, что уже довольно давно тестирует новый подход к определению релевантности документов. Подход отличается от классических методов, к которым все вебмастера успели привыкнуть на протяжении многих лет работы в области поискового продвижения сайтов.

Новый подход Яндекса к определению релевантности страниц
Содержание статьи

Классический способ определения релевантности

Классический подход к определению релевантности страниц в поиске, наверняка, всем уже давно известен, поэтому особо повторяться и пережевывать сто раз пережеванное мы не будем. Мы скажем лишь, что речь идет о совокупности различных параметров (которых уже набралось более сотни, хотя точно этого никто не знает), определяющей позицию документа по ключевой фразе. Чем выше релевантность текста, по тому или иному ключевому запросу, тем соответственно выше в поиске будет страница, на которой этот текст размещен. Такой подход использовался на протяжении многих лет и используется по сей день. Более того, хочется сказать, что и в будущем кардинально ничего не поменяется и подход будет работать еще долгие годы. Самообучающиеся машины на основе Матрикснета просто подкручивают гайки, и подстраиваются под постоянно меняющиеся условия, двигаясь в темпе, который задают вебмастера и сеошники (к сожалению, в большинстве случаев недобросовестные).

matrixnet-yandexНа каждую новую хитрую гайку серых сеошников, у поисковиков, как говорится, всегда находится не менее хитрый болт. Изначально, факторов, влияющих на ранжирование было не так то много и поисковые системы было довольно просто обмануть, например, добавив страницы, напичканные ключевыми словами. Такой метод SEO был ориентирован на один из факторов определения релевантности, который гласил — чем чаще и точнее в тексте встречаются ключевые слова, являющиеся целевыми, тем выше нужно ранжировать такой документ. Именно благодаря этому интернет получил миллионы переоптимизированных текстов, пестрящих выделенными ключевиками, которые повторялись чуть ли не в каждом предложении по поводу и без. Читать такие тексты было просто невозможно и эта лавка была довольно быстро прикрыта, тогда был введен термин «тошнота», означающий процент насыщения текста неадекватными вхождениями.

sly-nut-and-boltСледующей эпохой черного СЕО, несомненно, было продвижение покупными ссылками, затем социальные закладки, а до этого широко использовались прогоны по «белым» каталогам, если помните. Все подходы к продвижению, кроме ссылочного, давно уже изжили себя, а их применение на практике в большинстве случаев приводило к наложению санкций, пессимизации, обнулению тИЦ и т.д. Однако и ссылочному продвижению тоже пришел конец, ведь в середине мая 2015 года Яндексом был введен Минусинск, нацеленный на выявление и наказание сайтов, имеющих большое количество входящих SEO-ссылок. Но и этого оказалось мало, буквально на днях Яндекс сообщил о том, что теперь будут наказаны не только сайты, покупающие ссылки, но также и сайты, которые собственно их продают, т.е. Минусинск будет применяться и к донорам.

В нагрузку ко всем факторам, определяющим релевантность документа, в последнее время поисковые системы стали придавать большое значение поведенческим факторам. Если алгоритм ранжирует сайт достаточно высоко, то такой сайт займет высокие позиции лишь на какое-то время и с большой вероятностью будет сильно понижен, если на деле окажется, что поведенческие факторы оставляют желать лучшего. Иными словами, сайты, которые не оправдают надежд Яндекса, будут понижены, несмотря на априорные условия, которые могли быть достаточно высоки. Если же анализ поведенческих факторов указывает на то, что большинство посетителей сайта бежит уже через 3 секунды после того, как на него заходит, то не миновать резкого падения в выдаче.

Экспериментальный метод определения релевантности

professor-experimentingМетод априорного определения релевантности документов считается классическим и применяется к проиндексированным страницам, которые проходят тщательный анализ под разными углами, после этого применяется специальная формула с сотней переменных, которая известна только самой поисковой машине. Эта формула и определяет позицию страницы сайта по ключевому запросу. Такой метод считается априорным, потому что выводы о качестве и релевантности страницы делаются до какого-либо опыта. Иными словами, эту страницу еще никто не видел, но, согласно формуле, она считается более полезной для посетителей, чем другие документы.

Экспериментальный метод определения релевантности отличается как раз тем, что свежие документы могут быть ранжированы высоко, даже если это противоречит старой формуле Яндекса. На наш взгляд, такой подход должен быть очень эффективным, ведь посудите сами — если статья действительно очень интересна, хорошо оформлена и дает подробные ответы на все вопросы, которые призвана осветить, то поисковик просто обязан ранжировать ее выше. Однако, если рассчитать релевантность этой статьи при помощи стандартного алгоритма, она еще очень не скоро попадет в ТОП. Ведь откуда возьмутся поведенческие факторы на странице, которую никто не посещает. Не будет посетителей, не будет и статистики, необходимой Яндексу для анализа поведения пользователей.

В своем официальном блоге, в статье о новом подходе определения релевантности Яндекс пишет, что допускает возможное краткосрочное снижение качества поиска, но делается это ради того, чтобы выиграть в качестве стратегически (как говорится, на дистанции), а также сообщает, что новый подход тестируется на некоторых запросах вот уже 3 месяца. Да, лето 2015 года, несомненно, внесло много изменений в жизнь SEO-специалистов, которые в последнее время зашевелились на своих форумах, обсуждая поведение Яндекса.

black-horseЧто же касается нового подхода, то выражаясь совсем простыми словами, можно описать вышесказанное следующим образом — Яндекс не будет дожидаться, пока новую страницу посетит достаточное количество человек, чтобы проанализировать их поведение и внести корректировки в результаты классической формулы определения релевантности. Ждать придется слишком долго, ведь на «зеленом» сайте с посещаемостью дела обстоят очень плохо, а значит не будет и достаточного количества данных, для того, чтобы сделать необходимые выводы. Поэтому Яндекс будет закрывать глаза на поведенческие факторы, подсовывая в ТОП эту темную лошадку, разумеется, придерживая ее за хвост. Статистика будет собираться в разы быстрее, а значит и корректировки можно будет внести за считанные дни. Получается, что новая статья, стремительно попавшая в ТОП, может так же стремительно оттуда вылететь, если не оправдает надежд Яндекса и покажет низкий уровень поведенческих факторов. Но если поведенческие факторы будут хорошими, то есть шанс остаться на вершине, почему бы и нет. Кстати, стоит добавить лишь то, что документ, прежде всего, должен отвечать условиям основной формулы, без этого никак, а иначе и разговора то даже не будет.

15.09.2015
805




Предыдущая статья:
Причины, по которым сайт покидают быстрее

Читайте также:
Распознавание текста с изображений и PDF-файлов — популярные онлайн-сервисы

Возможно, вам это интересно:



Блог студии веб-дизайна «Make a Site».
Дизайн, верстка, программирование, наполнение и раскрутка сайтов.

Текущий проект: «Stream Booster» — раскрутка Twitch и YouTube каналов

Студия веб-дизайна «Make a site»