post Категории: Google,SEO экспериментыpost Comments (6)

Google долгое время утверждал, что ранжирование контролируется алгоритмом, исключая сайты, вручную удаленные из результатов поисковой выдачи за спам, распространение вредоносного ПО и т.п.
Но, может, Google не такой уж и робот, как нас убеждают?

Робот


На очередной SMX-конференции представители Google и Bing публично подтвердили, что существует список исключений для сайтов, которые попадают под фильтры в результате некорректного действия алгоритмов ранжирования. Мэтт Каттс уточнил, что нет какого-то глобального "белого списка", но Google делает исключения для некоторых сайтов, которые не нарушают правил, но в результате своих особенностей попадают под фильтры.

Изначально считается, что сайты ранжируются так, как того заслуживают, исключая спамерские сайты, чтобы обезопасить Google от потенциального манипулирования результатами выдачи. Маркетологи Google в дальнейшем использовали фразу «уникальная демократическая природа интернета» для объяснения того, как работает алгоритм PageRank.

Почему бы не провести мысленный эксперимент, чтобы понять, как Google работает, и какого мнения о работе своих алгоритмов старается избежать.

Для начала, представим негативную картину. С такой точки зрения, Google может иметь продукт, конкурирующий с Вашим, или инженер-разработчик из Google Вас за что-то не любит и стремится искусственно повлиять на результаты выдачи, только из личной неприязни. Но, если бы победители и проигравшие выбирались, исходя из интересов компании, Google быстро утратил бы свою монопольную позицию на рынке.

Позитивная точка зрения: алгоритмы контролируют все, за исключением редких случаев спама. Может не такая уж и позитивная?

  • Предположим, что разработчики Google писали алгоритм с конкретной целью.
    • Google запустил новую систему универсального поиска только после покупки Youtube. Совпадение? Не похоже. Если бы это произошло перед покупкой, цена сервиса Youtube поднялась бы на 30-50%
    • К тому же Google использует группу экспертов для обучения своих алгоритмов. Google составляет список вопросов и желаемых результатов, и использует запрос, созданный экспертом для поиска, для усовершенствования алгоритма.
  • Google также в некоторой степени отдает преимущество брендам (зарекомендовавшим себя сайтам), и ранжирует их по критериям, которым не соответствуют другие сайты. Также действие алгоритма различно в отношении некоторых сайтов, использующих дорвеи.
  • В результате, некоторые сайты поставлены перед выбором: прозябать в неизвестности и потерять свою долю рынка, или использовать агрессивные методы продвижения и выйти за рамки правил.
  • В случае использования методов "черной оптимизации", есть небольшая вероятность того, что сайт будет разбанен, или отделается легким наказанием, но чаще всего ресурс попадает под штрафные санкции на период, который может затянуться до 3 лет!
  • Теперь самое интересное:
  • Алгоритм ранжирования Google имеет достаточно большое количество ложных срабатываний
    • Google может проверить и вернуть на положенные позиции в поиске забаненный сайт, отвечающий определенным критериям, путем занесения его в белый список
    • Из двух сайтов (к примеру), забаненных в результате одних и тех же действий, одному могут отказать в просьбе о занесении в белый список без объяснения причин.

Итак, несмотря на заявления о том, что алгоритм контролирует все, существуют реальные люди, которые оказывают персональное влияние на ранжирование. Алгоритм, в первую очередь, ориентирован на соблюдение правил. Кроме того, это маркетинговый инструмент. А вот релевантность - третья в списке важности (как еще объяснить проблему с контент-фермами, растянувшуюся на долгие годы, пока Google не позаботился о ее решении).

#1

очень интересная и полезная статья, огромное спасибо автору

Ника, 30/03/2011 - 16:16
#2

Демотиватор понравился)))

Вика, 31/03/2011 - 14:16
#3

Я думал тему спалите ) А тут воду полили )

pickup, 10/04/2011 - 10:09
#4

А что вы все так за этот пейдж ранг цепляетесь, у гугла более 200 алгоритмов по которым он вы водит сайт в топ поиска!
Которые он вам взял прям все и рассказал
А которые описаны большинство для забугорных сайтов

Anonymous, 05/05/2011 - 09:11
#5

Мета теги с ключевыми и описанием страницы, тоже очень ценятся!
Самое главное они не должны повторяться!
Как говориться уникальность путь к топам!

Guest, 26/05/2011 - 21:58
#6

Уникальность это дефицит!

victor, 20/06/2011 - 13:31