post Категории: Google,SEO статьиpost Comments (11)

Сейчас все в мире SEO осознают алгоритмические обновления Google,  которые были запущены 23 Февраля. Стоит прочитать несколько работ по этой теме, таких как  Danny Sullivan's take , Aaron Wall's assesment , SearchMetrics' analysis и Sistrix's data-driven post.

Вместе со своими друзьями из Distilled , научным сотрудником доктором Мэттом Питерсом и рядом других помощников, автор анализировал изменения. Пока точно неизвестно какие изменения Google повлияли на то, что сайты перестали выдаваться на 11,8 % запросов по ключевым словам, но есть пара идей которые подгонят показатели данных и автор надеется что сможет помочь интернет-продавцам увидеть как повлияло обновление на их сайты.

Как посмотреть какой эффект произвело обновление на ваш сайт с помощью Google Analytics?

Шаг 1: Используйте функцию GA's date, чтобы увидеть дни до и после обновления в среду.

Шаг 2: Исключите “фирменные” ключевики которые давали трафик, чтобы эти термины не портили/путали данные, поскольку нежелательно их затрагивать.

Фильтры Google Analytics

Шаг 3: Проверьте линию сравнения трафика:

Шаг 4: Уберите линию сравнения, чтобы увидеть расчет ключевых слов (эти данные также будут в вашем web app traffic tab  в конце недели):

Шаг 5: Также проверьте, что было неделей ранее:

Отметьте такие примененные фильтры для ключевиков как – исключение фирменных терминов (брендовых названий), использование только "неоплачиваемых" ключевых слов, и и выбор "Google" в качестве интсрумента/двигателя (в Bing не было обновления). Используя этот процесс, вы можете проверить, как пострадали (не пострадали) ваши сайты.

Кто пострадал при новом обновлении?

Благодаря некоторым показателям данных, мы можем увидеть кто находится в выигрыше а кто проиграл. Во-первых, есть Sistrix , который контролирует 250,000 ключевых слов в Google вплоть до топ 100:

Sistrix data

Далее идёт  SearchMetrics , который контролирует  ~ 25 миллионов ключевых слов в Google:

Как вы можете увидеть, есть всего небольшие разбежности в показателях между двумя источниками данных, где видно что сайты потеряли существенный трафик, подозреваю что оба источника правы и перечисленные сайты понесли ущерб при обновлении. Обратите внимание, что они оба имеют уникальные способы расчета "видимых" результатов, основанных на позициях где страница / сайт появляется, и это, наряду с различиями как они контролируют ключевые слова, вероятно приведёт к  несовершенному перекрытию.

Кто же в выигрыше благодаря новому обновлению?

Опять же некоторые данные из Sistrix:

И с SearchMetrics:

Эти данные\список немного больше опекаются SearchMetrics (так как, они, кажется, исключили множество победителей, возможно клиентов). Любопытно, что Wikihow казалось бы, получила такие сильные позиции в расчёте  SearchMetrics, но не отображается в списках Sistrix.

 

Какие факторы могли привести к потере позиций сайта?

При рассмотрении пострадавшего сайта, мы увидели несколько интересных причин, которые стали тому виновниками.

Страница eHow  слева  и страница EzineArticles справа

- Сайты где размещено меньше навязчивой рекламы должны оказаться в числе победителей, а те где больше рекламы в проигравших.

- Кроме того сайты, чей UI (User interface – пользовательский интерфейс) / дизайн можно описать как современный, высококачественный, продуманный и “привлекательный” станут победителями, а “уродливые” сайты отправятся к проигравшим.

- Когда дело дошло до сайтов генерируемых пользовательским контентом (UGC), те сайты, которые,  как правило, привлекают "мелкие" взносы (EzineArticles, Hubpages или Buzzle) проигрывают, в то время как более богатые, достоверные, неоплачиваемые, не предназначенные набить цену SEO и ссылкам (Etsy, DailyMotion, LinkedIn, Facebook) выигрывают.

- В секторе “богатого содержания”, страницы с менее удобным/читаемым/легко расходным содержанием (AllBusiness, FindArticles), как правило, проигрывают сайтам с богатым содержанием, которые сделали свою работу более удобной (LOC.gov, HuffingtonPost).

Основываясь всём этом, у нас есть некоторые догадки, что за сигналы использовал Google при этом обновлении:

 

- Пользовательские данные - сигналы, по типу click-through-rate (отношение посещений к кликам по ссылке), время, проведенное на сайте, "успех" в поисковом посещении (основано на других пользовательских данных).

- Качественные оценщики – самообучаемая программа, основываясь на данных качественных оценщиков, применяется для создания  причин/факторов, которые могут возвысить “понравившиеся” сайты или понизить “не понравившиеся”. Но введение такого алгоритма может быть опасным, поскольку никто не знает, какими факторами оперирует программа.

- Контент - анализ – алгоритм моделирования содержания, который рассчитывает/оценивает читабельность, уникальность, анализ надежности, и возможно,  даже использует визуальную "привлекательность" содержания (или другие сигналы которые подходят).

Более детальный анализ отдельных страниц, которые оказались в выигрыше или проигрыше, может помочь получить более глубокое представление об этом.

 

#1

Как неожиданно новый пост))

Darya, 14/03/2011 - 11:24
#2

Даже не один

Zuzlan, 14/03/2011 - 11:28
#3

Насколько я знаю, Google меняет периодически свои алгоритмы, и каждый SEO оптимизатор должен быть к этому готов, а следовательно – делать ставку на качественную сторону проекта. Сайт не для поисковых роботов, а для людей.

stanislav, 17/03/2011 - 15:01
#4

Паника! Интернет магазины и потеряли 80% трафика с гугла в январе. Причина – похожий контент у страниц, которые отличаются несколькими цифрами и картинкой.
Вывод: пишите уникальные описания для каждого, о Боже, товара….

TsuriCom, 18/03/2011 - 06:22
#5

Давно пора было потрясти. Надо как Яндекс – не уник = бан. Смотри и качество сайтов станет лучше. И ручки выростут с того места, что надо.

Okinak, 18/03/2011 - 15:32
#6

За “неуник” не банят!
====
Вот Яндекс почти каждый день чтото менят, придумывает, а толком ничего нормально не работает.

Гугл наоборот.

Артиом, 18/03/2011 - 21:38
#7

[...] повлиять самые неожиданные факторы. Хороший пример – недавнее обновление Farmer/Panda, но существуют тысячи потенциальных причин, включая [...]

#8

[...] Почему не стоит беспокоиться о новом обновлении Google? [...]

#9

[...] ссылки, и исключить их из расчетов. Последнее Panda-обновление, сделало еще более очевидным тот факт, что покупка [...]

#10

[...] высококачественные сайты в результатах поиска Google. Panda-обновление улучшило показатели ранжирования для большого [...]

#11

мда за этими нововведениями уже и не уследить

Дмитрий, 20/05/2011 - 12:33