алгоритм гугла 2015
Это интересно!!!
алгоритмы гуглас

алгоритмы гугла 2014

В ночь с 24 на 25 апреля был введен новый алгоритм Google – Google Penguin (Гугл Пингвин). Любовь к животным Google вызвала много шума.

При поддержке Movebo.ru: продвижение поведенческими факторами.
Привет, друзья! Большое спасибо за поздравления с трехлетием блога. Было очень приятно. В прошлом посте я упомянул о том, что гугл «помог» мне увеличить посещаемость блога за последние полгода. Как вы уже могли понять по заголовку, относительно новый алгоритм Penguin не обошел и мой дневник. Почему так произошло? Что предпринимать в данной ситуации? Как вернуть посещаемость с этой поисковой системы? Всеми этими вопросами я начинаю новый эксперимент по возврату посещаемости с google.ru.
«Прошло практически полгода! Уже не актуально!» — могут сказать некоторые. Во-первых, для меня это актуально (ранее не нашел время, чтобы этим заняться). Во-вторых, это актуально и для многих сайтов, которые мне попадались, и которые до сих пор находятся под влиянием Пингвина от Гугла. В-третьих, данный алгоритм не был одноразовым. Он работает и усовершенствуется до сих пор. В связи с этим, поизучать его никогда не поздно . Вот мой график посещаемости с этой ПС. Она упала в 2 раза.
Суть алгоритма
В первую очередь, Google Penguin был направлен на борьбу с веб-спамом: внутренним (на сайте) и внешним (в виде обратных ссылок). Раньше считалось, что гугл любит немного переспамленные тексты и анкор-листы с прямым вхождением продвигаемого ключевого слова. Данный алгоритм перевернул понятие о продвижении в google у вебмастеров и оптимизаторов.
По внутренним факторам в принципе все понятно — не нужно переоптимизировать тексты, внутренние линки. По обратным ссылкам складывается не совсем однозначная ситуация.
Мэтт Катс в интервью на searchengineland говорит о том, что они много работы проделали для того, чтобы один человек не смог негативно подействовать на сайт другого человека. Имеется в виду негативное влияние ссылок. Также он говорит, что плохие ссылки в глаза Пингвина игнорируются, а не негативно сказываются на ранжировании ресурса.
Почему же тогда многие проекты потеряли столько трафика? Если эти сайты по большей части держались в ТОПах из-за покупного ссылочного, то оно для них перестало действовать. По внутренним же факторам они не дотягивали до хороших мест в выдаче. Другими словами, определяющий на тот момент ссылочный фактор, который держал проекты в десятке, потерял свое былое значение. По большей части, действию алгоритма не подверглись старые трастовые сайты с хорошей контентной составляющей и естественными ссылками. C этими выводами, конечно, можно спорить, потому как попадаются частные ситуации, которые выбиваются из общей картины. Это, на мой взгляд, недостаток, присущий любым алгоритмам и фильтрам, которые несправедливо наказывают качественные ресурсы.

Алгоритмы и фильтры поиска Google.  Хочу отметить вот этот источник: moz.com/google-algorithm-change - существенно помог в составлении списка.

Google Penguin анонсировался 24-25 апреля. На самом же деле, по моим наблюдениям, его влияние началось несколько ранее. Это можно увидеть и на моем графике и на некоторых других.
Мэтт Катс говорит, что если на вашем сайте упала посещаемость с ПС google, то это не говорит о том, что постарался Пингвин. Борьба с низкокачественными ссылками происходит давно. Я думаю, что он все-таки лукавит, а действовать данный алгоритм начал немного раньше его официального запуска.
Анализируя посещаемость блога с гугла за последние полгода, я сделал вывод, что алгоритм по большей части затрагивал конкретные страницы, а не сайт целиком или отдельные запросы (поэтому статистику по отдельным ключевым словам я не рассматриваю в этом посте). Например, на некоторые документы трафик с этой поисковой системы не упал.
Все графики с google analytics увеличиваются по клику (в новом окне). Синяя линия — это общее число просмотров страницы, оранжевая — переходы с гугла.
А по некоторым увеличился.
На все эти страницы не приобретались ссылки. Текст, соответственно, писался для людей . Это лишний раз подтверждает, что просто нормальные страницы с нормальным контентом и без внешнего продвижения ведут себя стабильно. Выявить те документы, на которых подросла посещаемость или осталась на том же уровне также полезно. Они станут «примером подражания» для остальных. То есть, анализируя их, можно понять, что нравится поисковой системе, ее алгоритму. Как выявить проблемные страницы?
Способ №1.
Разберу на примере Google Analytics. Сначала необходимо определить на какие документы шло больше всего посетителей с гугла. Заходим «Содержание» -> «Обзор» -> «Содержание сайта» -> «Все страницы». Далее нужно внести дополнительный параметр по трафику с поисковиков. Для этого нужно нажать «Дополнительный параметр», затем «Источник трафика» -> «Источник».
Появится список самых посещаемых документов в разрезе с источниками. Нужно смотреть на те строки, где числится google.
Например, кликаем на первую страницу, на которую за выбранный период приходился максимум посетителей с гугла. Далее также добавляем параметр «Источник». Нажимаем чекбокс на строке, где красуется «google» и кликаем «Показать на диаграмме».
Таким образом, получаются графики, которые я публиковал выше (с общим трафиком на документ и посетителями с гугл). Вот примеры со снижением количества ежесуточных посетителей.

Основные алгоритмы Google.  Page Layout Algorithm — наказывает сайты за чрезмерное количество рекламы.

Видите, посещаемость упала, но не пропала. Я проверил некоторые запросы в поисковой выдаче. Они упали на 5-15 позиций. Существенно для снижения количества посетителей, но не совсем критично для видимости сайта в ПС (позиции в пределах ТОП 10-20).
В идеале, так нужно посмотреть все страницы, которые приносили с данной поисковой системы хотя бы какой-то трафик, но не ниже 100-200 в месяц. Если будет меньше, например, 1-2 посещения в сутки, то по данным полученного графика можно сделать неправильные выводы.
Найденные страницы, на которых упал трафик, нужно проверить на:
Качество контента. Возможно, ваш документ ранее не заслуживал высоких позиций. Гугл просто восстановил справедливость. В таком случае, нужно поднять его качества.
Переспам в ключевых словах, нечеловеческие словоформы. Тексты для людей становятся более актуальными. В этом пункте нужно «очеловечить» существующие тексты.
Переспам в анкор-листе, например, прямыми вхождениями. Необходимо разбавить ссылочную массу: изменить старую, либо дополнительно создать «естественную» новую.
В некоторых случаях нужен комплексный подход. Что касается малопосещаемых страниц, низкочастотных запросов и длинного хвоста, то, на мой взгляд, посещаемость на них и по ним может вернуться, когда с основными трафикогенерирующими документами будет все в порядке. Вернется доверие и траст со стороны поисковика (в случае если со страницами будет все нормально, а в алгоритме заложено взаимодействие анкор-листа страницы с анкор-листом всего сайта). «Нормализация» анкор-листов отдельных документов приведет к «нормализации» анкор-листа всего проекта.
Это я разбирал по аналитиксу. В статистике liveinternet тоже можно делать подобное, но необходимо добавить срез по поисковой системе гугл. К сожалению, если ранее он у вас не был установлен, то данные по посещаемости конкретных страниц с конкретных источников получить нельзя. По крайней мере, я не смог найти. Если вы знаете, как это сделать, то напишите в комментариях . Правда, можно анализировать посещаемость страниц (здесь же можно и запросов) в целом. В таком случае, конечно, могут появиться погрешности, но все равно картина должна быть понятна. Насчет метрики и других сервисов статистики ничего не могу сказать.
Способ №2.
В первом способе анализ шел от полученных изменений. Второй способ попроще, но подольше. Нужно «вручную» проанализировать каждую страницу вашего ресурса на качество контента, а также обратные ссылки на предмет переспама анкор-листа. Довольно-таки не технологический способ, но в некоторых ситуациях не менее эффективный.
Этот пост является началом эксперимента по возврату посещаемости. В нем я рассказал, как можно искать проблемные страницы и немного затронул особенности самого Google Penguin. В следующей части эксперимента, который должен выйти после очередного апдейта этого алгоритма (последний был 5 октября), я расскажу, что делал и что из этого получилось. Надеюсь, что мне удастся вернуть тенденцию развития посещаемости с гугла.
А вас коснулся гугловский пингвин? Получилось найти проблемные документы на сайте? Что-нибудь предпринимали или пускали на самотек? Чего получилось добиться? Жду ваши отзывы и мысли в комментариях .
У меня после Пингвина несколько сайтов просело. Но тенденции именно по отдельным страницам замечено небыло. Фильтр накладывается как бы на весь домен. Причём по большеё части на ВЧ ключевики по НЧ трафик продолжает идти. Плюс наблюдалась смена релевантной страницы в выдаче. Например под запрос «купить телевизор» была специально заточеная страница, которая висела в ТОП 10, после пингвина эта страница исчезла из выдаче, а где-то за ТОП 50 появилась страница заточеная под запрос «телевизоры самсунг», и теперь показывается по запросу «купить телевизор», но только как уже написал, на позициях за ТОП 50. Причём заметил, что если поставить несколько ссылок с чистым вхождением анкора «купить телевизор», на страницу «телевизоры самсунг», то она через пару недель исчезает из выдачи. Таким образом даже получилось вернуть пару запросов, правда не на такие хорошие позиции, как раньше.
Сдается мне, что ты, Сергей, как и многие банально путаешь Пингвина и Панду…
Судя по тому, что вжарило тебя не четко 24.04 или же 25.05, а еще раньше, и по тому, что позиции не выкинуло за 100, то это Панда — переспам контента, а не Пингвин — ссылочный переспам… Так что перепиши заголовки с точных вхождений ключевых фраз, и будет тебе реабилитация… Пингвин четко определяется сроками удара + однозначным вылетом практически всех (в моем случае 98%) позиций за сотню, то есть отнимает 98% трафика из Гугла, а не как у тебя — по отдельным статьям просто позиции просели…
Рекомендую попробовать разобраться в отличиях, а то из-за массовой паники вокруг Пингвина многие блоггеры про существование других фильтров вообще забыли и поголовно вводят читателей в заблуждение.
Вадим, я не делаю акцент на внутренних изменениях. Google Penguin — это в основном внешние ссылки :).
Работать над магазином. Коммерческого трафика в

8 июня 2010 в 12:55. Эксклюзив: Как алгоритм Google управляет интернетом перевод. 8 июня 2010


История изменений алгоритма Гугл Панда  Все обновления публикуются на англоязычном ресурсе seomoz, страница moz.com/google-algorithm-change.

Google обычно тестирует свои алгоритмы от пары месяцев до полугода.  Алгоритм Google Penguin (Гугл Пингвин).14 января 2013


Алгоритмы Google: история развития. 09.12.2013Автор: Серов ИгорьРаздел: SEO учебник. Алгоритмы Google, основа работы поисковой системы Google.


Главная — Перевод — Как изменялись алгоритмы Google — 7 мая 2011.  Гугл, в этом смысле, самый актуальный поисковику. 7 мая 2011

26 сентября 2013 года алгоритм Hummingbird (Колибри) заменяет алгоритма Google Caffeine.  Так Гугл отличает мобильную версию сайта от адаптивного сайта.


Получивший среди оптимизаторов прозвище Google Payday Loan Algorithm – алгоритм по ранжированию


Я ненавижу Гугл! Это всё равно, что гадание на кофейной гуще!" А Google?  1. Как вы считаете, имел ли алгоритм Pigeon положительный эффект для бизнеса и

Все считали, что это “Пингвин”, однако, в последнее время у гугла было множество глобальных  Последний антиспам-алгоритм Google” (см. также на SlideShare).


Предлагаю вашему вниманию статью из блога ContentMonster про наиболее значимые изменения алгоритмов Google. 7 ноября 2015


Известно множество алгоритмов Google, которые пользовались популярностью в свое время.  Алгоритмы Google. Подробности. 30 Ноября 2014.

Есть еще и менее популярные алгоритмы Google. Рассмотрим и их изменения.  Продвижение web сайтов в гугле зекслер. 6 января 2015


Я пришел в Google в 2000 году и с тех пор работаю над алгоритмами ранжирования Google. Ранжирование Google — это набор взаимосвязанных алгоритмов


Смотрите сами подробности по новому алгоритму Google Mobile-Friendly из первых рук  Просто проверить с помощью специального онлайн-сервиса от Гугла.

О том как работает обновлённый алгоритм Гугла (Google Panda) я уже рассказывал в другой статье.


В частности, поговорим о новом алгоритме гугл под названием Huminbird - Колибри, введённом в октябре 2013 года.


Google Penguin – это кодовое слово впервые было упомянуто 24 апреля 2012, которое было использовано для обозначения обновленного алгоритма Google.

Преимущества и достоинства Google. Google определенным образом отличается от остальных глобальных систем поиска.  Алгоритмы Google.


Современные алгоритмы Google используют более 200 различных сигналов или "ключей", чтобы понять, что именно вы ищете.


Алгоритмы Google. Блоги. » Поисковая оптимизация.  Начиная с начала мая Гугл ввел новый интерфейс для пользователей УАнета.

Поисковая система Google внедрила новый алгоритм работы через фильтр Panda.  Люди статьи пишут, а посетителей с Гугла нет. Причины сейчас известные, надо16 октября 2014


Рекомендуем

rd-ok.ru Телефон: +7 (382) 089-44-12 Адрес: Краснодарский край, Армавир, Посёлок РТС, дом 43