Оптимизация сниппетов — делаем эффективные Title и Meta Description. Анализ неявных предпочтений пользователей. Научно-технический семинар в Яндексе Заказать анализ сниппетов

Надо сделать такую отдельную рубрику — «Если есть 3 часа на SEO-работы».

Потому что, если ваш план по SEO не расписан максимально детально, подробно, так, что и мельче уже не разобъешь, то при мысли о том, сколько там всего нужно провернуть, начинается прокрастинация. Руки тянутся к соцсетям, час пролетел, потом времени осталось совсем мало, уже и не хочется начинать.

А вот когда есть какие-то понятные короткие действия, которые займут как раз часа 2-3, то уже можно хоть что-то сделать по продвижению сайта.

Оптимизация сниппетов является небольшой частью того, что я там рекомендую делать. Но зато достаточно простой и быстрой его частью.

Я не говорю сейчас о расширенных сниппетах (внизу будет ряд статей про расширенные сниппеты).

Я же тут пишу про 2 главных элемента — Title и Meta Decription.

Алгоритм кратко:

1. Получаем из любой системы аналитики (Яндекс Метрика, Google Analytics) список страниц, с которых чаще всего приходят к вам из поиска.

В Яндекс Метрике:

Можно поработать отдельно со страницами, откуда чаще приходят ТОЛЬКО из Гугла, например.

Потому что в Гугле чаще будет виден именно такой сниппет, каким вы его сами зададите при помощи Title + Meta Decription. То есть он более управляем. Я покажу этот момент ниже.

Но лучше поработать просто над всеми трафиковыми страницами из поиска. Изменения Title + Meta Decription даст много полезного и для Яндекса. Особенно изменения Тайтла.

Помните еще вот о чем.

Есть такое правило: «работает — не трогай».

Самые трафиковые страницы лучше всего улучшать совсем немного — подправить Title, но не менять его полностью, с нуля, с другими словами.

Добавить в текст дополнительных тематических и ключевых слов, но не менять что-то кардинально.

Добавить на эту страницу перелинковки и ссылочного (это всегда только в плюс).

2. Изучаем, как выглядят текущие сниппеты у этих страниц по каким-то запросам, по которым на эти страницы часто заходят. Например, при помощи Топвизора (подробно ниже, со скриншотами). Перепроверяем, есть ли вообще в Тайтлах все важные ключевые слова.

Смотрим вручную ТОП по своим запросам — как выглядят сниппеты у самых высокостоящих конкурентов.

3. Делаем Title и Meta Decription интересными, яркими, привлекательными, со всеми важными ключевыми словами.

4. Ускоряем переиндексацию этих страниц . Вариантов много — соцсети, ссылка с главной страницы. Но я бы использовала — каждую ссылку 2-3 раза по тарифу макси. У меня этот вариант по-прежнему отлично работает.

Через какое-то время смотрим на изменения по позициям и трафику. Их можно посмотреть по временным сегментам, например, в Яндекс Метрике — тут по ссылке я описывала, как диагностировать Баден-Баден, вот точно так же можно задать период неделю до изменений, неделю после того, как они уже точно вошли в силу.

Где позиции по важным ключевым словам еще недостаточно высоки — допинываем их дальше точечно до ТОПа.

Немного подробнее:

Сниппет – это то, как ваш сайт выглядит в выдаче поисковых систем – его заголовок, описание, значок favicon, быстрые ссылки, что-то еще.

Я очень много исследовала сниппеты в последние месяцы и на основе этого могу четко сказать:

Сегодня описание сниппета Яндекс чаще всего берет из текста (хотя иногда берет и мета дескрипшн полностью или частично — кусок мета дескрипшн плюс кусок из текста).

Гугл чаще всего берет описание сниппета из мета дескрипшн, хотя если в нем нет нужных ключевых слов из запроса, даже частично, он возьмет тоже из текста.

Заголовок сниппета чаще всего обе ПС формируют из Title, если в нем есть ключевые слова из запроса.

Даже если рассчитывать только на сниппеты Гугла – это все равно это чаще всего 30-50% трафика, а то и больше. Но оптимизация Тайтлов значительно улучшает ситуацию с ранжированием в обеих ПС. Да и качественный Meta Description в Яндексе тоже поможет с продвижением.

Именно поэтому так важно:

А) использовать ключевые слова — чтобы почаще у вас получался управляемый сниппет – заданный вами

Б) использовать интересные слова, цифры, скобки, заглавные буквы, ваши УТП, сильные выгоды, информацию по бесплатностям, скидкам и бонусам и т.д. – все, что увеличивает кликабельность сниппета.

Так же можно смотреть и сниппеты конкурентов.

Смотрим их в разделе «Позиции» при блочном отображении.

Но (!) сначала в разделе «Настройки» надо задать «Собирать сниппеты» вот тут:

Потом в разделе «Позиции» снять позиции. И переключить в «блочный» режим. В новом интерфейсе это делается так:

И сразу видно, что и как — какая релевантная, как выглядит сниппет, откуда он берется, какие слова подправить и так далее.

Релевантные и целевые страницы

Еще один важнейший момент в анализе сниппетов — чаще всего вы сразу видите, та ли страница ранжируется, которая нужна вам.

Является ли ваша целевая страница релевантной в поисковых системах. Одинаковая ли ваша страница релевантна и в Гугл, и в Яндексе.

и примерно посмотреть разные варианты, как может выглядеть сниппет.

Если я забью в этот редактор сниппетов свои Тайтл и Мета дескрипшн этой страницы, то получу вот такой вариант от них:

настоящий сниппет в Google выглядит так:

Они, как мы видим, почти идентичны, так что это хороший инструмент в помощь.

Как заполнять Meta Keywords

Или не заполнять вообще, или заполнять 1-2 главными ключами, без переспама – это может привлечь внимание и наложить санкции.

В общем, так формируются красивые и эффективные, хорошо оптимизированные сниппеты.

И ЭТО ВАЖНО проделать ДЛЯ КАЖДОЙ (!) важной целевой страницы.

Потом улучшать сниппеты самых трафикогенерирующих страниц и тех, которые близки к ТОПу.

Но делать это очень аккуратно.

Смотреть надо, подбирать разные варианты, играть тайтлом и мета дескрипшн.

Еще читайте хорошее руководство от Игоря Рудника:

— статья в блоге Оптимизаторши (Елены Камской)

— статья Дениса Каплунова

Как всегда, буду рада вашим комментариям!

Все мои проекты, кроме этого SEO-блога:

ТОП База - качественная база для полуавтоматической регистрации с Allsubmitter или для полностью ручного размещения - для самостоятельного бесплатного продвижения любого сайта, привлечения целевых посетителей на сайт, поднятия продаж, естественного разбавления ссылочного профиля. Базу собираю и обновляю 10 лет. Есть все виды сайтов, все тематики и регионы.

SEO-Topshop - SEO-софт со СКИДКАМИ, по выгодным условиям, новости SEO-сервисов, баз, руководств. Включая Xrumer по самым выгодным условиям и с бесплатным обучением, Zennoposter, Zebroid и разные другие.

Мои бесплатные комплексные курсы по SEO - 20 подробных уроков в формате PDF.
- каталоги сайтов, статей, пресс-релизовые сайты, доски объявлений, каталоги фирм, форумы, соцсети, блоговые системы и прочее.

"Приближаясь.." - мой блог на тему саморазвития, психологии, отношений, личной эффективности

Здравствуйте, уважаемые читатели блога сайт! Сегодня хочу вас проинформировать о том, что специалисты Megaindex (полный и подробный обзор этого онлайн сервиса комплексной раскрутки сайтов ожидает вас в одной из последующих статей) внедрили новый чрезвычайно полезный инструмент.

Речь идет о возможности быстрого анализа сниппетов, соответствующих определенным поисковым запросам (в о видах ПЗ Яндекса и Гугла подробности), по которым вы продвигаете те или иные страницы своего вебсайта в поисковых системах.

Эта очень важная информация, поскольку позволяет понять, надо ли предпринимать определенные действия, чтобы максимально уменьшить показатель отказов (одна из ), который играют одну из главных ролей в сегодняшней оптимизации и SEO продвижении.

На блоге есть публикация, где я описывал, например, влияние содержания мета тега Description (краткое описание к статье, которое вы создаете при публикации очередного материала) на формирование сниппетов в органической выдаче Яндекса и Google. Если вы пока не совсем понимаете о чем речь, советую обязательно перейти по и восполнить пробел.

Сниппеты Яндекс и Гугл, анализ их эффективности в выдаче

Прежде чем переходить к описанию работы нового инструмента MegaIndex, напомню, что сниппет включает в себя заголовок, краткое описание страницы, занимающей определенное место в поисковой выдаче, и ссылку на нее. Вот пример сниппета на странице результатов поиска Yandex по соответствующему поисковому запросу:


Как понимаете, чем содержательнее snippet, тем более эффективным он будет. В том смысле, что пользователь сразу сможет оценить, осуществлять переход на выбранную страницу или нет. Ведь если он перейдет и быстро покинет вебстраницу, то только увеличит число отказов, что не есть хорошо.

Особенную ценность этот инструмент приобретает у владельцев коммерческих проектов. Улучшение поведенческих факторов в этом случае означает удержание клиентов на вебсайте и, соответственно, увеличение продаж, что неминуемо ведет к повышению дохода.

Если вы ознакомились с содержанием выше расположенного скриншота, то уже уразумели, что, кроме всего прочего, инструмент анализа сниппетов позволяет оптимизаторам контролировать запросы, по которым вебресурс находится в пределах видимости.

Итак, для того, чтобы проверить свои сниппеты, следует перейти на страницу бесплатного анализа Мегаиндекс и ввести в простую форму доменное имя своего проекта, а затем последовательно регион, город и название поисковой системы (Yandex или Google):


Здесь я должен уточнить, что список городов предлагается в основном для коммерческих ресурсов, поскольку их ключи большей частью привязаны не только к широким регионам, но и к населенным пунктам (к слову, есть обещание в дальнейшем значительно расширить этот перечень).

Для стандартных информационных ресурсов вполне допустимо вписать Москву (город обязательно нужно выбрать, иначе скрипт не сработает). Спустя минуту после нажатия кнопки «Поиск» вы уже получите результаты, где будут представлены ваши сниппеты, находящиеся в выдаче Яндекса, запросы, которым они соответствует, и количество эффективных показов:


Теперь любой сниппет Яндекс можно подвергнуть анализу. Надо понимать, что полное содержание сниппетов трудно контролировать, поскольку текст (описание) роботы поисковых систем зачастую вставляют по своему разумению, то есть тот, который по их мнению является наиболее релевантным.

Однако, это большей частью относится к Яндексу, который чаще всего берет просто фрагменты текста из публикации с вкраплениями ключевых слов. В отношении Гугла все проще, поскольку его поисковая машина забирает обычно текст из описания (дескрипшн), которое вы составляете сами. О возможности влияния на содержание сниппетов подробнее вы можете почитать из материала, который я порекомендовал в самом начале настоящей статьи.

Ранее маркетологи и оптимизаторы сталкивались со значительными трудностями при анализе сниппетов, а это важнейшая часть продвижения вебресурсов. Ведь необходимо знать, по какому запросу нашел пользователь ту или иную страницу, что он лицезрел в качестве содержания snippet и соответствует ли это поставленным целям. Поисковые системы крайне неохотно предоставляют подобную информацию.

После ввода в строй инструмента анализа сниппетов это больше не является проблемой. Кроме того, вы получаете просто колоссальную экономию времени. Ведь данные по сниппетам Яндекса и Гугла появляются спустя считанные минуты после активации онлайн инструмента.

Обратимся вновь к предыдущему скриншоту. После получения результатов в левой колонке будут даны сниппеты Yandex, а в средней первые три запроса (если их больше), по которым они показываются. Ежели теперь щелкнуть по зеленой пиктограмме, то вылезет отдельное окно, в котором будет показана детализация (общее число ПЗ в месяц, позиции по ним и эффективность показов):


В правой колонке отображается сумма эффективных показов в Яндексе по всем запросам для каждого сниппета. Эффективность показов связана с видимостью сайта (которая, в свою очередь, прямо пропорциональна позициям в выдаче):


По аналогии с выше описанными действиями вы анализируете сниппеты Гугл. Зная количество показов по тем или иным ключевикам, вы сможете улучшить оптимизацию нужной страницы, на которую ведет определенный snippet. Для наиболее перспективных запросов есть возможность таким образом удержать посетителя на странице, а для коммерческих ресурсов сохранить покупателя.

При разработке стратегии продвижения в незнакомой тематике часто возникают спорные вопросы – как лучше разбить запросы по посадочным страницам, сколько текста размещать, как его структурировать, какая предельная плотность ключевика допустима и т.д. Лучший способ развеять такие сомнения и решить, как поступить, – проанализировать топовых конкурентов и последовать их примеру. В этом посте я расскажу про три метода экспресс-анализа выдачи, которыми мы пользуемся при необходимости получить данные очень быстро.

Быстрый анализ топа

Когда нужно быстро определить базовые характеристики топовых сайтов, мы пользуемся инструментом . С его помощью можно за несколько секунд получить данные о возрасте, показателях тИЦ, PR, наличии в каталогах и количестве беклинков у топовых конкурентов – и на их основании сделать выводы об уровне конкуренции по запросу:

Анализ семантической разбивки топовых конкурентов

Но у этого инструмента есть еще одна полезная функция, которая очень помогает определиться с разбивкой запросов по продвигаемым страницам .

Пример 1
Представьте, что у вас есть сайт по аренде жилья (квартир и комнат), и вам нужно обязательно продвинуть его в топ по трем основным запросам: “аренда жилья”, “аренда квартир”, “аренда комнат”. Как лучше поступить – оптимизировать под все запросы главную страницу или лучше распределить их? Неправильный выбор в этом вопросе может не только “приклеить” сайт далеко за пределами топа, но и привести к наложению санкций (все знают, что Яндекс не любит страницы, созданные специально под запрос).

Проанализируем поисковую выдачу с помощью инструмента и воспользуемся функцией “подсветить одинаковые страницы”:

Для примера я взяла произвольный сайт и проанализировала его позиции по релевантным запросам. На скриншоте видно, что по всем выбранным запросам, кроме одного, сайт находится в Топ-10. Пиктограммы в колонке справа обозначают виды расширенных сниппетов, которые встречаются в Топ-10 по каждому запросу. Например, по запросу “уборка квартир” быстрые ссылки есть у 3-х сайтов из Топ-10, телефоны – у 4-х. А по запросу “уборка офисов” быстрые ссылки и телефоны в сниппетах встречаются по два раза, адрес – один раз.

Очевидно, что у анализируемого нами сайта расширенных сниппетов нет вообще (смотрим колонку “сниппеты”), в то время как по многим запросам у конкурентов по выдаче они имеются. То есть, в плане оптимизации сниппетов пациенту явно есть к чему стремиться.

Инструменты, описанные в этой статье, разработаны нашими программистами под наши требования. Если у вас есть какие-либо идеи или пожелания по доработкам, пишите мне на [email protected] .

Вкратце о юзабилити

  • изучить, что нужно пользователю
  • убрать все лишнее
  • добавить необходимое
  • оформить наглядно

14.1 Составление матрицы юзабилити

Нужно понять, какие проблемы испытывают пользователи, приходящие на сайт, что на сайте помогает решить эти проблемы, а что мешает.

  • уточнение, какие проблемы пользователи могут решить на каждом шаблоне по матрице
  • уточнение, какие дополнительные проблемы возникают у пользователей
  • описание списка элементов, которые присутствуют на странице
  • изучение опыта успешных проектов в тематике, описание списка элементов, которые присутствуют на страницах у других проектов
  • описание списка элементов, которые необходимы для решения ключевой и дополнительных проблем

14.2 Анализ соответствия содержания входных страниц проблемам пользователей

Анализируя полученные данные, необходимо понять, что убрать, а что добавить на входных страницах.

  • описание списка элементов, которые не нужны для решения проблемы, но присутствуют на странице
  • описание списка элементов, которых нет, но они необходимы для решения проблемы

14.3 Анализ юзабилити ссылок

Правила юзабилити не являются жесткими, профессионалы интерфейсов могут смело нарушать их и делать удобные сайты, но для среднестатистического проекта стоит придерживаться простых правил:

  • ссылки подчеркнуты
  • ссылки не выглядят так же, как текст
  • ссылки, действие которых происходит в том же окне, имеют прерывистое подчеркивание
  • очевидно, что за ссылкой кроется выпадающее меню
  • границы ссылок и кнопок должны быть очевидны
  • ссылка «купить» должна быть кнопкой

14.4 Анализ юзабилити форм регистрации

На странице регистрации / оформления заказа происходят очень большие потери пользователей. Одна из причин – сложность и запутанность регистрации, необходимость предоставления большого количества данных.

  • содержание форм проверяется на валидность
  • запрашиваются только данные, влияющие на возможность выполнения заказа
  • данные сохраняются при перезагрузке страницы
  • капчу можно разгадать с первого раза
  • дополнительные поля вынесены в форму, предлагаемую к заполнению после регистрации
  • автоматическая авторизация сразу после регистрации
  • для некоторых прогрессивных сфер – авторизация через соц. сети

14.5 Проверка текстов на юзабилити

Текст на странице должен быть не только полезным, но и понятно оформленным, иначе его не станут читать.

  • связки «заголовок + абзац»
  • выделение смысловых акцентов через списки, цитаты, заголовки, картинки
  • отступы и верстка по сетке
  • функциональные элементы для решения задач
  • ссылки внутри текста оформлены заметно

14.6 Проверка перелинковки на полезность с т.з. пользователя

  • используются ли механизмы таргетинга при простановке ссылок
  • эффективны ли эти механизмы, какова конверсия внутренних переходов
  • проверка отсутствия т.н. seo-ссылок внутренней перелинковки в подвалах, в спец. разделах, в тексте "аля википедия".

14.7 Анализ конверсии входных страниц и сценариев поведения

Изучение конверсии входных страниц и путей следования пользователей по сайту позволяет сделать полезные выводы о поведенческих факторах.

  • смотрим конверсию по разным запросам, изучаем отличия аудитории
  • ставим эксперименты, проводим А/В тестирование
  • изучаем через метрику видео-записи действий пользователей
  • составляем логические цепочки на основе правой колонки wordstat и здравого смысла: какая информация необходима посетителю для свершения покупки

Часть №15 - Сниппеты


15.1 Парсинг сниппетов по всем запросам Яндекс, Google

Сниппеты оказывают существенное влияние на конверсию сайтов в выдаче. Это подтверждено исследованиями, проводимыми компанией Яндекс.

  • по всем запросам спарсить сниппеты Яндекса и Google (A-Parser)

15.2 Анализ сниппетов в Google

Необходимо выделить и изучить, что каждая часть сниппета формируется корректно:

  • ЧПУ URL
  • отзывы по микроформату hReview
  • заголовок (TITLE, DMOZ, анкор ссылки, текст страницы)
  • указание авторства контента по микроформату hCard
  • содержимое сайтов по микроформатам hProduct и GoodRelations
  • мероприятия по микроформату hCalendar
  • адрес по микроформату hCard
  • хлебные крошки по микроформату Breadcrumb
  • описание (текст страницы, description, описание в каталоге DMOZ)
  • ЧПУ URL
  • регистр букв в домене
  • иконка (файл favicon.ico)
  • заголовок сниппета (title, h1-h6, strong, b, ul, li, Я.каталог, DMOZ, Description)
  • быстрые ссылки (структура, url, переходы по ссылкам)
  • содержимое сайтов (микроразметка hCard, hRecipe, hReview, hProduct)
  • регион (я.адреса, я.каталог)
  • адрес (я.адреса)
  • социальные ссылки (связанные аккаунты в соц. сетях)
  • хлебные крошки (хлебные крошки, ЧПУ)
  • описание (текст страницы, description, яндекс.каталог, анкор-лист)
  • ссылки в описании

Необходимо зафиксировать по каждому пункту, корректно ли формируется сниппет и существуют ли возможности к улучшению.

15.4 Изучение областей, откуда берется описание

Для того, чтобы влиять на содержание описания, необходимо понять, откуда оно берется и по какому алгоритму. Для этого нужно собрать информацию по всем источникам данных, используемых поисковыми системами при формировании сниппетов.

  • Парсинг Description (A-Parser , СайтРепорт)
  • Парсинг Я.каталог, DMOZ (можно вручную)
  • Сбор анкоров (ранее собраны через Я.вебмастер, ahrefs, выгрузки бирж)
  • Парсинг B, STRONG, LI, H1, H2, H3, H4, H5, H6, TITLE (модуль Page Auditor в СайтРепорт)
  • Парсинг текста страниц (A-Parser может собрать сохраненные текстовые копии)
  • Сравнение данных о сниппетах с данными об источниках

Часть №16 - Ссылочная масса


16.1 Получение ссылок из различных источников

  • яндекс.вебмастерс
  • ahrefs, majesticseo, solomono
  • выгрузка с бирж и агрегаторов

16.2 Получение данных о ссылках

Для анализа ссылок необходимо получить данные о всей ссылочной массе.

  • кол-во исходящих ссылок со страницы
  • возраст
  • дата индексации
  • текст ссылки
  • количество входящих ссылок на сайт
  • количество исходящих ссылок с сайта
  • трафик сайта
  • страниц сайта в индексе Яндекс
  • страниц сайта в индексе Google

16.3 Анализ динамики изменения ссылочной массы

Необходимо изучить динамику изменений ссылочной массы

  • MajesticSEO
  • Ahrefs

16.4 Проверка индексации страниц-доноров

  • после покупки – проверка индексации страниц (руками кэш в яндексе, плагин wink)
  • при покупке – изучение индексации похожих страниц сайта, размещенных ранее
Поделиться