SEO аналитика для «чайников»

Работа по оптимизации – это анализ информации, прежде всего, о запросах, показах, кликах и прочем. Для многих оптимизаторов характерно заимствование метрик, без осмысления сути данных. Простота и быстрота такого подхода неоспорима. Однако такая тактика малоэффективна. Ведь использование минимального инструментария лишает оптимизатора массы полезных выводов. Любая аналитика предполагает два этапа: сначала происходит сбор данных, а затем их анализ. Кстати анализ не обходится без сортировки и классификации. Если Вы работаете в солидной компании, где сбор данных ведет целая команда, то это здорово. В противном случае Вам следует знать о существовании простых и доступных инструментах, которые описаны ниже:

Структурированные данные из веб-контента можно извлекать с помощью концентратора OutWit. Это чрезвычайно удобный плагин к FireFox. Он способен к самостоятельному зондированию сети и извлечению данных, но может делать это также по заданному шаблону. Концентратор OutWit зондирует сеть, автоматически собирая и организовывая данные и носители из источников. Он разбивает Веб-страницы на различные составляющие. Перемещаясь от страницы, к странице он автоматически извлекает информацию в виде элементов, организуя их в наборы удобные для применения.

Версия Outwit Pro обойдется в 30 долларов, но позволит писать процессы и макросы. Она отработает эту цену, оправдав затраты. Можно попробовать и бесплатную Light-версию, чтобы убедится в полезности платной.

Повысить эффективность поискового продвижения можно с Google Analytics, предоставляющей множество возможностей для этого. К самым очевидным и штатным возможностям относятся:

Возможность оценить стоимость конверсии в срезах по запросам и источникам трафика, что позволит сконцентрировать внимание на реально полезных запросах, оставив без внимания конкурентные, но малоэффективные.

Оптимальные точки приложения усилий оптимизатора можно выявить другим способом. Для этого используется выгрузка ключевых слов, с зафиксированными по ним переходами из органического поиска и последующей проверкой их частотностей и текущих позиций сайта. Массовая обработка ключевых слов, хотя и на «коленке» возможна с Key Collector.
Максимальный объем csv-файла при выгрузке ключевиков из Google Analytics ограничивается 500-ми запросами. Существует два способа сокращения рутины:

Можно добавить параметр &limit=50000 к url при построении отчета в Google Analytics. Это приведет к расширению выгрузки по ссылке «csv» до 50000 запросов.
Google Analytics наделен API, с помощью которых можно получать данные. Ниже приведены примеры приложений, с выгрузкой информации прямо в Excel.

Один из любопытных инструментов для решения небольших задач по автоматическому сбору и обработке данных – это Yahoo Pipes. Если, например, необходимо на Searchengines.ru отслеживать посты, которые пишут авторитетные SEO-специалисты, то Yahoo Pipes сделает это запросто. Надо взять RSS-фид и отфильтровать его по полю «автор». Результат будет иметь вид RSS-фида или уведомлений от Yahoo Alerts. Этот пример демонстрирует насколько это просто и удобно.

Необходимо сказать пару слов и о регулярных выражениях. Для SEO-специалистов без опыта веб-разработки или программирования это может стать серьезным «белым пятном». Компактная и чрезвычайно мощная процедура поиска и замены в текстах – суть регулярных выражений. Есть несколько реализаций этого сценария, но суть идеи неизменна. Использование регулярных выражений доступно многим продвинутым текстовым редакторам, например, textpad, pspad. Это свойство трудно переоценить.

Понятно, что собрать данные это часть задачи. Их еще нужно хранить в форме, которая удобна для обработки. Легкодоступной формой для этого может служить Excel, если объем данных небольшой. Excel имеет стандартный набор фильтров и сортировок. Есть у него и функции «суммесли», «счетесли», «впр». Возможно применение табличных формул, например, формул массива. Всего этого может быть использовано для того, чтобы закрыть основные потребности оптимизатора в выборке данных. При работе с большими массивами данных следует пользоваться базами данных — MySQL, PostgreSQL и другими. SQL достаточно эффективен и несложен.