Всем привет. Сегодня, по аналогии с прошлой темой, мы будем разбирать софт. Но какой… Пару дней назад я купить протестировать Lite версию программы Serp Parser. Вы уже не однократно слышали о такой, не правда ли? На самом деле бесплатных аналогов тоже хватает, но почему-то это программа к себе притянула. И как оказалось – довольно заслужено. Чуть ниже вы сможете ознакомиться с этой программой, некоторыми её аналогами, а также предлагаю разобрать все плюсы и минусы этого софта.
Итак, что в первую очередь нас интересует, если мы говорим о SERP Parser ? Видимо основная задача, которая нас интересует – это парсинг поизций наших поисковых запросов в поисковиках. Теперь давайте подумаем, какой софт, из бесплатного, может качественно выполнять эти функции? Сразу оговорим, что мы не будем рассматривать программы, которые парсят выдачу только одной поисковой системы, это просто не серьезно. Может кому-то это и может понадобится, но мы же профессионалы, правильно? Ну, первое, что приходит в голову – это Site Auditor. Но здесь есть одно НО… Аудитор не подойдет вам, если вы хотите работать только с одним сайтом. В противном случае вам постоянно нужно будет парсить выдачу заново, заново вбивать ваши ключевики вручную и т.п. В общем очень даже не удобно, в отличии от нашего SERP Parser. В общем, видимо лучше просто сразу описать достоинства этой софтины, чтобы вы просто заметили, что конкурентов у неё нет.
Начнем с интерфейса. Дружественнее некуда. Я уже перебрал немало программ, как платных, так и бесплатных и могу с уверенностью сказать, что для наших целей – для парсинга поисковой выдачи – это лучшее решение. Все-таки удобно , когда все на своем месте и приятно радует глаз. Но это не основное достоинство программы SERP Parser.
При старте программы, вы создаете проект (категорию). В проекте может быть один сайт (в Lite версии) или неограниченное количество сайтов (в PRO версии). Создаете проект, добавляете свой сайт, добавляете свои поисковые запросы (семантику). А теперь очень интересный момент – есть возможность добавления целей
- Цели — это адреса сайтов или конкретных страниц. При анализе поисковой выдачи программа ищет в ней эти адреса, и в соответствии с ними определяет позиции. В большинстве случаев в качестве цели достаточно указать имя домена. Количество целей не ограничено, но опять же в большинстве случаев достаточно одной своей цели плюс по желанию одной или нескольких целей конкурентов.
Другими словами, достаточно добавить урл вашего домена, или урл страницы, если у одной страницы много целевых поисковых запросов. Добавленную цель можно конечно редактировать или даже удалить.
Источники – это конечно наши поисковые системы, в которых мы можем продвигать наш сайт или сайт заказчика. Этот момент лично мне очень понравился, т.к. вы можете проанализировать поисковую выдачу любой страны. И вы будете знать, что видит ваш заказчик, когда ищет свой сайт, другими словами, доволен он или нет.
Поисковые запросы, которые мы добавили в анализ, можно группировать. Это очень удобно, особенно когда общее количество запросов – слишком большое.
Фильтры в SERP Parser
Как видно на рисунке, результаты можно сортировать по выдаче любой из выбранных вами поисковой системы (перед началом парсинга вы ведь выбирали источники – это они и есть). У меня кстати, как ни странно, но Yandex на Украине крайне низко держит мой сайт, для меня это было довольно интересной новостью и соответственно планом для дальнейших действий. Кроме сортировки по позициям, также можно установить фильтр, на показ только тех запросов, которые на данный момент находятся, скажем, на десятой позиции интересующей вас поисковой системы. При нажатии на этот треугольник – будет выпадающий список, в котором уже будет пункт “Свой фильтр” – очень удобная вещь, я, например настраиваю так, чтобы мне показывались запросы, например, выше 10 позиции поисковых систем и ниже 30 – это первые запросы, на которые стоит обратить внимание при дальнейшем продвижении. По ним осталось чуть-чуть работы и все будет хорошо. А потом можно изменить фильтр и показывать запросы, скажем от 50 места в ПС, и браться за них основательно.
Такая система фильтров может помочь вам оптимизировать ваше семантическое ядро и правильно выбрать запросы для максимально эффективного продвижения.
Отчеты SERP Parser
В программе SERP Parser также есть очень удобные возможности работы с отчетами. Просто на любой вкус. Я кстати, больше нигде не видел, чтобы отчет составлял в процентном соотношении количество ваших запросов и количество вошедших в нужный вам ТОП.
Вот такой отчет я получил после проверки моего СЯ. Оказывается, что в ТОП-3 находится в среднем порядка 30% моих запросов – это хорошо, однако это значит что не все запросы релевантные, потому что в противном случае посещаемость блога была бы значительно больше. Также мы видим, что в ТОП-100 входит максимум 96% запросов, а это значит, что не все запросы входят в ТОП-100 – это также дополнительная информация к размышлению и руководство к действию.
Также в SERP Parser есть возможность построить отчеты по датам или по дням и понять в какие дни какой запрос максимально эффективен. Есть возможность импортировать статистику из Liveinternet, Google Analytics или Яндекс.Метрика. Это позволит вам наглядно смотреть ,какие запросы приносят вам максимальное количество пользователей. До этой программы я занимался таким анализом вручную с помощью сервиса Liveinternet, я про него кстати, как-то писал в статье Статистика сайта Liveinternet. В той статей я подробно старался расписать как и зачем нужно использовать этот сервис. Однако теперь, после покупки SERP Parser мне это уже не понадобится.
Настройки SERP Parser
Вот в принципе и все, с большего, что нужно знать про нашу программку. Стоит сказать также, что эта программа в принципе не нуждается в дополнительных настройках. Однако она может похвастать таковыми, например можно настроить многопоточность парсинга, если у вас мощный компьютер и широкий канал – вам это как раз пригодиться. Также если вы производите парсинг ключевых запросов в промышленных масштабах и вы для этого приобрели PRO версию SERP Parser, вам пригодится опция настройки прокси-серверов. Я также отметил, что есть возможность подключить сервис antigate , для того, чтобы самому не возиться со вводом капчи. Особенно если это касается промышленных масштабов парсинга. Есть также возможность настройки тайм-аутов поисковиков, чтобы не тратить своё время на ненужные ожидания. Ну и некоторые другие настройки, например звуки при каких-то событиях и др.
Вот в принципе и все. Какой вердикт? Программа SERP Parser – оптимальный выбор, если вам надоело постоянно искать удобные бесплатные аналоги. Бесплатные есть – не спорю. Удобные – врядли. Есть такие, которые кажутся удобными первое время, а потом ими уже не хочется пользоваться. Этой же программой хочется пользоваться еще и еще. Вот как-то так. Теперь хочу откланяться и сообщить, что в ближайшем будущем я проведу конкурс как раз для новичков, поэтому не забывайте подписываться на мою RSS Ленту, ваш hooka-mimi.ru
Понравилось? Расскажи друзьям: