FL.ru – фриланс сайт удаленной работы №1. Поиск удаленной работы, фрилансеры.

Мой очередной помощник – суперская Яндо- и Гуглодерка – Key Collector

Key CollectorНе помню где, но в одном из блогов видел предложение. Человек предлагал подобрать эффективные низкочастотники для продвижения блога. Цена — $100. Офигеть! Было бы за что. Короче, я раньше для подбора низкочастотников пользовался программой Traffic Web.

Еще когда-то при Ленине еще, наверное, получил ее за обзор в блоге :) С тех пор немало воды утекло. Программа как бы и не потеряла своей актуальности, только вот с поддержкой проекта как-то слабовато

Так вот, я давно уже знал, что есть такая Key Collector, автор которой – Саша Люстик – известный в seo кругах человек. Про программу то я знал, но почему-то думал, что у Traffic Web нет аналогов. Во всяком случае, мне о них не было известно. И вот читаю я как-то его пост Key Collector 2.1: упрощаем продвижение низкочастотных запросов. И тут до меня доходит, что программа то может выполнять те же функции по словодерке из поисковиков, как и Traffic Web + еще помимо этого дофига всяких дополнительных возможностей.

В итоге решил, что нужно и себе такую программу приобрести. После того, как это случилось, погонял немного Key Collector, и сегодня расскажу про одну из возможностей, которые она предоставляет. А заодно и покажу, как можно надергать ключевых слов для своего блога, которые в последующем при небольших телодвижениях позволят существенно увеличить трафик на блоге, сайте, форуме – где угодно

Key Collector

В этой панели, которую я обозначил выше, есть все необходимые инструменты. Перечислю:

1. Пакетный парсинг Yandex.Wordstat

2. Парсинг правой + левой колонки Yandex.Wordstat для имеющихся ключевых фраз

3. Пакетный парсинг слов из статистики Liveinternet

4. Пакетный парсинг Rambler Adstat

5. Пакетный сбор подсказок поисковых систем

6. Сбор статистики Yandex.Metrika

7. Парсинг частотностей Yandex.Wordstat для имеющихся ключевых фраз

8. Парсинг сезонности Yandex.Wordstat для имеющихся ключевых фраз

9. Парсинг статистики Liveinternet для имеющихся клювых фраз

10. Сбор статистики Rambler Adstat для имеющихся ключевых фраз

11. Проверка корректности порядка слов на основании данных поисковых подсказок

12. Сбор статистики WebEffector для имеющихся ключевых фраз

13. Сбор статистики SeoPult для имеющихся ключевых фраз

14. Сбор статистики Rookee для имеющихся ключевых фраз

15. Сбор статистики MegaIndex для имеющихся ключевых фраз

16. Функция расчета бюджета по агрегаторам для имеющихся ключевых фраз

17. Сбор данных из социальной сети ВКонтакте для имеющихся ключевых фраз

18. Расчет значения KEI (Keyword Effectiveness Index) для имеющихся ключевых фраз

19. Сбор статистики Yandex.Direct

20. Cбор статистики Бегун для имеющихся ключевых фраз

21. Сбор всех данных для отмеченных ключевых фраз

Некоторые из этих функций нуждаются в дополнительном пояснении. В общем, наверняка всем все понятно, кроме 17 и 18 пунктов, т.е. сбор данных из ВКонтакте и расчет значения KEI.




ВКонтакте – когда включаем эту функцию, то прога парсит эту социальную сеть. Анализируется аудитория по интересующим нас ключевым словам. Если быть точнее, то не просто аудитория, а количество нужной нам тематической аудитории. В общем, это для тех, кто рассматривает ВКонтакте как площадку для рекламы. Разумеется, нужно иметь аккаунты ВКонтакте, которые не жалко будет потерять. В смысле, с которых будет вестись парсинг. Поэтому задача простая – регнуть пару аков на ВК чисто под это дело. Если не знаете, как решить смс-ный вопрос, идите на античат. Там найдете нужных людей.

Жаль только одного, что нельзя отсеивать ботов. То есть, в результате парсинга ВКонтакте мы получим одну цифру, например, 16 000 человек, а на самом деле живых из этих 16 к. будет только пару тысяч. Но поскольку сегодня порой даже вручную фиг можно определить, бот или не бот, то проще полученную цифру разделить где-нибудь на 3 для более-менее правдоподобной картины

Расчет значения KEI – вообще этот показатель является спорным, если честно. Формула подсчета эффективности в данный момент базируется на основе запросов и конкуренции по Яндексу. В общем, я этой функцией не пользовался сам, если честно. Но вообще идея неплохая. Подробности данного эксперимента с созданием формулы оценки эффективности ключевых слов можно почитать в статье Keyword Effectiveness Index – актуально ли?

Из плюсов также отмечу возможность парсить правую колонку Yandex.Wordstat для имеющихся ключевых фраз. Это тоже здорово

В общем, возможностей у программы масса. А сейчас я покажу, как подбирать низкочастотники и микрозапросы для своего сайта. Причем, запросы, которые не будут являться пустышками. Ну, гоу!

Так, перед началом четко обрисую цель, чтобы было понятно. Моя цель – собрать ключевые слова с нужной мне частотностью, которые уже занимают определенные позиции в поисковиках, и по которым уже приходили на мой блог. То есть, слова не должны быть пустышками

Собираем ключевые слова, подбираем релевантные страницы, снимаем позиции:

1. Для начала – и это самое главное, мне понадобятся аккаунты в Яндексе, валидные, смс подтвержденные, все как положено, для того, чтобы парсить Яндекс с помощью XML. Причем, аккаунтов таких нужно штук 10-15. Это так, для самых скромных нужд

2. Теперь мне нужно указать регионы для Яндекса. Там можно указать целиком Россию, а можно отдельные регионы, СНГ и Европу. Я тут прикинул – основная моя аудитория – москвичи и питерчане. Это процентов на 70. Следовательно, ориентир имеет смысл брать где-то на центр. Поэтому лично я всегда делаю парсинг Московской выдачи, выдачи Московской области, Питера + Беларуси + Украины. Этого хватает выше крыши

Key Collector

3. Теперь несколько технических моментов. Нужно указать ключ антикапчи (Antigate), чтобы не вводить ее ручками (не актуально для XML запросов в Яндексе) + нужно указать диапазон частот. То есть, мне нужно, чтобы Key Collector вытягивал только ключевые слова с частотностью, например, от 20 до 100

Key Collector

То есть, самые что ни есть низкочастотники. И плюс я указываю, чтобы в последующем при парсинге релевантных страниц по Яндексу все ключевые слова обрабатывались с помощью оператора « », что означает то, что мы в результате получим более точные данные по интересующим нас ключевым словам

Key Collector

4. Парсинг с помощью XML-запросов можно вести с одного IP, поэтому на этом не заморачиваюсь, и указываю, чтобы везде использовался основной IP адрес кроме одной настройки

Key Collector

5. Все, теперь организационные моменты решены. Можно начинать парсинг

Key Collector

Key Collector

Да, небольшое уточнение для всех, кто будет пользоваться Key Collector. В качестве логина нужно указывать домен, но без http://, то есть голый домен, и все

6. В результате парсинга я получаю список ключевых слов. У меня таких по заданным критериям получилось 8905

Key Collector

7. Теперь я копирую все эти ключевые слова во вкладку «Релевантные страницы». Мне нужно получить список релевантных страниц для всех найденных ключевиков. Запустил парсинг релевантных страниц по Яндексу. Получил для всех своих 8905 ключевиков список страниц

Key Collector

8. Такс, теперь заключительная фаза. Мне нужно посмотреть, какие позиции занимают полученные мною ключевые слова. Ну, например, если слово с частотностью, например, 50, занимает 12 позицию в Яндексе, то ведь мне не составит больших усилий подпихнуть его в топ, верно? Короче, мне нужны данные по частотности!

9. Копирую данные из вкладки «Релевантные страницы» во вкладку «Съем позиций», и запускаю парсинг позиций для имеющихся ключевых слов в Яндексе. Да, я тут везде только для Яндекса снимаю данные. Но это так, для примера. На самом деле можно снимать и для Яндекса, и для Гугла. В последнее время мне Mail стал трафика давать немного, да и не только мне, а многим, поэтому в будущем в программе Key Collector, возможно, имело бы смысл прикрутить возможность парсинга позиции в Mail.ru. Да, обратите внимание на данные в позиции, которые я выделил кружочком (-1). Это означает, что данное ключевое слово находится вне указанного мною диапазона

Key Collector

10. Теперь мне нужно отфильтровать все нужное от ненужного. В общем, я хочу, чтобы у меня остались только ключевые слова, которые занимают позиции в Яндексе в диапазоне от 7 до 20. Ну, например, смысла вытягивать ключи, занимающие 1 или 2 место в серпе, имхо, нет. Итак неплохо. А нужно увидеть все ключевики, которым нужно помочь. То есть, как раз примерно вот этот диапазон где-то от 7 до 20 позиции. То есть, мне нужно выкинуть из полученных данных ключевые слова, которые не попадют в диапазон от 7 до 20.

Фильтры используются только для определенных столбцов. Вот с помощью этой кнопки можно вызвать фильтр:

Key Collector

Я составляю фильтр со следующими условиями:

Key Collector

Теперь нажал ОК, и у меня появятся все ключевые слова, которые будут находиться ниже 7-й позиции. Я удалю их, после чего то же самое проделаю, только уже с фильтром «больше 20» и удалю все ключевики, которые находятся на позиции выше 20-й. В результате у меня останутся только ключевые слова в диапазоне от 7-й до 20-й позиции, с которыми можно поступить: 1. Либо экспортировать в Excel файл 2. Либо экспортировать данные для последующей загрузки этих ключевиков в Sape или Mainlink

Key Collector

Как делается экспорт можно почитать здесь. Кстати, да. Жаль, конечно, что нет возможности делать экспорт для Seopult, или, например, Webeffector. Одной сапы и майнлинка маловато будет. Но в целом, хорошо хоть сапа есть. Все равно большинство оптимизаторов продолжают пользоваться именно ей.

Что делать с полученными ключевыми словами, вы наверняка знаете. Прикупаем ссылки с нужными анкорами, и через какое-то время радуемся росту целевого трафика на наш сайт. Правда, если двигать вечными ссылками, то придется ручками выбирать что-то более-менее подходящее. Кстати, это я анализировал сайт, где уже есть определенное количество страниц в индексе ПС и трафик. Но использовать Key Collector можно и для составления семантического ядра, поэтому, как видите, вариантов применения программы – масса. А вообще советую читать seom.info. Он там часто пишет про Key Collector. Поэтому за новыми идейками по использованию софта обращайтесь к нему




  • Сколько в среднем покупаете ссылок для вытягивания таких запросов скажем в ТОП 5?

  • Одной вполне достаточно

  • Сергей, а сколько стоит эта программулина? Скидки есть?

  • 35 баксов. Насчет скидок не знаю, это к Люстику обращайся

  • Любопытная програмулина.

  • Сдается мне, что при такой частотности можно и просто внутренней оптимизацией обойтись.

  • А если таких НЧ штук 300-1000, то как ты себе это представляешь? 🙂

Подпишитесь на рассылку блога
max1net.com:
Уже подписались человек
Укажите свой e-mail