FL.ru – фриланс сайт удаленной работы №1. Поиск удаленной работы, фрилансеры.

Программа для определения веса сайта Page Weight в новом обличье. Стартанула онлайн версия

Я знаю Сергея Анисимова (на фото), автора данной программы, достаточно давно. Это человек чисто технического плана, человек мыслящий. Искренне уважаю Сергея, поэтому рад, что его идеи находят поддержку, и его детище – Page Weight не только живет, но и развивается.

Я про эту программу писал еще в прошлом году – Программа для определения веса внутренних страниц сайта – PageWeight. С тех пор как-то особо новостей не было с их фронта, хотя сама программа регулярно обновлялась. Сейчас вот стартанул новый проект – Page Weight Online. Это онлайн версия программы с небольшой доработкой.

Для тех, кому лень читать ту статью с прошлого года (хотя она еще актуальна), я напомню, что программа Page Weight – это софт, предназначенный для определения статического веса страниц сайта по стандартной технологии расчета Page Rank. С помощью программы можно определить вес любой страницы сайта, найти битые ссылки, ошибки и несколько других фишек.

Здесь вообще кто на что горазд. Но я сейчас покажу, как можно использовать программу для наших наболевших тем, т.е. для чистки доноров в GoGetLinks.

Фильтры в ГГЛ для отбора площадок у меня, как правило, не сильно хитрые (см. Правильная покупка ссылок в бирже вечных ссылок GoGetLinks). Можно сказать, что классические:

  • ТИЦ > 10
  • PR > 1
  • Тип ссылки – заметка
  • Язык – русский
  • Индексация – 100%
  • Игнорировать площадки, от которых были отказы
  • Игнорировать площадки, участвующие в автобиржах
  • Стоимость ссылок не указываю, оцениваю визуально

Вот, собственно, и весь фильтр. Все остальное я оцениваю визуально.

Но вот давайте попробуем включить моск

Я иду в ГГЛ, беру первый попавшийся сайт из категории «подороже». Сам урл сайта палить не буду, дабы не обидеть вебмастера, да по сути это ни на что и не влияет. Но характеристики сайта следующие:

  • Тематика сайта – грузоперевозки
  • ТИЦ=220
  • PR=2
  • Сайт присутствует в ЯК и DMOZ
  • В индексе Google ~3700 страниц
  • В индексе Яндекса ~3600 страниц
  • По Solomono ~358 доноров

Это если сильно не копать, то вот такие показатели. Так вот, захожу на сайт. Прежде всего, меня интересует раздел, в котором вебмастер размещает покупные ссылки на этом сайте. Некоторые размещают в основных разделах, но таких вебмастеров очень мало. В основном, размещают в специальных каталогах, созданных под статьи с продажными ссылками. Я такой раздел нахожу практически сразу

Page Weight Online

Захожу в этот раздел

Page Weight Online

А потом перехожу в первую попавшуюся статью, чтобы глянуть, не обманулся ли я :)

Page Weight Online

Короче, сразу видно, что именно здесь та клоака, в которой размещаются статьи с продажными ссылками. Единственное, в чем молодец владелец этого сайта, что хотя бы размещает тематические статьи, а не все подряд. Но это в основном. Немного забегая вперед, скажу, что когда я позже копнул глубже, то оказалось, что не все так здорово, но в целом сайт грамотный. Ну во всяком случае, по сравнению с некоторыми другими экземплярами.

А теперь немного теории. Не будем скрывать, что все мы хочем покупать ссылки с сайтов, у которых большой ТИЦ. Ну как-то так уже повелось, что если большой ТИЦ, то сайт считается нормальным, и значит с него можно покупать ссылки.

То есть, по сути, наша задача при покупке ссылок – получить со страниц сайтов-доноров максимальный вес, чтобы к нам перетекло как можно больше ТИЦа. Так вот. Если в цифрах, то эффект от страницы-донора будет равняться весу страницы, поделенному на количество ссылок на странице, включая внутренние.

Теперь я иду в Page Weight Online, и снимаю данные для этого сайта. Получается следующая картина

Page Weight Online

Здесь, в основном, нет продажных статей. Просто посмотрите, какая разница в весе у главной, и у второстепенных страниц. Немалая. Но это еще не все. Те страницы, которые они реально прокачивают, еще жирнее в плане ссылочного веса. Смотрите

Page Weight Online

Вот здесь уже страницы реально прокачивают. Посмотрите, в блоке, отмеченном цифрой 1, максимальный вес страницы сайта – 43.6771846490, входящих ссылок (блок 2) – тоже от нескольких тысяч, правда, и исходящих много.

Ну, а теперь глянем, сколько веса попадает на те страницы, с которых идет продажа ссылок в ГГЛ

Page Weight Online

Вот, реальная картина. Причем, вы не смотрите верхние страницы, они уже не существующие. А смотрите где-нибудь посередине. Смотрите. Сколько нулей после запятой? Семь! То есть, получается, одна десятимиллионная. И посмотрите, сколько входящих ссылок на эти страницы. Ну практически везде по одной ссылке. Все правильно, потому что структура доноров типична. С главной идет ссылка на каталог, а с каталога уже непосредственно на статьи. То есть, получается второй уровень вложенности. Да, и посмотрите еще сколько исходящих со страницы: везде по 23.

Я решил еще интереса ради посмотреть, что за внутренние ссылки там стоят в количестве 23 штук

Page Weight Online

Вот раз. Обычный такой блок, в котором выводится список похожих статей. И еще в футере две ссылки. Тут они конкретно так прокачивают две страницы, которые имеют вес каждая по 33 с копейками единицы

Page Weight Online

Так вот, теперь давайте подумаем. Главные страницы этого сайта имеют вес по 43 единицы. А те страницы, на которых размещаются продажные ссылки из GGL, имеют весь по одной десятимилионной. И получается, что даже если ТИЦ сайта равен где-нибудь 500, то сколько веса получает та страница, на которой размещается продажная ссылки, и сколько ТИЦа по ней перетекает? Ну если так условно. А перетекает получается, что фиг да ни фига. Вот и выходит, что в большинстве случаев покупаем ссылки с сайтов-пустышек, с прокачанным под продажу ссылок ТИЦем.

И, грубо гря, такой же вес мог нам перелиться с сайтов, где нет большого ТИЦ, но зато вес страниц, с которых мы покупаем ссылки, будет значительно больше.

Ведь то что ссылки внутренние, это ведь не означает, что по ним вес не переливается. Поэтому я и не люблю, когда в Гогете поставишь лимит внутренних ссылок по-максимуму – 7, а тебе еще пишут, типа поднимите где-нибудь до 10, потому что внутренних много. Да, например, на http://max1net.com/ у меня тоже много внутренних. Но только разница в том, что я создал блог не под продажу ссылок, поэтому мне количество внутренних не так важно, как для барыг, торгующих ссылками.

А если еще немного поразмыслить, то получается и вообще удручающая картина. Например, как в Миралинкс, где я (оптимизатор) предоставляю вебмастеру статью, он ее размещает на своем сайте, из статьи только две, а то и вовсе одна внешняя ссылка, и дохренище внутренних. В итоге на мой сайт, на который стоят ссылки из статьи, перетекает минимум веса, а еще больше этого веса растекается по внутренним ссылкам. И в итоге получается, что я плачу вебмастеру бабло, предоставляю ему контент, а он за мои бабки еще и прокачивает свой сайт. И получается на выходе, что с одной стороны – я как оптимизатор получаю огромное количество фактически бесполезных ссылок (о чем говорилось на круглом столе Яндекса), а вебмастер получает бабло и бесплатный контент (если речь идет о Миралинкс и прочих биржах размещения статей).

То есть, по идее, сайты вебмастеров, продающих ссылки, должны офигенно подыматься в посещалке, но в реальности мы этого не видим. А все потому, что барыги выжимают из загнанных в GGL сайтов все соки, а наполнять их по-настоящему полезным контентом и прокачивать хорошими ссылками не хотят, потому что впадлу, и денег жалко. У них задача стоит как можно быстрее выжать из сайта все что только можно.

А ты, когда прешь в Гогу, и хочешь купить нормальных ссылок, получаешь в качестве предложения кучу барахла с заоблачными ценами и смутной перспективой. А еще одна проблема в том, что я покупаю вроде как вечные ссылки.

Ссылка с сайта про грузоперевозки, который я рассматривал выше, стоит 325 рублей. Я забежал по-быстрому в articles.sape (см. Продвижение сайта статьями с помощью биржи статей Sape. Описание работы системы, раскрутка сайта с помощью Articles.Sape.ru) и посмотрел, что там по ценам. Так вот, нашел первый попавшийся сайт. Характеристики его такие:




  • В индексе Яндекса – 219000 страниц
  • В индексе Google – 223000 страниц
  • ТИЦ=450
  • PR главной – 4
  • Стоимость размещения на внутренней странице — 7,70 рублей

Теперь прикинем. Цена за ссылку на строительном сайте из GoGetLinks равна 325 рублей. Это типа вечная ссылка. Цена за месяц размещения ссылки на сайте из Articles.sape – 7,70 рублей. То есть, за 325 рублей я могу разместиться на сайте из сапы примерно на 42 месяца. То есть, на три с половиной года.

За три с половиной года сайт из Гогета с той интенсивностью, с которой вебмастера сегодня выжимают из них все соки, может хоть и не помереть, но превратиться в такое откровенное УГ, что и подумать страшно. И на то время толку с такой ссылки будет ноль. А размещая ссылки через ту же сапу можно все время держать руку на пульсе событий. С говноплощадок снимать ссылки, с нормальных площадок покупать. А за эти три с половиной года у вас может и вовсе произойти полная переориентация бизнеса. Ну мало ли что.

Поэтому я сегодня не то чтобы забил на вечные ссылки (см. Какие ссылки покупать: вечные или временные?), но просто стараюсь брать уже в определенной пропорции. Часть вечных, часть временных ссылок.

Возвращаясь к программе Page Weight Online, о которой, собственно, и шла изначально речь. Думаю, вы поняли, что с её помощью можно отбирать и нормальные сайты, и нормальные жирные страницы, с которых и покупать ссылки.

У меня даже было возникла хорошая мысль предложить автору проги – Сергею, идею, чтобы парсить сайты из базы GGL, обрабатывать их, рассчитывать веса страниц, и предоставлять в итоге список из лучших сайтов и лучших страниц, но потом хорошо подумав, и проконсультировавшись с Сергеем, понял, что это технически очень затратно.

Например, парсинг этого строительного сайта мне обошелся в 63 рубля

Page Weight Online

Поэтому парсить большие базы сайтов-многотысячников нереально даже хотя бы потому, что это очень дорого.

Поэтому, применение программы Page Weight Online вижу такое?

  • Анализ собственного сайта, выявление типичных ошибок, битых ссылок и т.д. (это программа умеет делать)
  • Анализ сайтов, на которых мы собираемся покупать ссылки. Можно просканировать нужный нам сайт, а потом попросить его владельца разместить ссылку на самой жирной странице
  • Анализ чужих сайтов исключительно в аналитических целях. Например, очень познавательно когда-то написа́л Маул с примером, как сайт успешно переливает вес внутри самого себя. Вот на таких примерах с использованием специального софта, в том числе и Page Weight Online можно черпать хорошие идеи для продвижения собственных сайтов, и также успешно их реализовывать на практике
  • Другие ваши самые извращенные мысли по поводу применения программы

Ну вот, пожалуй, и все на сегодня. Да, в прошлом посте про вторую часть круглого стола с участием Яндекса я рассказал, что на ютубе открылся новый канал, где пацаны переводят пятничные обзоры с сервиса SEOmoz. Пока у них все регулярно обновляется, и вышел выпуск — Рэнд Фишкин (SEOmoz) о стратегии продвижения нового сайта. Рэнд Фишкин быстро объясняет, прикольно даже, но в целом достаточно интересно




  • Давно проверяю страницы доноров (жирных) перед покупкой. Это экономит средства, повышая отдача, но, тем не менее, приходиться тратить немало времени…

  • Да, анализировать нужно выборочно. Это точно

  • Спасибо. Очень было интересно ознакомиться с выкладками. Заставляет задуматься.

  • Спасибо, что поделился мыслями. Но вот в качестве сферы применения ничего кроме ковыряния собственного сайта так и не придумаю. Чужие сайты ковырять и вправду долго… Да и от вечных отказываться совсем уж смешно. На пальцах выходит что вроде как да — действительно веса дают понты, но, во-первых, это лишь алгоритм передачи PR, что не является доказанным синонимом алгоритма передачи веса ссылки, который учитывается в ранжировании, а во-вторых, на практике сайты ими двигаются в ТОП в любой тематике вполне осязаемо с каждым АПом. Поэтому программа-программой, а опыт говорит пока в подавляющую пользу целесообразности покупки вечных в ГГЛ и на трастовых сайтах.

  • Направление мысли правильное, нужно копать в эту сторону, но пока такие меры не нужны. Нужно проверять доноров в ГГЛ в сервисе xtool.ru, там показывает трастовость домена, заспамлен ли домен, и соотношение входящих и исходящих ссылок.

    Ну и кроме того нужно ставить жесткое условие, чтобы ссылки размещались в основной ленте сайта. Если сайт жирный, то можно принебречь этим правилом, а так лучше брать ссылки, которые будут на главной.

    Правда тут один нюанс, жирных сайтов которые транслируют ссылки на главной очень мало, на главную выводят ссылки площадки и с Тиц 10-40 созданные под ГГЛ. Сайты без трафика с кучей не тематических статей и ссылок.

    Можно брать ссылки в блогуне, там блоги хоть и заспамлены, но ссылка транслируется на главной.

    В обще нужно искать золотую середину )))

  • В общем, ты тоже все правильно говоришь. Анализировать кучи сайтов нереально, по одному тоже волокиты много. Просто когда нужно проанализировать какой-нибудь сайт на предмет удачного распределения веса, то тогда я лучшего средства для этих целей не знаю. Что касается Гоги, то я там давно уже стараюсь дешевое УГ не покупать. Но нормальные сайты ломят за одну заметку от ~350 рубасов и выше. Так что тут если речь идет о прокачке хотя бы 100 анкоров, то это уже серьезная сумма получается

  • Про xtool.ru не знал. В целом немного подозрительно отношусь к подобным конторам. Но идея правильная. Если быстро прикинуть соотношение входящих/исходящих ссылок, то это уже какая полезная информация будет, чтобы сделать предварительный вывод о качестве домена. 

    Про Блогун я вообще уже забыл, когда там что-то покупал. Если реферальные накапают, то бывает раз в полгода зайду прикупить ради экзотики пару ссылок с ЖЖ, хотя изначально знаю, что толку с них не будет, ибо они будут неизбежно забанены. Про нормальную затарку в Блогуне я вообще молчу.

    Золотая середина… Мда… -))

  • А я вот знал, но забыл. А сейчас вновь обратился и вижу, что действительно полезнейший инструмент. На сайтах со значением траста xt ниже 5 ссылки покупать не стоит. Теперь есть четкий ориентир.

  • Anokaliptik-у, они, наверное, заплатили деньгу за пиар их сервиса у меня в блоге -) Это такой новый вид платных мини-обзоров в комментах с целью подогреть интерес к сервису 🙂 Признавайся, ты походу с ним заодно

  • Ну, раз пошла речь о Page Weight стоит сказать, что это программа не бесплатная, а ту у меня уже создалось неправильно впечатление, Lite версия стоит сейчас 600 руб., да и online-сервис тоже как бы не на шару. Обработка одного сайта обойдётся в 11.90 руб. по крайней мере мне выставило такой счёт.  В общем, лучше всё это использовать если действительно плотно заниматься SEO. Деньги конечно небольшие, но тем не менее (имхо).

  • Это не реклама. Чтоб я начал в коментах гадить у товарищей блоггеров? Рад что это шутка, а не серьезно ).

    От куда берется показатель траста я не в курсе, но прикидывал что в общем где-то похоже на правду. Ну и самое главное соотношение исходящих и входящих ссылок.

    Тут собственно не важно какой метод, главное чтобы он приносил плод. За этот сервис на 100% не ручаюсь т.к. пока только раз закуплся ссылками с его помощью, а какой будет результат, посмотрим.

  • Сервису уже года 2. Я его давно знаю, раньше натыкался неоднократно, правда, всерьез не воспринимал. А сейчас вот вижу, что действительно похоже на правду. Показатели весьма объективны и вполне подойдет для скоростной проверки. Только что спецом закинул бакс и прочекал 150 сайтов на xt. Список ГСов через 3 мин. перед глазами. Удобно, быстро, практично. Буду юзать для своих нужд и для ГГЛ в т.ч.

  • Я сейчас хочу затариться ссылками немного по другой методике. Об этом еще напишу потом, потому что сейчас пока еще ищу на фрилансе программиста, который напишет нужный мне скрипт. Ну а в целом убедил ты меня, попробую тоже этот сервис, сейчас такая необходимость в чистке доноров у меня есть

  • Вот несколько странная ситуация складывается в комментариях.
    Проверенному и отработанному алгоритму Page Rank мало кто доверяет, а
    вот xtool — ну прям нано-технологии 🙂

    Собственно я не пытаюсь защитить свое детище, или опошлить чужое. Но
    просто задумайтесь, какими данными оперирует xtool? 🙂 Или найдите ответ
    на этот вопрос на сайте сервиса. Малость намекну: может ли донор
    считаться хорошим, если по кускам текста страницы он в топе? 🙂 Про
    остальные линейки пузомерок промолчу.

    Про модное слово «траст». Кто скажет. что это такое? Только не надо про
    «степень доверия к сайту». Это мифотворчество. Есть trust rank, которые
    является поправочным коэффициентом в Page rank, и принимает значения от 0
    до 1. Как он считается — материал открытый, погуглите 🙂

    Есть Browse rank. В отличие от Page rank, который является вероятностной
    моделью поведения пользователя, Brause Rank является фактической
    моделью. Т.е. отслеживаются переходы по ссылкам, и по обучающим выборкам
    далее строятся такие же вероятностные модели.

    Все кричат, что PR устарел и не работает. Да вот хренушки. Все, что
    делается сейчас — те же яйца, вид сбоку. Просто задумайтесь на секунду,
    перейдет ли пользователь по ссылке на странице, если на эту страницу он
    может попасть по одной единственной ссылке?

    Закруглюсь пожалуй, а то вместо коммента статья получится 🙂

    А Page Wight, как тут правильно заметили, действительно представляет
    интерес для специалистов. Большинство «сеошников» только слышали модное
    слово «перелинковка», а что с ней делать — понятия не имеют. Проще
    xtoolом x-trast померить 🙂 Просто и понятно. Главное уметь считать до
    десяти 😉

  • В качестве основных недостатков гоговских ссылок вы приводите то, что у них вес маленький. А маленький он потому что много внутренних ссылок. Только вот всякие там менюшки, сайдбары и прочие «последние записи» — это сквозняки, и учитываются поисковиками совершенно не так, как это считает Pageweight (пруфы не сложно найти, да и простой здравый смысл подсказывает то же самое). Я пользую Linkoscop, там сквозняки можно отсеять, правда они пока что там криво отсеиваются, но это дело поправимое. Кстати у Линкоскопа есть 5-дневный триальный период, вообще одна из лучших прог из того, что я видел за последнее время.

Подпишитесь на рассылку блога
max1net.com:
Уже подписались человек
Укажите свой e-mail