FL.ru – фриланс сайт удаленной работы №1. Поиск удаленной работы, фрилансеры.

Оптимизация флеш сайтов. Симбиоз SEO и графики

Категории: Имею мнение

Думаю, все читали мою недавнюю публикацию — Самая красивая одежка для сайтов. 50 красивейших шаблонов на любой вкус и цвет. Там много симпатичных дизайнов, многие из которых красуются на флеш сайтах. Сегодня так уж получается, что все технические моменты, которые можно реализовать с помощью flash, одновременно недоступны сайтам других форматов. Я имею в виду обычные html сайты и т.д.

Но вопрос как сделать одновременно красиво, и чтобы видимость в поиске была хорошая, пока еще остается спорным. Спорным потому, что если бы все было так просто, и теми методами оптимизации флеш сайтов, про которые еще будет говориться в данной статье, можно было бы добиться хороших позиций по конкурентным запросам, то не возникало бы столько споров.

Реальная картина поисковой выдачи

Вебмастера хотят, чтобы было и красиво, и чтобы сайты в поиске нормально выруливали, но пока так не совсем получается. Доказательство моим словам приведенные ниже графики видимости сайтов в поисковых системах. Берем конкурентные тематики – «интернет», «бизнес», «строительство». Данные я беру с сайта http://www.seorate.ru/. Итак, вот динамика видимости сайтов в поисковиках для тематики «Интернет»

В данной тематике пятерка самых видимых сайтов:

  • Yandex.ru
  • Wikipedia.org
  • Vkontakte.ru
  • Odnoklassniki.ru
  • Galleo.ru

Да, согласен, здесь есть Яндекс и Википедия. Они типа вне конкуренции. Но если смотреть дальше по списку, то для этой же тематики даже в десятке сайтов нет ни одного сайта на флэш.

Теперь тематика «Бизнес»

Здесь тоже самое. Теперь тематика «Строительство»

И в каждой тематике, я пробежался, даже в десятке нет ни одного флеш сайта. Есть красивые дизы здесь, в тематике строительство, которые совмещают «красиво и посещаемо», как, например, сайт topdom.ru, но опять же говорю, флеш сайтами тут не пахнет. И реальность сегодня такова, что сегодня флеш сайты проще найти путем вбивания урла сайта в адресную строку, или путем поиска по картинкам в том же http://images.yandex.ru/

Следовательно, что? Ну, явно дело здесь не в том, что владельцы флеш сайтов не хотят, чтобы их ресурсы добились высоких позиций в поисковиках, а в том, что они в силу своих технических особенностей туда не могут попасть. Вернее, могут, но по более-менее конкурентным запросам в топе их попросту нет :)

В корпорации Adobe заинтересованы в том, чтобы их продукт получал все бОльшее и бОльшее распространение среди пользователей, поэтому даже открыли в свое время специальный раздел на своем сайте, в котором описывают все приемы поисковой оптимизации flash сайтов.

Для чего нужны сайты на flash?

Вообще причин, по которым целесообразно создавать именно флеш сайт, много, но как мне видится с позиции интернет-бизнесмена, использование технологии флеш подходит для создания промо-сайтов, которые рекламируют какой-то товар или услугу. Визуально легче воспринять информацию на flash сайте, чем лопатить кучу страниц с большим объемом информации на статичном сайте.

Вот, пожалуй, один большущий довод в пользу создания сайтов на флеш. Думаю, какие-то дальнейшие комментарии излишни. Смысл создания таких ресурсов есть. Поэтому есть смысл говорить дальше о том, как продвигать ресурсы, созданные с помощью технологии flash.

Проблема поисковой оптимизации flash сайтов

Вообще, самая большая проблема продвижения таких проектов заключается в том, что элементы с содержанием SWF являются динамическими данными, которые загружаются и отображаются на основе интерактивности. И это происходит во время исполнения, а не тогда, когда браузер загружает первоначально HTML и SWF-контент, который как раз и сканируют поисковики.

Предположим, что вы заходите на сайт, который использует SWF-приложения в качестве основного интерфейса. Так вот, то, что вы видите в HTML-коде, когда загружается страница, это именно то, что видит поисковый робот. То есть, поисковые роботы сканируют содержимое html документа, переходят по ссылкам, но они не имеют возможности взаимодействовать с содержимым SWF.

Кстати, примерно такая же ситуация с Ajax и другими динамическими платформами. Именно поэтому многие мои коллеги-блогеры закрыли ненужную информацию с помощью Ajax, и это нормально работает. Потому что любые динамически передаваемые данные являются невидимыми для поисковых систем.

В целом, Яндекс и Google решают проблему индексации сайтов на Flash. В Google есть специальный оператор filetype:SWF, с помощью которого осуществлять поиск только по флеш сайтам

В данном способе есть как плюсы, так и минусы. Но самый главный минус такой. Как сами думаете, много простых пользователей ищут информацию в гугле при помощи оператора filetype:SWF?

Как оптимизировать сайты на flash

Конечно, я более чем уверен, что как бы вы не лезли из кожи вон, все равно сайт на флеш не сможет ранжироваться также хорошо, как и обычные статические html сайты или динамические сайты на php. Но все равно есть методы, благодаря которым можно улучшить видимость сайта на флеш в результатах органической выдачи.

SWF-содержимое в HTML-источнике

Сам по себе чистый флеш не может хаваться поисковиками. Поэтому выход у нас один – извлекать SWF-содержимое, и помещать его в HTML-версию файла. То есть, идея такая, что мы определяем на своем сайте стратегически важные страницы, и делаем html-версии этих страниц.

Кстати, это хорошо еще и по той причине, что у пользователя может быть попросту отключен JavaScript в браузере, или не установлен Flash Player. И хотя у гугла и Adobe были какие-то разработки, что можно было осуществлять поиск в SWF-объектах, чтобы искать SWF-файлах, но все равно я считаю, что эта технология не прижилась, потому что большинство пользователей используют стандартный поиск. Поэтому создание html с встроенными SWF-файлами для наиболее важного содержимого оправдывается вдвойне.

Делают это по-разному. Например, я встречал теги <div>. Я, честно говоря, не знаю, работает ли данный метод. Но читал на серче, что такой метод не весьма эффективен.

Есть другой метод, который, судя по отзывам, показывает неплохие результаты в поисковике Google. Это встраивание объектов посредством <noscript>. Когда мы выкладываем содержимое SWF-файла (текст, ссылки, изображения и т.д.) в html-документ посредством тегов <noscript>. И если у пользователя отключен JavaScript, то информация, находящаяся в тегах <noscript> будет отображаться в браузере

1
2
3
<noscript>
   <!-- alternative SWF content -->
</noscript>




Говоря проще, если у пользователя установлен Flash, то ему будет показываться Flash версия сайта. Если у него не будет установлен Flash, то ему будет показываться обычная HTML-версия сайта. А так как поисковые роботы не оснащены Flash, то им будет показываться обычная HTML-версия сайта.

Здесь самое важное то, что в html-источник мы можем включить самое важное – ключевые слова. Кеями можно напихать заголовок, основной текст, анкоры ссылок и т.д. Понятно, что нужно действовать без фанатизма. По этим элементам поисковик сможет определить, что это за страница, и какой на ней контент, о чем он.

Когда вы просматриваете сайт с отключенным Java Script в браузере, то сможете увидеть информацию, помещенную в тегах <noscript>, то есть, вы сможете увидеть данные SWF-файлов только в формате HTML. Вот таким нехитрым образом поисковый паук сканирует страницу и определяет, что за контент в ней содержится.

Создание карты сайта в формате XML

После того как мы сделаем HTML-версию сайта, желательно сделать карту сайта, чтобы поисковые роботы хорошо «кушали» все наши страницы. Ничего сложного здесь нет. Создаем обычный XML-файлик, который загружаем в корневой каталог нашего сайта.

Кстати, здесь есть много полезной информации для поискового робота:

<loc> — наш уникальный URL-адрес

<lastmod>  — передает информацию о том, что менялось на странице в последний раз

<changefreq>  — с помощью этого оператора мы передаем поисковому роботу, как часто меняется содержание страницы

<priority> — числовое выражение важности каждой URL-страницы

Ну, а в целом содержимое такого файла выглядит следующим образом:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
< ?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
 
   <url>
      <loc>http://www.example.com/</loc>
      <lastmod>2009-01-01</lastmod>
      <changefreq>monthly</changefreq>
      <priority>0.8</priority>
   </url>
   <url>
      <loc>http://www.example2.com/myexample</loc>
      <lastmod>2009-02-01</lastmod>
      <changefreq>weekly</changefreq>
      <priority>0.3</priority>
   </url>
 </urlset>

Больше вдаваться в тему не буду, потому что это очень обширная тема. Полностью можно почитать в суппорте гугла. Там, правда, на английском, но если приспичит, то разберетесь.

Управление поисковым роботом через файл robots.txt

Вообще, для рунета и в частности для Яндекса файл роботс.тхт – это хорошая штука, с помощью которой можно указать, какие url-страницы нужно индексировать, а какие нет. Что касается Google, то тут хз. От гугла закрывай не закрывай в robots.txt страницы, он все равно их индексирует. И мало того, он иногда даже индексирует сам файл robots.txt. Об этом я тоже писал — Мы закрываем индексацию страниц в robots от гугла. Но Google индексирует сам файл robots.

Поэтому я считаю, что файл robots.txt имеет смысл использовать ради приличия, путем запрещения индексации ненужных страниц. Дабы ресурсы поисковика даром не тратились, и не тратился впустую «бюджет сканирования», о котором я тоже уже писал (Как исправить ошибки сканирования в Google Webmaster Tools), в robots.txt все-таки можно прописать страницы, которые нежелательны для индексирования

1
2
3
4
5
6
User-agent: *
Disallow: /cgi-bin
Disallow: /java
 
User-agent: roguespider
Disallow: /

Заключение

Разумеется, это далеко не все способы оптимизации сайтов на Flash, которые можно использовать в практике. Это лишь их малая часть. Но они, на мой взгляд, наиболее эффективные.

Сегодня на десерт вкусняшка: Бизнес-секреты: Артемий Лебедев. Тёма местами реально отжигал. Это нужно посмотреть. Я местами с него реально уссыкался :)




  • Именно поэтому многие мои коллеги-блогеры закрыли ненужную информацию с помощью Ajax, и это нормально работает. Потому что любые динамически передаваемые данные являются невидимыми для поисковых систем.

    Ты припозднился с этим заявлением месяца на 3. В ноябре Мэтт Каттс заявил, что робот научился индексировать некоторые Ajax-элементы вроде комментариев от дискуса/фейсбука и аналогичных. Судя по тому, что в кеше сейчас сидит и сайдбар Сосновского, то индексируется почти любой несложный Ajax…

    Материала на интересовавший меня вопрос — 10 строк довольно спорных заявлений, зато расписааааааааааааллллллллллллл.

  • Спасибо за коммент, мой вездесущий друг ) Да, не угонишься за технологиями. Особенно гугла. Я видел ту информацию Мэтта Каттса, но считаю, что моя задача — сказать как мне нужно сделать, а задача прогера — настолько усложнить, чтобы поисковик не догадался. И для Яши это все еще актуально

  • По мне, так в топку эти флэш сайты, нах они вообще нужны? 

  • Довольно обширная и полезная статья. Вот если бы и ЯШа начал индексировать  аякс было бы вообще кайф! =)

  • В чем кайф непонятно

  • 123

    хех по развороту ни один HTML PHP сайт никогда не встанет по размеру и по красоте рядом с флеом. Так останется навсегда )

Подпишитесь на рассылку блога
max1net.com:
Уже подписались человек
Укажите свой e-mail