Начинающие веб-мастера часто недооценивают влияние поисковых систем на
раскрутку проектов. А ведь именно "поисковики" призваны обеспечивать
стабильный приток посетителей и весьма неплохой. Хотя количество хостов
из поисковых систем зависит от общего количества размещенного материала,
тем не менее, начинающий сайт может рассчитывать на диапазон от 3 до 50
хостов в сутки. Заметьте, это без каких-либо денежных затрат на
рекламу.
Но для привлечения посетителей из "поисковиков" необходима продуманная и
качественная работа, большей частью незаметная для читателей. Я имею в
виду работу по оптимизации страниц для поисковых роботов. Несмотря на
то, что основные требования к сайтам со стороны "поисковиков" хорошо
известны, количество успешно проиндексированных ресурсов невелико (в
мировом масштабе до 16% от общей величины поданных заявок).
До начала оптимизации давайте разберемся, как работают поисковые роботы и
как происходит оценка релевантности. Исходными данными, несомненно,
является сам документ в формате HTML. Частота повторения слов в тексте,
пожалуй, основной фактор для оценки страницы. Для роботов также важны:
содержание тэгов <TITLE>, <МЕТА> (в первую очередь параметры
"descriptions", "keywords", "Content-Type" и "Content-Language"), текст
самого документа (особое внимание тэгам
<H1>-<H6>,<B>,<STRONG>), альтернативный текст
для изображений (параметр ALT тэга <IMG>).
Не все части документа воспринимаются равнозначно. Текст в начале
страницы находится в более выгодном положении. Интересный факт: одна и
та же страница, изготовленная "вручную" и, например, средствами Word
будет проиндексирована по - разному. Автоматические генераторы HTML
весьма далеки от совершенства и лишний "мусор" сгенерированный текстовым
процессором Word будет причиной такой разницы.
Стремление поместить основной текст в начале страницы и, таким образом,
повысить релевантность ключевых слов, иногда находит отражение в
изменении стандартной навигации. Web-мастера помещают ее справа. С точки
зрения юзабилити это не самый лучший шаг, но в нем есть свое
рациональное зерно.
Отдельный разговор о фреймах и страницах с динамическими данными. Если
фреймы в последнее время стали индексироваться более - менее корректно
(все же их использование на первой странице нежелательно), то
динамические блоки роботами, к сожалению, игнорируются (это относится и к
Flash). Вывод: "поисковики" не любят "навороченных" сайтов. Делая
ставку на поисковые системы, помните об этом.
Итак, с теорией разобрались, - приступим к оптимизации. Страницы,
ориентированные на индексацию, должны быть по возможности простыми, без
ошибок, с прописанными <TITLE> и <META>. Частое повторение в
тексте ключевых слов также нежелательно (оптимально 3 - 7 раз), иначе
робот подумает что его "спамят" и покинет страницу. Если сайт использует
динамические ссылки, проверьте, продублированы ли они обычными
статическими. Для гарантии индексирования всего ресурса избегайте
вложенности ссылок больше 5 - 6 уровня.
Скорее всего, сайту сразу не удастся попасть в первые 30 позиций ссылок,
выбранных по Вашим ключевым словам (по первым 30 ссылкам переходят 95%
посетителей). Но, проанализировав структуру и HTML - код лидеров, вы
сделаете выводы, которые в будущем принесут успех.