закрыть ВНИМАНИЕ! В ДАННОЕ ВРЕМЯ ПРОИЗВОДИТСЯ НАБОР В ШКОЛУ ЭЗОТЕРИКИ Основной целью обучения является рассмотрение начальных и основных концепций и понятий эзотерики, разнообразных систем самосовершенствования, мировых религий, магии, других явлений в сфере непознанного, освоение психотехник развития и подготовка человека уверенно ориентирующегося и способного самостоятельно развиваться в этой области.

Подробности на странице: http://untaware.blogspot.ru/2013/11/nabor-v-shkolu-ezoteriki.html

Поисковая оптимизация

 

Поисковая оптимизация (search engine optimization, SEO) — комплекс мер для поднятия позиций своего сайта в результатах выдачи поисковых систем по определенным запросам пользователей. Обычно, чем выше позиция сайта в результатах поиска, тем больше заинтересованных посетителей переходит на него с поисковых систем. При анализе эффективности поисковой оптимизации оценивается стоимость целевого посетителя с учетом времени вывода сайта на указанные позиции и конверсии сайта, на который привлекаются целевые посетители.

Основные направления работы

Поисковая система учитывает следующие параметры сайта при вычислении его релевантности (степени соответствия введённому запросу):

Соответственно, все факторы, влияющие на положение сайта в выдаче поисковой системы, можно разбить на внешние и внутренние. Работа по оптимизации включает в себя работу с внутренними факторами (находятся под контролем владельца веб-сайта) — приведение текста и разметки страниц в соответствие с выбранными запросами, улучшение качества и количества текста на сайте, стилистическое оформление текста (заголовки, жирный шрифт), улучшение структуры и навигации, использование внутренних ссылок, а также внешними факторами — обмен ссылками, покупка ссылок на ссылочных биржах, регистрация в каталогах (котируются почти исключительно Яндекс. Каталог и DMOZ) и прочие мероприятия для повышения и стимулирования ссылаемости на ресурс. Лицо, проводящее работу по оптимизации веб-сайтов, называется оптимизатор.

Существуют различные SEO-сервисы, позволяющие облегчить труд оптимизаторов и дать владельцам сайтов возможность продвигать их самостоятельно.

История

Вместе с появлением и развитием поисковиков в середине 1990-х появилась и оптимизация. В то время поисковики придавали большое значение тексту на странице, ключевым словам в мета-тегах и прочим внутренним факторам, которыми владельцы сайтов могли легко манипулировать. Это привело к тому, что в выдаче многих поисковиков первые несколько страниц заняли мусорные сайты, что резко снизило качество работы поисковиков и привело многих из них к упадку. С появлением технологии PageRank больше веса стало придаваться внешним факторам, что помогло Google выйти в лидеры поиска в мировом масштабе, затруднив оптимизацию при помощи одного лишь текста на сайте.

Однако оптимизация развивается вместе с поисковиками, и в современных результатах поиска можно видеть всё больше и больше коммерческих сайтов с искусственно раздутой популярностью, особенно по коммерчески привлекательным запросам.

Методы оптимизации

Методы оптимизации можно разделить на два класса, однако последние события в мире поисковых систем дают понять, что это разделение весьма условно — любая манипуляция определёнными параметрами сайта может быть расценена поисковиком как крайне нежелательное влияние на его результаты. Так, любая попытка манипулирования поисковыми результатами прямо запрещена в лицензии на использование поисковой системы «Яндекс».

Белая оптимизация

Белая оптимизация — оптимизаторская работа над ресурсом без применения официально запрещённых каждой поисковой системой методов раскрутки ресурса — без влияния на поисковые алгоритмы сайтов. Это включает в себя работу над самим сайтом, а именно над внутренней навигацией и содержимым, и работу с внешней средой сайта, то есть продвижением оптимизируемого сайта путем обзоров, пресс-релизов, регистрации в социальных закладках, партнерских программ и т. п. с указанием ссылок на сайт. Следует отметить, что «Яндекс» предупреждает о том, что если какой-либо метод оптимизации не является официально запрещенным, это не значит, что его можно применять.

Серая оптимизация

К серой поисковой оптимизации можно отнести, например, добавление большого количества ключевых слов в текст страницы. Зачастую в ущерб читабельности для человека (масло масляное, потому что в нем есть маслопроизводные масляные жиры). Или дорвей без редиректа (когда при попадании на дорвей не происходит автоматического перенаправления на продвигаемый сайт). Серая оптимизация отличается от черной, тем, что она официально не запрещена, но её использование может быть расценено как неестественное завышение популярности сайта. Некоторые поисковые системы, например, Google могут временно или постоянно заблокировать такой сайт. То есть конечное решение о том, является ли методы продвижения законными или нет, принимает специалист, а не автоматика.

Чёрная оптимизация

Способами чёрной оптимизации являются использование дорвеев (страниц и ресурсов, созданных специально для роботов поисковых систем, зачастую с большим количеством ключевых слов на странице), приём под названием клоакинг (пользователю отдаётся одна страница, читабельная, а поисковому роботу — другая, оптимизированная под какие-либо запросы), использование скрытого текста на страницах сайта, использование «однопиксельных ссылок».

Мифы о раскрутке:

МИФ #1: Зарегистрируйте свой сайт в поисковых системах

Совершенно неважно в скольких поисковых системах вы зарегистрированы и зарегистрированы ли вообще. Сам факт регистрации ещё не гарантирует вам целевых посетителей. Чтобы получать их, вы должны уметь работать над поисковой оптимизацией своего сайта!

Это уже отдельная тема, но мы к ней ещё вернёмся…

По сути, любая поисковая система сможет найти ваш сайт сама, если вы будете заниматься его раскруткой. С точки зрения эффективности это будет даже лучше.

МИФ #2: Качественные e-mail рассылки 20 миллионам пользователей

Как вы уже догадались, это ничто иное, как СПАМ. Проблема заключается в том, что вы отправляете письмо людям, которые не хотят получать его. Множество людей будут с раздражением и злостью удалять ваше сообщение при получении, а большинство не получат письма вовсе, так как оно будет заблокировано специальными СПАМ фильтрами.

Но самое главное - это может навсегда подорвать вашу репутацию в глазах вашей целевой аудитории. Как говориться в известной пословице: "Береги платье с нову, а честь смолоду". Так что данный способ раскрутки может легко стать для вас последним.

МИФ #3: 10000 гарантированных посетителей всего за…

Если вам предлагают получить N тысяч посетителей на ваш сайт за скромную сумму, то значит, вы наткнулись на систему активной раскрутки (САР). Подобные системы могут с легкостью раскрутить ваш счётчик посещений, однако самих посетителей вы не получите.

О продажах в данном случае стоит забыть вовсе…

МИФ #4: Займите первую позицию в Яндексе по слову…

Такие предложения, уверен, поступали к вам также неоднократно. Вы можете заплатить небольшую сумму, чтобы занять позицию в поисковых системах по какому то слову. Однако это слово не будет запрашиваемым. То есть вы будете находиться по нему на первой позиции, но не будете получать посетителей…

Чтобы раскрутиться по более популярным запросам, вам придётся переплачивать оптимизаторам в несколько раз, причём за каждый месяц раскрутки. С другой стороны, вы можете с легкостью провести поисковую компанию вручную и получать сотни целевых посетителей каждый день бесплатно…

 

1. Заголовок веб-страницы.
Заголовок страницы – это текст, определяемый в HTML тегом <TITLE>.
С его помощью веб-мастер дает понять поисковой системе, что
содержится на странице. Текст, который обрамляется тегами <title>
</title>, отображается браузером в заголовке окна. Кроме того, этот
текст будет содержать и ссылку на ваш сайт на странице результатов
поиска Яндекса, то есть это, в некотором роде, визитная карточка вашего ресурса. Поэтому от того, как написан заголовок, зависит, появится или
нет у пользователя желание перейти на страницу вашего сайта
для получения более подробной информации. Хорошо также, если
заголовок не только содержит ключевые слова, но также информативен
и актуален. Укажите в заголовке краткое описание предоставляемых
услуг. Бессмысленно перечислять здесь большое количество ключевых
фраз – пользователь не сможет их увидеть, поскольку они просто
не поместятся на экран монитора.
2. Оформление заголовков в тексте, теги <H1>, …, <H6>
Правильное оформление заголовков в тексте помогает пользователю
быстрее сориентироваться на странице, а значит, экономит его время.
Кроме того, и роботу Яндекса будет проще разобраться со структурой
документа. Поэтому следует выделять этими тегами заголовки
в соответствии с иерархией документа.
3. Верстка
Старайтесь, чтобы верстка страниц соответствовала стандартам.
4. Кроссбраузерность
Важно, чтобы информация на вашем сайте корректно отображалась
во всех браузерах. Если ваш потенциальный клиент пользуется
браузером, в котором ваш сайт отображается некорректно или совсем
не показывается, с очень большой вероятностью этот пользователь
просто покинет ваш сайт.

Близость ключевых слов к началу документа
чем ближе ключевые слова к началу кода html-документа, тем выше их вес в глазах поисковиков

Валидность
Поисковые системы должны спарсить (разобрать) HTML код на ваших страницах чтобы найти релевантный контент. Если ваш HTML код содержит ошибки, поисковые роботы могут не найти контента. Программы поисковых систем подчиняются стандартам HTML. Пропущенный закрытый тег и сломанная верстка может иметь большое значение для ботов. Общаясь на общем языке с поисковыми роботами, вы должны четко объяснить, как что должно выглядеть и какой элемент чем является.

Отсутствие битых ссылок
Битые ссылки на странице сильно замедлят индексацию вашего сайта, особенно при большом количестве страниц. Валидный HTML позволит роботам легко индексировать сайт и быстро добавлять его в свой индекс.

Не стоит использовать несколько тегов h1 на странице, то есть h1 должен быть уникальным;
Использовать семантическое выделение для ключевых слов – теги strong em li hr
Выносить все стили оформления в файлы .css.
Использовать блочную верстку.

Не забудьте про регион сайта, если это актуально.

· Создайте сайт с четкой иерархией и текстовыми ссылками. На каждую страницу должен быть доступен переход хотя бы по одной статической текстовой ссылке.
· Составьте для пользователей карту сайта со ссылками на наиболее важные его разделы. Если на карте сайта слишком много ссылок, можно разбить ее на несколько страниц.
· Не размещайте на одной странице слишком много ссылок.
· Сделайте сайт полезным и информативным. Страницы должны давать четкое и точное представление о содержании сайта.
· Подумайте, по каким ключевым словам пользователи будут искать ваши страницы, и включите эти слова в текст на сайте.
· Старайтесь сделать так, чтобы важные имена и названия, а также другое важное содержание и ссылки были представлены текстом, а не изображениями. Поисковый робот Google не распознает текст, содержащийся в изображениях. Если текстовое содержание необходимо представить в виде изображений, воспользуйтесь атрибутом "ALT", чтобы добавить к ним небольшие описания.
· Убедитесь, что элементы <title> и атрибуты alt точны и описывают содержание.
· Убедитесь, что все ссылки работают. Проверьте правильность кода HTML.
· Если вы решили использовать динамические страницы (например, в URL которых содержится символ "?"), учтите, что не все сканеры поисковых систем сканируют динамические страницы так же хорошо, как статические. Лучше сократить длину и количество параметров.

 

 

Структура сайта

  1. Для удобной навигации по сайту на сайте должна быть четкая структура разделов
  2. Четкая структура должна быть не только на сайте, но и на странице.
  3. Тематика сайта определяется по страницам 1 уровня вложенности. Поэтому они должны отражать основную направленность сайта.
  4. На первом развороте экрана должна быть полностью отражена информация, чему посвящена эта страница сайта. Возможно, именно этим объясняется, что чем выше текст расположен на сайте, тем он более релевантен запросу.
  5. Если необходимо разбить большой текст, его нужно разбивать по крупным логическим частям, таким как главы, разделы, а не просто по абзацам
  6. Обязательное требование к карте сайта выполненной в html - это не только перечисление страниц на сайте, но и их структурирование.
  7. 404 страница должна быть информативна для человека, на нее заходят гораздо чаще, чем Вы думаете :-)
  8. Быстрые ссылки - эффективный инструмент для увеличения количества переходов людей из поиска. Чтобы робот смог определить ссылки, которые будут быстрыми, необходимо, чтобы совпадали следующие факторы. Эти страницы должны быть доступны с главной. Навигация должна быть продумана. Анкоры ссылок, ведущих на эту страницу, метатег title и тег h1 на странице должны иметь в точности совпадающий участок текста и при этом должны быть относительно короткими.
    Например, если у вашей фирмы есть страница с контактной информацией, то чтобы робот правильно ее обработал, должны соблюдаться следующие условия:
    в теге <title> этой страницы должно быть указано: «Фирма "Рога и копыта" - Контакты» или просто «Контакты»;
    внутри страницы должен быть заголовок — «Контакты»;
    текст ссылки на эту страницу с главной и внутренних страниц сайта должен быть «Контакты»;
  9. Автоматически структура сайта роботом Яндекса определяется следующим образом. Разделы сайта определяются по названиям директорий и скриптов сайта. При этом должны соблюдаться следующие условия: количество страниц, находящихся в директории или отображающихся скриптом, должно быть более 10, и они должны составлять более 1 % от всех документов сайта.

Навигация по сайту

  1. Навигация по сайту схематически должна представлять иерархическую структуру, иногда ее называют древовидной структурой.
  2. Желательно, чтобы навигация была выполнена в виде текстовых ссылок с соответствующими анкорами, точно указывающими на содержание раздела или страницы.
  3. Если на сайте используется графическое меню, то эти разделы обязательно должны быть продублированы в текстовом варианте, при этом графические ссылки обязательно должны быть подписаны в атрибуте тега изображения alt
  4. Не рекомендуется использовать на сайте только графические ссылки.
  5. Использование для навигации флеш и ява скрипт на сайте не нужно.
  6. Фреймовую навигацию, также использовать не нужно. Автоматически подгружаемые страницы, роботом не сканируются, а значит не будут проиндексированы.

Текст на сайте

  1. Предпочтение отдается сайтам с большими текстами и с малым количеством рекламы на сайте.
  2. Информация должна быть полной, а не раздробленной на мелкие информационные единицы.
  3. Текст должен быть качественно оформлен, а не содержать сплошной не оформленный текст.
  4. Теоретически чем ближе текст к началу страницы, тем он более значим, хотя на это явно не указано.
  5. Чем больше качественного текста на сайте, тем лучше. Растет траст сайта. А Траст сайта, как известно влияет на его позиции в выдаче.
  6. Текст обязательно должен быть проверен на грамматические ошибки. Большое количество ошибок на странице в известных для поисковой системы словах может отрицательно отразиться на позициях сайта. Явно об этом не сказано. Но указано, что "Не советуем размещать корявый текст, изобилующий грамматическими ошибками"
  7. Контент на странице сайта должен быть разбит на логически законченные темы и группы. Для логического разбиения предназначены теги h1 ... h6
  8. Текст размещенный в виде картинки не даст притока посетителей, так как не будет распознан поисковым роботом. Благодарственные письма, письма читателей и т.п. желательно продублировать в текстовом виде.
  9. Текст на странице должен быть в рамках одной темы. Сливать большое количество текста на разные темы, без его логического разделения не рекомендуется.
  10. Если сайт регионально ориентирован, то информация на нем должны быть для пользователей конкретного региона. Это позволит занять лучшие позиции в региональном поиске. Региональность текста определяется по географическим названиям и контактным данным.
  11. Контент внутри одного сайта дублировать не рекомендуется. Контент с других сайтов дублировать также не желательно, но в определенных случаях допустимо, например, технический паспорт, руководство пользователя и т.п., там, где изменения не допустимы.
    Но сайт будет забанен, если он содержит только такие документы и не создает сам полезные для пользователей тексты, не предоставляет полезные сервисы.
  12. Если на сайте необходимо дублировать новостные источники, другую полезную информацию с других источников, то эту информацию нужно закрыть от индексирования. Иначе, через определенное время сайт может попасть под санкции поисковой системы.
  13. Иногда требуется разместить на сайте большой объем текста. В этом случае текст должен быть разбит по крупным смысловым единицам.
  14. Если у организации несколько представительств в регионах, то для корректного ранжирования в региональном поиске сайт в контактных данных обязательно должны быть написаны в текстовом виде адреса и телефоны представительств в этих регионах.
  15. Если на сайте много полезной информации, то по определенным запросам сайт будет показываться на первых позициях и в других регионах, а не только в региональном поиске.

Графика на сайте

  1. Все значимые картинки должны быть подписаны в атрибуте тега alt
  2. Картинки используемы для оформления, подписывать не нужно.
  3. Картинка должна быть размещена или рядом с текстом, который она иллюстрирует, или рядом с ней должна быть подпись.
  4. Картинкам нужно давать осмысленные названия, соответствующие содержанию. Правильно: kniga.jpg, book.jpg, а не 123.jpg, js23sd.jpg
  5. Желательно, чтобы все изображения лежали в одной директории, а не были разбросаны по всему сайту.

Специальные теги страницы

  1. Тег title влияет на количество переходов из поисковой системы и является главным для поискового робота.
  2. Тег title теоретически должен быть уникальным для всех страниц
  3. Теги h1 ... h6 должны представлять ценность для пользователя, а не быть набором ключевых слов.
  4. Теги h1 ... h6 служат для структурного выделения текста на странице и их размерность должна соответствовать иерархии текста на странице.
  5. Не рекомендуется беспорядочно использовать заголовки текста h1 ... h6, это может быть приравнено к поисковому спаму
  6. По той же причине, заголовки текста нужно использовать только там, где они действительно нужны.
  7. Теги h1 ... h6 не должны содержать вложенных тегов, например </br>, <strong>. Их использование не улучшит позиции сайта, но может ухудшить релевантность конкретному запросу.
  8. Вместо заголовков для логического выделения может служить выделенный или курсивный шрифт.
  9. Так как выделенный шрифт и курсив используется в тех случаях, когда заголовок текста не нужен, но выделить логически в тексте что-то нужно, то значимость их для поискового робота достаточно велика.
  10. Для выделения на странице текста жирным и курсивом для обозначения значимости элемента, достаточно сделать это всего один раз, как и в случае с заголовком.
  11. Засорение страницы специальными тегами не способствует улучшению позиций в поисковой выдаче и может быть приравнено к поисковому спаму.
  12. Не рекомендуется выделять специальными тегами длинные названия или текст, выделять текст который не несет смысловой нагрузки, а представляет несвязанный набор слов, еще хуже, если это ключевые слова.
  13. Если требуется выделить текст на странице, но он не ключевой или просто нужно его оформить, нужно использовать css таблицы стилей, которые специально для этого и предназначены.
  14. Крайне не желательно использовать заголовки, выделенный и курсивный текст для стилизации страницы. В этом случае они не будут нести смысловой роли и не помогут, а в ряде случаев могут ухудшить ранжирование страницы.

Индексирование сайта

  1. Верстка веб страницы должна соответствовать мировому стандарту и установленным правилам.
    Если при верстке были допущены ошибки это может негативно отразиться на индексировании страницы и следовательно на ее ранжировании в результатах поиска.
    Если ошибки не значительны на них можно не обращать внимание, но если это не закрытые теги, то это может сказаться плачевно. Особенно если это теги запрета индексации. Например, не валидный, но не верно закрытый тег <noindex> может запретить для поискового робота индексирование важной части страницы.
  2. Доступность страниц сайта для поискового робота и скорость их индексирования определяется уровнем вложенности этих страниц
  3. В случае, если сайт большого размера или на сайте есть труднодоступные страницы для сайта обязательно должен быть составлен xml файл sitemap.
  4. Для больших сайтов в файле sitemap обязательно должен быть верно расставлен приоритет индексирования страниц. Иначе, робот будет уделять внимание второстепенным страницам сайта, а обновленное содержимое будет долгое время не замечено. А трафик - это деньги.
  5. Автоматически подгружаемые страницы при использовании фреймов и флеш не индексируются.
  6. Если текст в PDF или Flash представлен как картинка, то он не будет проиндексирован, так как робот не производит распознавание текста.
  7. Верно и обратное, если текст представлен как текст в широко распространенных форматах, то он будет проиндексирован. К широко распространенным форматам относится: doc, rtf, txt, pdf, flash, odt, другие типы документов офисных редакторов выпущенных Microsoft, Adobe, Open Office
  8. После выпуска нового общераспространенного формата, он будет индексироваться только через определенное время. Например, Microsoft Word 2007 по умолчанию сохраняет документ в новом формате, docx, который стал индексироваться не сразу после появления. В алгоритмы робота необходимо было внести изменения для его распознавания.
  9. Для того, чтобы флеш документ был проиндексирован, он должен быть доступен по прямой ссылке и встроен в документ при помощи тегов <embed> и <object>. При этом должен быть явно указан тип документа - флеш.
  10. Для любого типа документа существует ограничение 10 мб, если документ превышает этот размер, проиндексирован он не будет.
  11. Для четкого определения тематики и корректного ранжирования главная страница сайта должна быть текстовой, а не флеш заставкой, картинкой, входной страницей.
  12. Для графики желательно использовать только широко распространенные форматы.
  13. Для всех широко распространенных форматов необходимо, чтобы его расширение соответствовало его типу, в том числе и сервер должен корректно указывать тип документа. Данный пункт более всего характерен для графики, когда расширение и тип программно созданной картинки не совпадают.
  14. Для корректного индексирования сайта, внутренние страницы сайта должны быть перелинкованы.

URL сайта

  1. Желательно, чтобы название домена в транслите или в переводе с английского отображало тематику сайта и содержало ключевые слова
  2. Ссылки определяют маршрут робота и периодичность его визитов на определенные страницы сайта
  3. Ссылки должны быть написаны или в транслите или в переводе с английского означать тематику страницы, так как url страницы для поискового механизма тоже несет полезную информацию.
  4. Длина ссылки должна быть как можно меньшей, иначе могут возникнуть проблемы с индексированием. Длина ссылки влияет и на вес страницы, чем короче ссылка, тем быстрее страница загрузится.
  5. Все выше сказанное относится и к названиям разделов сайта и меню навигации, это тоже ссылки, причем, постоянные
  6. Любая страница сайта должна быть доступна только по одному адресу. За этим особенно тщательно нужно следить при использовании различного типа cms для сайта (системы управления сайтом)
  7. html карта сайта должна постоянно обновляться и не содержать битых ссылок. Карта сайта в виде страницы должна еще отражать структуру сайта, а не быть простым списком ссылок.
  8. Если на сайте представлены версии для мобильных устройств или на другом языке, для корректного ранжирования их лучше вынести на отдельный поддомен или сделать для них новый домен.
  9. Ссылки с сайта на не качественные ресурсы, отрицательно сказывается на показателях сайта и на его позициях.

Запрет индексации

  1. Управление поисковым роботом на сайте - обязательно, чтобы индексация сайта была эффективной.
  2. Для запрета к индексированию участка текста на странице для Яндекса используется тег <noindex>запрещенный текст</noindex>. Для Google возможен запрет только влияния ссылок на странице с помощью атрибута тега <a href="link" rel="nofollow">. Основное назначение - уменьшение отрицательного влияния исходящих ссылок, а для Яндекса и дублированного контента. Например, когда описывается о том, что определенный ресурс распространяет спам или сделан очень не качественно, но его нужно указать в тексте ссылкой, чтобы не говорить впустую . Вот тогда и пригодятся эти теги. Еще один пример - это блоги и форумы. Не модерируемые ссылки в данном случае нужно обязательно запрещать для индексации.
  3. Для индексации нужно запрещать и автоматически генерируемые картинки, такие как captcha, счетчики, графические часы и т.п.
  4. Запрет конкретных страниц и директорий нужно производить в файле robots.txt.
  5. Для индексации поисковым роботом обязательно нужно запрещать автоматически генерируемые страницы (результаты поиска), технические страницы (информация о cms, инструкции по установке, информацию о пользователях сайта, профили пользователей), дубли информации (новости с других сайтов, технические дубли информации, одинаковые страницы по разным url)
  6. Особенно важные разделы и данные нужно запрещать через .htaccess путем установки пароля или запрета доступа. Так как файл robots.txt не гарантирует не доступность данных, а наоборот может помочь любопытным посмотреть какие страницы на сайте должны быть недоступны не только для робота, но и для человека, например, страница входа в административную панель.
  7. Для корректной индексации сайта нужно указать запрет сессий и дополнительных параметров автоматически подставляемых скриптами с помощью директивы Clean-param, в файле robots.txt
  8. В качестве мер предосторожности можно запретить для индексирования ява скрипты, страницу редиректа, css, элементы дизайна страницы. В документации об этом не указано.

Ответы сервера

  1. Сервер должен правильно указывать дату создания и последнего изменения документа.
  2. Если страница или документ не существует, сервер должен отвечать кодом 404
  3. Если страница существует, то для нее должен быть код 200.
  4. Если владелец сайта не успел продлить хостинг, то сервер должен отвечать кодом 200 со страницей сайт временно не доступен, или временное перенаправление с 302 кодом.
  5. Сервер при ответе должен правильно указывать тип файла и его кодировку.

Ссылки

  1. Внутренние ссылки тоже передают вес и полезны при продвижении сайта по определенным запросам.
  2. Внутренние ссылки нужно ставить с короткими значимыми анкорами
  3. Не нужно ставить лишние ссылки и наполнять анкорный текст большим количеством ключевых слов
  4. Анкор ссылки должен быть информативным, но при этом кратким
  5. Ссылки должны визуально отличаться от обычного текста на сайте и не вводить в заблуждение.
  6. Анкоры с общеупотрибимыми словами (здесь, статья, страница, там) влияют на ранжирование сайта очень не значительно. Но их можно использовать если необходимо нарастить PR и тИЦ сайта (PR и тИЦ на ранжирование сайта прямого влияния не оказывают, косвенное - увеличение общей ссылочной массы для сайта)
  7. Если ссылка идет на картинку, она должна тоже содержать осмысленный анкор, например <a href="/img/seo.jpg">seo оптимизатор</a>

Внешние факторы

  1. Внешние ссылки могут влиять на ранжирование сайта не только положительно, но и отрицательно, в зависимости от источника этих ссылок.
  2. Отдача от спам ссылок на ресурс будет отрицательной, в лучшем случае нейтральной.
  3. Для продвижения сайта нужно использовать только качественные ресурсы
  4. Любые внешние ссылки с сайта, если они установлены на сайты, которым не желательно передавать вес сайта, должны заключаться в тег <noindex> и атрибут тега ссылки <nofollow>. Прямые ссылки на не качественные ресурсы влияют на репутацию сайта и его ранжирование в поиске по определенным запросам.
  5. От покупных ссылок нужно отказываться по мере возможности, так как они легко вычисляются поисковой машиной и могут влиять не только положительно, но и отрицательно. (Есть мнение, что эти ссылки вычисляются через папки, подстановкой параметров, но реально это не так. Подстановка параметров может быть и применяется, но основой является математическое вычисление исходя из тематики сайта, повторов ссылки на других страницах сайта, ее размещения, схожести ссылки на этом сайте и на других, наличия других платных ссылок на сайте и т.д., это совокупность параметров)
  6. Если интересуют позиции в выдаче, то не стоит гнаться за PR и тИЦ, они не влияют на выдачу, а представляют собой показатели авторитетности сайта в интернет среде и в определенной тематике соответственно.
  7. Схема по которой ранжируется сайт в результатах поиска зависит от доменной зоны сайта и его языка.
  8. На сайте стоит рекламировать только значительные изменения.
  9. Реклама дает отдачу только в тематических кругах. Если информация полезна, ее начнут цитировать и ссылаться.
  10. Поисковые системы не единственный источник трафика, на сайт нужно привлекать посетителей с помощью блогов, социальных сетей и оффлайн рекламы

 

После того как страница готова, ее следует проанализировать и оптимизировать. Вот краткое руководство для анализа html кода с последующей оптимизацией

- является ли тег <title> первым тегом страницы?

- расположена ли ключевая фраза в начале тега <title>?

- по скольким ключевым фразам Вы оптимизируете страницу? Лучше делайте это для одной фразы.

- не используете ли Вы ключевые слова и фраза по несколько раз в одном теге?

- проверьте <meta> теги на наличие бесполезных и ненужных тегов.

- используете ли Вы тег обновления?

- используете ли Вы технологию апплетов java, помещающих Ваш текст с ключевыми фразами в конец страницы?

- Ваша страница начинается с текста, а не с графики?

- используете ли Вы тег заголовков <h1> с Вашей ключевой фразой?

- используете ли Вы ключевые фразы в текстовых ссылках?

- используете ли Вы атрибуты alt?

- является ли Ваша страница динамически генерируемой, с символами в адресе url?

- используете ли Вы фреймы? Если есть возможность избавляйтесь от них?

- используете ли сложные flash-технологии?

- выделили ли Вы ключевую фразу полужирным шрифтом? Сделайте это 3-4 раза.

- избежали ли применения технологий спамминга?

- достаточно ли проста Ваша страница, нет ли в ней сложных технических решений?

- релевантна ли Ваша ключевая фраза тексту страницы? Проверьте ее на плотность.

 

Оптимизация кода страниц выполняется с помощью специальных инструментов, которыми являются теги, метатеги и ключевые слова в тексте ссылок.

Название веб-страницы

Тег - <title> один из наиболее важных тегов, которому поисковые системы придают огромное значение. В этом теге обязательно нужно использовать ключевые слова. Что вы впишете в этот тег в html-коде веб-страницы, то браузер и выведет пользователю. Его содержание можно увидеть и в разделе "Избранное", если ваш сайт будет туда добавлен. Ссылка на ваш сайт в выдаче поисковика будет содержать текст из тега <title>, так что этот тег - визитная карточка страницы. Именно по этой записи в ссылке осуществляется переход посетителя поисковой системы на сайт, поэтому тег <title> должен не только содержать ключевые слова, но быть информативным и привлекательным. Оптимизация htm-кода подразумевает указание для каждой страницы уникального <title>, содержащего ключевые слова того поискового запроса, которому должна соответствовать данная страница. При этом желательно, чтобы <title> был коротким и хорошо читался, т.к. в выдачу поисковой системы попадает 50-80 символов из тега <title>.

Заголовки страницы

В языке html имеются специальные средства выделения текста <h1 > <h6>. Это теги заголовков и подзаголовков, они придают тексту, в зависимости от числового параметра тега, более большое и жирное начертание, помогают выделить его среди прочего текста. Поскольку заголовок создается для привлечения внимания посетителя страницы, его смысловой вес больше, чем вес простого предложения в тексте страницы. При оптимизации html-кода страницы, следует учитывать, что вхождение ключевого слова в заголовок высшего уровня <h1> ценится выше, чем заголовок нижнего уровня <h6>.

Выделение текста на странице

В текстах книг, газет и журналов авторы отмечают места, на которых читатели должны акцентировать свое внимание, для чего слова выделяют жирным шрифтом, курсивом, подчеркиванием. В HTML для этого служат теги выделения <strong>, <b> , <em>, и <i>, причем тег <b> служит для физического форматирования, а тег <strong> - для логического. Поисковики тоже обращают внимание на выделенный текст, поэтому страница, на которой слова запроса будут найдены в этих тегах, будет оценена поисковой системой выше, по сравнению с той, где теги выделения отсутствуют.

Подписи к графическим объектам

Картинки и фотографии на веб-страницах размещают с помощью графических файлов. Для этого в языке html есть специальный тег <img>, а атрибут alt="Название картинки" этого тега служит для того, чтобы "подписать" картинку. Подпись к картинке будет видна во всплывающей подсказке при наведении курсора мыши на картинку. Также она будет видна, если пользователь просматривает веб-страницу с выключенной графикой. Заполнение атрибута alt имеет большое значение для оптимизации кода страницы, так как подпись к картинке дает пользователю важную дополнительную информацию и поисковые системы это учитывают.

Метатеги

На данный момент времени эти теги для оптимизации html-кода страницы практически ничего не дают. Но я считаю, что их нужно "прописывать".
Метатег <description> выполняет функцию краткого описания содержания страницы. Содержание метатега <description> - это информационный указатель страницы, объясняющий пользователю, что он на ней найдет. Краткая и информативная аннотация страницы может привлечь посетителя именно на сайт.
Метатег <keywords> содержит ключевые слова, характерные для этой страницы. Раньше поисковики активно использовали этот тег для поиска информации, но сейчас его позиции резко упали, однако, я стараюсь этот метатег не игнорировать.

 

Основные принципы релевантности страницы

  1. Первоначально о содержании страницы заявляет тег <title>.
  2. Вторым важным фактором заголовок <h1> и его соответствие с title.
  3. Третим фактором является подтверждение - нахождение ключевых слов в тексте документа.
  4. Четвертым фактором является наличие внешних ссылок с популярных сайтов и не очень.

Обязательно

  1. Ключевые слова из title должны обязательно встречаться в тексте. Если ни одного слова, использованного в title, не встречается в тексте страницы, поисковая система делает вывод о несоответствии темы и реального содержания страницы и может расценить это как спам.

Рекомендуется

  1. Ключевые слова в тексте не обязательно должны быть точно такими же, как в title или h1. Лучше, когда они отличаются суффиксами, окончаниями, предлогами, знаками препинания, склонениями, множественным или единичным числом, следуют в ином порядке или по одиночке, то есть так, как они встречаются в реальном тексте. Главное, что они должны присутствовать в тексте, если текст действительно описывает то, что представлено на странице. Это называется морфологический анализ которым владеет далеко не каждый поисковый сервис.
  2. Обязательно указывайте для какой страны ваш контент. Чем уже ваш регион тем выше рейтинг.
    Код для русского контента выглядет так: <meta http-equiv="content-language" content="ru" />
  3. Отдельные слова из запроса не должны встречаться в тексте одинаковое число раз, но также не должны сильно расходиться.
  4. Для того, чтобы расширить базу слов, по которым клиенты будут находить сайт, используют модификаторы, синонимы слов, которые образуют как бы облако вокруг семантического центра.
  5. Для вывода в ТОП одной оптимизированной страницы мало, нужно иметь много страниц, оптимизированных под запросы, образующие семантическое ядро и хороший вес сайта.
  6. Рекомендуем добавить текстовую аннотацию к странице (как бы введение) в самом начале контента, упоминающую вашу ключевую фразу;
  7. Используйте только грамматически правильные фразы (как известно, люди стараются употреблять упрощенные фразы, которые не всегда корректны. Вы можете натолкнуться на такие комбинации слов при проведении исследований, однако не стоит их использовать на своих страницах);
  8. Рекомендуем использовать синонимы ключевых слов (синонимы являются одним из параметров естественного и полезного контента);
  9. Рекомендуем использовать производные от ключевого слова термины (это сделает ваш контент богаче и более разнообразным, а также привлечет больше поискового траффика);


Введение
1. Общая информация о поисковых системах
1.1 История развития поисковых систем
1.2 Общие принципы работы поисковых систем
2. Внутренние факторы ранжирования
2.1 Текстовое оформление веб-страниц
2.1.1 Объем текста на странице
2.1.2 Число ключевых слов на странице
2.1.3 Плотность ключевых слов
2.1.4 Расположение ключевых слов на странице
2.1.5 Стилистическое оформление текста
2.1.6 Тег «TITLE»
2.1.7 Ключевые слова в тексте ссылок
2.1.8 Теги «ALT» изображений
2.1.9 Мета-тег Desciption
2.1.10 Мета-тег Keywords
2.2 Структура сайта
2.2.1 Число страниц сайта
2.2.2. Навигационное меню
2.2.3 Ключевое слово в названии страницы
2.2.4 Избегайте подкаталогов
2.2.5 Одна страница – одна ключевая фраза
2.2.6 Главная страница сайта
2.3 Распространенные ошибки
2.3.1 Графический заголовок
2.3.2 Графическое навигационное меню
2.3.3 Навигация через скрипты
2.3.4 Идентификатор сессии
2.3.5 Редиректы
2.3.6 Скрытый текст
2.3.7 Однопиксельные ссылки
3 Внешние факторы ранжирования
3.1 Для чего используется учет внешних ссылок на сайт
3.2 Важность ссылок (индекс цитируемости)
3.3. Ссылочный текст
3.4 Релевантность ссылающихся страниц
3.5 Google PageRank – теоретические основы
3.6 Google PageRank – практическое использование
3.7 ТИЦ и ВИЦ Яндекс
3.8 Увеличение ссылочной популярности
3.8.1 Сабмит в каталоги общего назначения
3.8.2 Каталог DMOZ
3.8.3 Каталог Яндекса
3.8.4 Обмен ссылками
3.8.5 Пресс-релизы, новостные ленты, тематические ресурсы
4 Индексация сайта
5 Подбор ключевых слов
5.1 Первоначальный выбор ключевых слов
5.2 Высокочастотники и низкочастотники
5.3 Оценка уровня конкуренции поисковых запросов
5.4 Последовательное уточнение поисковых запросов
6 Различная информация о поисковых системах
6.1 Google SandBox
6.2 Google LocalRank
6.3 Особенности работы различных поисковых систем
6.4 Советы, предположения, наблюдения
6.5 Создание правильного контента
6.6 Выбор домена и хостинга
6.7 Смена адреса сайта
7. Semonitor – пакет программ для раскрутки и оптимизации сайта
7.1 Модуль Определение позиций
7.2 Модуль внешние ссылки
7.3 Модуль Индексация сайта
7.4 Модуль Лог-Анализатор
7.5 Модуль Page Rank анализатор
7.6 Модуль Подбор ключевых слов
7.7 Модуль HTML анализатор
8. Полезные ресурсы
Вместо заключения – раскрутка сайта шаг за шагом


Введение


Данный курс предназначен для авторов и владельцев сайтов, желающих более подробно заняться вопросами поисковой оптимизации и раскрутки своего ресурса. Рассчитан он в основном на начинающих, хотя и опытный вебмастер, надеюсь, почерпнет из него что-то новое. В Интернете можно найти большое количество статей по теме поисковой оптимизации, в данном учебнике сделана попытка объединить всю информацию в виде единого, последовательного курса.

Информацию, представленную в данном учебнике можно разбить на несколько частей:
- четкие, конкретные рекомендации, практическое руководство к действию;
- теоретическая информация, которой, по нашему мнению, должен обладать любой специалист в области seo;
- советы, наблюдения, рекомендации, полученные на основе опыта, изучения различных материалов и т.п.

1. Общая информация о поисковых системах


1.1 История развития поисковых систем
В начальный период развития Интернет, число его пользователей было невелико, а объем доступной информации относительно небольшим. В большинстве случаев доступ к Интернет имели сотрудники различных университетов и лабораторий, а в целом Сеть использовалась в научных целях. В это время задача поиска информации в сети Интернет была далеко не столько актуальной, как в настоящее время.

Одним из первых способов организации доступа к информационным ресурсам сети стало создание каталогов сайтов, в которых ссылки на ресурсы группировались согласно тематике. Первым таким проектом стал сайт Yahoo, открывшийся в апреле 1994 года. После того, как число сайтов в каталоге Yahoo значительно увеличилось, была добавлена возможность поиска информации по каталогу. Это, конечно же, не было поисковой системой в полном смысле, так как область поиска была ограничена только ресурсами, присутствующими в каталоге, а не всеми ресурсами сети Интернет.

Каталоги ссылок широко использовались ранее, но практически утратили свою популярность в настоящее время. Причина этого очень проста – даже современные каталоги, содержащие огромное количество ресурсов, представляют информацию лишь об очень малой части сети Интернет. Самый большой каталог сети DMOZ (или Open Directory Project) содержит информацию о 5 миллионах ресурсов, в то время как база поисковой системы Google состоит из более чем 8 миллиардов документов.

Первой полноценной поисковой системой стал проект WebCrawler появившийся в 1994 году.

В 1995 году появились поисковые системы Lycos и AltaVista. Последняя долгие годы была лидером в области поиска информации в Интернет.

В 1997 году Сергей Брин и Ларри Пейдж создали Google в рамках исследовательского проекта в Стэнфордском университете. В настоящий момент Google самая популярная поисковая система в мире.

23 сентября 1997 года была официально анонсирована поисковая система Yandex, самая популярная в русскоязычной части Интернет.

В настоящее время существует 3 основных международных поисковых системы – Google, Yahoo и MSN Search, имеющих собственные базы и алгоритмы поиска. Большинство остальных поисковых систем (коих можно насчитать очень много) использует в том или ином виде результаты 3 перечисленных. Например, поиск AOL (search.aol.com) и Mail.ru используют базу Google, а AltaVista, Lycos и AllTheWeb – базу Yahoo.

В России основной поисковой системой является Яндекс, за ним идут Rambler, Google.ru, Aport, Mail.ru и KM.ru.

1.2 Общие принципы работы поисковых систем
Поисковая система состоит из следующих основных компонентов:

Spider (паук) - браузероподобная программа, которая скачивает веб-страницы.

Crawler (краулер, «путешествующий» паук) – программа, которая автоматически проходит по всем ссылкам, найденным на странице.

Indexer (индексатор) - программа, которая анализирует веб-страницы, скаченные пауками.

Database (база данных) – хранилище скачанных и обработанных страниц.

Search engine results engine (система выдачи результатов) – извлекает результаты поиска из базы данных.

Web server (веб-сервер) – веб-сервер, который осуществляет взаимодействие между пользователем и остальными компонентами поисковой системы.

Детальная реализация поисковых механизмов может отличаться друг от друга (например, связка Spider+Crawler+Indexer может быть выполнена в виде единой программы, которая скачивает известные веб-страницы, анализирует их и ищет по ссылкам новые ресурсы), однако всем поисковым системам присущи описанные общие черты.

Spider. Паук - это программа, которая скачивает веб-страницы тем же способом, что и браузер пользователя. Отличие состоит в том, что браузер отображает информацию, содержащуюся на странице (текстовую, графическую и т.д.), паук же не имеет никаких визуальных компонент и работает напрямую с html-текстом страницы (вы можете сделать «просмотр html-кода» в вашем браузере, чтобы увидеть «сырой» html-текст).

Crawler. Выделяет все ссылки, присутствующие на странице. Его задача - определить, куда дальше должен идти паук, основываясь на ссылках или исходя из заранее заданного списка адресов. Краулер, следуя по найденным ссылкам, осуществляет поиск новых документов, еще неизвестных поисковой системе.

Indexer. Индексатор разбирает страницу на составные части и анализирует их. Выделяются и анализируются различные элементы страницы, такие как текст, заголовки, структурные и стилевые особенности, специальные служебные html-теги и т.д.

Database. База данных - это хранилище всех данных, которые поисковая система скачивает и анализирует. Иногда базу данных называют индексом поисковой системы.

Search Engine Results Engine. Система выдачи результатов занимается ранжированием страниц. Она решает, какие страницы удовлетворяют запросу пользователя, и в каком порядке они должны быть отсортированы. Это происходит согласно алгоритмам ранжирования поисковой системы. Эта информация является наиболее ценной и интересной для нас – именно с этим компонентом поисковой системы взаимодействует оптимизатор, пытаясь улучшить позиции сайта в выдаче, поэтому в дальнейшем мы подробно рассмотрим все факторы, влияющие на ранжирование результатов.

Web server. Как правило, на сервере присутствует html-страница с полем ввода, в котором пользователь может задать интересующий его поисковый термин. Веб-сервер также отвечает за выдачу результатов пользователю в виде html-страницы.

2. Внутренние факторы ранжирования


Все факторы, влияющие на положение сайта в выдаче поисковой системы, можно разбить на внешние и внутренние. Внутренние факторы ранжирования – это те, которые находятся под контролем владельца веб-сайта (текст, оформление и т.д.).

2.1 Текстовое оформление веб-страниц
2.1.1 Объем текста на странице
Поисковики ценят сайты, богатые информационным содержанием. В общем случае следует стремиться к увеличению текстового наполнения сайта.

Оптимальными следует считать страницы, содержащие 500-3000 слов или 2-20 кб. текста (от 2 до 20 тыс. символов).

Страница, состоящая всего лишь из нескольких предложений, имеет меньше шансов попасть в топ поисковых систем.

Кроме того, большее количество текста на странице увеличивает видимость страницы в поисковых системах за счет редких или случайных поисковых фраз, что в некоторых случаях может давать неплохой приток посетителей.

2.1.2 Число ключевых слов на странице
Ключевые слова (фразы) должны встречаться в тексте как минимум 3-4 раза. Верхняя граница зависит от общего объема страницы – чем больше общий объем, тем больше повторений можно сделать.

Отдельно следует рассмотреть ситуацию с поисковыми фразами, то есть словосочетаниями из нескольких ключевых слов. Наилучшие результаты наблюдаются, если фраза встречается в тексте несколько раз именно как фраза (т.е. все слова вместе в нужном порядке), а кроме того, слова из фразы попадаются в тексте несколько раз поодиночке. Также должно существовать некоторое различие (разбалансировка) между числом вхождений каждого из слов, составляющих фразу.

Рассмотрим ситуацию на примере. Допустим, мы оптимизируем страницу под фразу «dvd проигрыватель». Хороший вариант – фраза «dvd проигрыватель» встречается в тексте 10 раз, кроме того, слово «dvd» встречается отдельно еще 7 раз, слово «проигрыватель» еще 5 раз. Все цифры в примере условны, но хорошо показывают общую идею.

2.1.3 Плотность ключевых слов
Плотность ключевого слова на странице показывает относительную частоту содержания слова в тексте. Плотность измеряется в процентах. Например, если заданное слово встретилось 5 раз на странице из 100 слов, то плотность этого слова равна 5%. Слишком низкая плотность приведет к тому, что поисковая система не придаст должного значения этому слову. Слишком высокая плотность способна включить спам-фильтр поисковой системы (то есть страница будет искусственно понижена в результатах поиска из-за чрезмерно частого употребления ключевой фразы).

Оптимальной считается плотность ключевого текста 5-7%. В случае фраз, состоящих из нескольких слов, следует посчитать суммарную плотность всех ключевых слов, составляющих фразу и убедиться, что она укладывается в указанные пределы.

Практика показывает, что плотность ключевого текста более 7-8%, хотя и не ведет к каким-либо отрицательным последствиям, но и смысла особого в большинстве случаев также не имеет.

2.1.4 Расположение ключевых слов на странице
Очень короткое правило – чем ближе ключевое слово или фраза к началу документа, тем больший вес они получают в глазах поисковой системы.

2.1.5 Стилистическое оформление текста
Поисковые системы придают особое значение тексту, тем или иным способом выделенному на странице. Можно дать следующие рекомендации:

- используйте ключевые слова в заголовках (текст, выделенный тегами «H», в особенности «h1» и «h2»). В настоящее время использование css позволяет переопределить вид текста, выделенного этими тегами, поэтому использование тегов «H» имеет меньшее значение, чем раньше, однако, пренебрегать ими ни в коем случае не стоит;
- выделяйте ключевые слова жирным шрифтом (не во всем тексте, конечно же, но сделать такое выделение 2-3 раза на странице не помешает). Для этого рекомендуется использовать тег «strong», вместо более традиционного тега «B» (bold).

2.1.6 Тег «TITLE»
Один из наиболее важных тегов, которому поисковые системы придают огромное значение. Обязательно нужно использовать ключевые слова в теге TITLE.

Кроме того, ссылка на ваш сайт в выдаче поисковой системы будет содержать текст из тега TITLE, так что это, в некотором роде, визитная карточка страницы.

Именно по этой ссылке осуществляется переход посетителя поисковой системы на ваш сайт, поэтому тег TITLE должен не только содержать ключевые слова, но быть информативным и привлекательным.

Как правило, в выдачу поисковой системы попадает 50-80 символов из тега TITLE, поэтому размер заголовка желательно ограничить этой длинной.

2.1.7 Ключевые слова в тексте ссылок
Также очень простое правило – используйте ключевые слова в тексте исходящих ссылок с ваших страниц (как на другие внутренние страницы вашего сайта, так и на другие ресурсы сети), это может добавить вам небольшое преимущество при ранжировании.

2.1.8 Теги «ALT» изображений
Любое изображение на странице имеет специальный атрибут «альтернативный текст», который задается в теге «ALT». Этот текст будет отображен на экране в том случае, если скачать изображение не удалось или же показ изображений заблокирован в браузере.

Поисковые системы запоминают значение тега ALT при разборе (индексации) страницы, однако не используют его при ранжировании результатов поиска.

На данный момент достоверно известно, что поисковая система Google учитывает текст в теге ALT тех изображений, которые являются ссылками на другие страницы, остальные же теги ALT игнорируются. По другим поисковым систем точных данных нет, но можно предполагать что-то подобное.

В целом стоит дать такой совет – использовать ключевые слова в тегах ALT можно и нужно, хотя принципиального значения это не имеет.

2.1.9 Мета-тег Desciption
Мета-тег Description специально предназначен для задания описания страницы. Этот тег никак не влияет на ранжирование, но, тем не менее, очень важен. Многие поисковые системы (и, в частности, крупнейшая Google) отображают информацию из этого тега в результатах поиска, если этот тег присутствует на странице и его содержимое соответствует содержимому страницы и поисковому запросу.

Можно с уверенностью сказать, что высокое место в результатах поиска не всегда обеспечивает большое число посетителей. Если описание ваших конкурентов в результатах выдачи будет более привлекательным, чем вашего сайта, то посетители поисковой системы выберут именно их, а не ваш ресурс.

Поэтому грамотное составление мета-тега Description имеет большое значение. Описание должно быть кратким, но информативным и привлекательным, содержать ключевые слова, характерные для данной страницы.

2.1.10 Мета-тег Keywords
Этот мета-тег изначально предназначался для указания ключевых слов данной страницы. Однако в настоящее время он почти не используется поисковыми системами.

Тем не менее, стоит заполнить этот тег «на всякий случай». При заполнении следует придерживаться следующего правила: добавлять только те ключевые слова, которые реально присутствуют на странице.

2.2 Структура сайта
2.2.1 Число страниц сайта
Общее правило – чем больше, тем лучше. Увеличение числа страниц сайта улучшает его видимость в поисковых системах.

Кроме того, постепенное добавление новых информационных материалов на сайт воспринимается поисковыми системами как развитие сайта, что может дать дополнительные преимущества при ранжировании.

Таким образом, старайтесь размещать на сайте больше информации – новости, пресс-релизы, статьи, полезные советы и так далее.

2.2.2. Навигационное меню
Как правило, любой сайт имеет навигационное меню. Используйте ключевые слова в ссылках меню, это позволит придать дополнительный вес тем страницам, на которые ведет ссылка.

2.2.3 Ключевое слово в названии страницы
Существует мнение, что использование ключевых слов в названии html-файла страницы может положительно сказаться на ее месте в результатах поиска. Естественно, это касается только англоязычных запросов.

2.2.4 Избегайте подкаталогов
Если ваш сайт имеет умеренное число страниц (несколько десятков), то лучше, чтобы они находились в корневой директории сайта. Поисковые системы считают такие страницы более важными.

2.2.5 Одна страница – одна ключевая фраза
Старайтесь оптимизировать каждую страницу под свою собственную ключевую фразу. Иногда можно выбрать 2-3 родственных фразы, но не следует оптимизировать одну страницу под 5-10 фраз сразу, скорее всего результата не будет никакого.

2.2.6 Главная страница сайта
Оптимизируйте главную страницу сайта (имя домена, index.html) под наиболее важные для вас словосочетания. Эта страница имеет наибольшие шансы попасть в топ поисковых систем.

По моим наблюдениям, на главную страницу сайта может приходиться до 30-40% общего поискового трафика.

2.3 Распространенные ошибки
2.3.1 Графический заголовок
Очень часто в дизайне сайта используется графический заголовок (шапка), то есть картинка во всю ширину страницы, содержащая, как правило, логотип компании, название и некоторую другую информацию.

Не стоит этого делать! Верхняя часть страницы очень ценное место, где можно разместить наиболее важные ключевые слова. В случае графического изображения это место пропадает впустую.

В некоторых случаях встречаются совсем нелепые ситуации: заголовок содержит текстовую информацию, но в целях большей визуальной привлекательности выполнен в виде картинки (соответственно изображенный текст не может быть учтен поисковиками).

Лучше всего использовать комбинированный вариант – графический логотип вверху страницы присутствует, но занимает не всю ее ширину. На оставшейся части размещается текстовый заголовок с ключевыми словами.

2.3.2 Графическое навигационное меню
Ситуация схожа с предыдущим пунктом – внутренние ссылки на вашем сайте должны также содержать ключевые слова, это даст дополнительное преимущество при ранжировании. Если навигационное меню в целях большей привлекательности выполнено в виде графики, то поисковики не смогут учесть текст ссылок.

Если же отказаться от графического меню нет возможности, не забудьте, по крайней мере, снабдить все картинки правильными тегами ALT.

2.3.3 Навигация через скрипты
В некоторых случаях навигация по сайту осуществляется через использование скриптов. Следует понимать, что поисковики не могут читать и исполнять скрипты. Таким образом, ссылка, заданная через скрипт будет недоступна для поисковой системы и поисковый робот не пройдет по ней.

В таких случаях следует обязательно дублировать ссылки обычным способом, чтобы навигация по сайту была доступна для всех – и для ваших посетителей и для роботов поисковых систем.

2.3.4 Идентификатор сессии
На некоторых сайтах принято использовать идентификатор сессии – то есть каждый посетитель при заходе на сайт получает уникальный параметр &session_id=, который добавляется к адресу каждой посещаемой страницы сайта.

Использование идентификатора сессии позволяет более удобно собирать статистику о поведении посетителей сайта и может использоваться для некоторых других целей.

Однако, с точки зрения поискового робота страница с новым адресом – это новая страница. При каждом заходе на сайт поисковый робот будет получать новый идентификатор сессии и, посещая те же самые страницы, что и раньше, будет воспринимать их как новые страницы сайта.

Строго говоря, поисковые системы имеют алгоритмы «склейки» зеркал и страниц с одинаковым содержанием, поэтому сайты, использующие идентификаторы сессий, все же будут проиндексированы. Однако, индексация таких сайтов затруднена и в некоторых случаях может пройти некорректно. Поэтому использование на сайте идентификаторов сессий не рекомендуется.

2.3.5 Редиректы
Редиректы затрудняют анализ сайта поисковыми роботами. Не используйте редиректы, если для этого нет четких причин.

2.3.6 Скрытый текст
Последние два пункта относится скорее не ошибкам, а к преднамеренному обману поисков, но о них все же следует упомянуть

Использование скрытого текста (цвет текста совпадает с цветом фона, например, белое на белом) позволяет «накачать» страницу нужными ключевыми словами без нарушения логики и дизайна страницы. Такой текст невидим для посетителей, однако прекрасно читается поисковыми роботами.

Использование таких «серых» методов оптимизации может привести к бану сайта – то есть принудительному исключению сайта из индекса (базы данных) поисковой системы.

2.3.7 Однопиксельные ссылки
Использование графических изображений-ссылок размером 1*1 пиксель (то есть фактически невидимых посетителю) также воспринимается поисковыми системами как попытка обмана и может привести к бану сайта.

3 Внешние факторы ранжирования


3.1 Для чего используется учет внешних ссылок на сайт
Как можно видеть из предыдущего раздела, почти все факторы, влияющие на ранжирование, находятся под контролем автора страницы. Таким образом, для поисковой системы становится невозможным отличить действительно качественный документ, от страницы созданной специально под заданную поисковую фразу или даже страницы, сгенерированной роботом и вообще не несущей полезной информации. Поэтому одним из ключевых факторов при ранжировании страниц является анализ внешних ссылок на каждую оцениваемую страницу. Это единственный фактор, который неподконтролен автору сайта.

Логично предположить, что чем больше внешних ссылок имеется на сайт, тем больший интерес этот сайт представляет для посетителей. Если владельцы других сайтов в сети поставили ссылку на оцениваемый ресурс, значит, они считают этот ресурс достаточно качественным. Следуя этому критерию, поисковая система также может решить, какой вес придать тому или иному документу.

Таким образом, существует два основных фактора, по которым страницы, имеющиеся в базе поисковика, будут отсортированы при выдаче. Это релевантность (то есть, насколько рассматриваемая страница связана с темой запроса – факторы, описанные в предыдущем разделе) и число и качество внешних ссылок. Последний фактор также получил названия ссылочная цитируемость, ссылочная популярность или индекс цитирования.

3.2 Важность ссылок (индекс цитируемости)
Легко увидеть, что простой подсчет числа внешних ссылок не дает нам достаточной информации для оценки сайта. Очевидно, что ссылка с сайта www.microsoft.com должна значить гораздо больше, чем ссылка с домашней страницы www.hostingcompany.com/~myhomepage.html, поэтому сравнивать популярность сайтов лишь по числу внешних ссылок нельзя – необходимо учитывать также и важность ссылок.

Для оценки числа и качества внешних ссылок на сайт поисковые системы вводят понятие индекса цитирования.

Индекс цитирования или ИЦ - это общее обозначение численных показателей, оценивающих популярность того или иного ресурса, то есть некоторое абсолютное значение важности страницы. Каждая поисковая система использует свои алгоритмы для подсчета собственного индекса цитирования, как правило, эти значения нигде не публикуются

Помимо обыкновенного индекса цитирования, который представляет собой абсолютный показатель (то есть некоторое конкретное число), вводится термин взвешенный индекс цитирования, который является относительным значением, то есть показывает популярность данной страницы относительно популярности остальных страниц в Интернет. Термин "взвешенный индекс цитирования" (ВИЦ) обычно употребляют в отношении поисковой системы Яндекс.

Подробное описание индексов цитирования и алгоритмов их подсчета будет представлено в следующих разделах.

3.3. Ссылочный текст
Огромное значение при ранжировании результатов поиска придается тексту внешних ссылок на сайт.

Текст ссылки (или по другому якорный или ссылочный текст) – это текст, стоящий между тегами «A» и «/A», то есть тот текст, по которому можно “кликнуть” указателем мыши в браузере для перехода на новую страницу.

Если текст ссылки содержит нужные ключевые слова, то поисковая система воспринимает это как дополнительную и очень важную рекомендацию, подтверждение того, что сайт действительно содержит ценную информацию, соответствующую теме поискового запроса.

3.4 Релевантность ссылающихся страниц
Кроме ссылочного текста учитывается также общее информационное содержимое ссылающейся страницы.

Пример. Предположим, мы продвигаем ресурс по продаже автомобилей. В этом случае, ссылка с сайта по ремонту автомобилей будет значить гораздо больше, чем аналогичная ссылка с сайта по садоводству. Первая ссылка идет с тематически схожего ресурса, поэтому будет в большей степени оценена поисковой системой.

3.5 Google PageRank – теоретические основы
Первыми, кто запатентовал систему учета внешних ссылок стала компания Google. Алгоритм получил название PageRank. В этой главе мы расскажем об этом алгоритме и о том, как он может влиять на ранжирование результатов поиска.

PageRank рассчитывается для каждой веб-страницы отдельно, и определяется PageRank’ом (цитируемостью) ссылающихся на нее страниц. Своего рода замкнутый круг.

Главная задача заключается в том, чтобы найти критерий, выражающий важность страницы. В случае с PageRank таким критерием была выбрана теоретическая посещаемость страницы.

Рассмотрим модель путешествия пользователя по сети путем перехода по ссылкам. Предполагается, что пользователь начинает просмотр сайтов с некоторой случайно выбранной страницы. Затем по ссылкам он переходит на другие ресурсы. При этом есть вероятность того, что посетитель покинет сайт и вновь начнет просмотр документов со случайной страницы (в алгоритме PageRank вероятность такого действия принята 0.15 на каждом шаге). Соответственно, с вероятностью 0.85 он продолжит путешествие, перейдя по одной из доступных на текущей странице ссылок (все ссылки при этом равноправны). Продолжая путешествие до бесконечности, он побывает на популярных страницах много раз, а на малоизвестных - меньше.

Таким образом, PageRank веб-страницы определяется как вероятность нахождения пользователя на данной веб-странице; при этом сумма вероятностей по всем веб-страницам сети равна единице, так как пользователь обязательно находится на какой-либо странице.

Поскольку оперировать вероятностями не всегда удобно, то после ряда преобразований с PageRank можно работать в виде конкретных чисел (как, например, мы привыкли видеть его в Google ToolBar, где каждая страница имеет PageRank от 0 до 10).

Согласно описанной выше модели получаем, что:
- каждая страница в сети (даже если на нее нет внешних ссылок) изначально имеет ненулевой PageRank (хотя и очень маленький);
- каждая страница, имеющая исходящие ссылки, передает часть своего PageRank страницам, на которые ссылается. При этом переданный PageRank обратно пропорционален числу ссылок на странице – чем больше ссылок, тем меньший PageRank передается по каждой;
- PageRank передается не полностью, на каждом шаге происходит затухание (та самая вероятность 15%, когда пользователь начинает просмотр с новой, случайно выбранной, страницы).

Рассмотрим теперь, каким образом PageRank может влиять на ранжирование результатов поиска (говорим «может», так как в чистом виде PageRank уже давно не участвует в алгоритме Google, как это было раньше, но об этом ниже). С влиянием PageRank все обстоит очень просто – после того как поисковая система нашла ряд релевантных документов (используя текстовые критерии), отсортировать их можно согласно PageRank – так как логично будет предположить, что документ, имеющий большее число качественных внешних ссылок, содержит наиболее ценную информацию.

Таким образом, алгоритм PageRank "вытесняет" наверх в поиске те документы, которые и без поисковика наиболее популярны.

3.6 Google PageRank – практическое использование
В настоящее время PageRank не используется непосредственно в алгоритме Google. Это и понятно – ведь PageRank характеризует лишь количество и качество внешних ссылок на сайт, но совершенно не учитывает ссылочный текст и информационное содержимое ссылающихся страниц – а именно этим факторам придется максимальное значение при ранжировании. Предполагается, что для ранжирования Google использует так называемый тематический PageRank (то есть учитывающий только ссылки с тематически связанных страниц), однако детали этого алгоритма известны лишь разработчикам Google.

Узнать значение PageRank для любой веб-страницы можно с помощью Google ToolBar, который показывает значение PageRank в диапазоне от 0 до 10. Следует учитывать, что Google ToolBar показывает не точное значение PageRank, а лишь диапазон PageRank, в который попадает сайт, причем номер диапазона (от 0 до 10) определяется по логарифмической шкале.

Поясним на примере: каждая страница имеет точное значение PageRank, известное только Google. Для определения нужного диапазона и вывода информации на ToolBar используется логарифмическая шкала (пример показан в таблице)
Реальное значение PR Значение ToolBar
1-10 1
10-100 2
100-1000 3
1000-10.000 4
и т.д.


Все цифры условны, однако наглядно демонстрируют, что диапазоны PageRank, показываемые в Google ToolBar, не равнозначны друг другу. Например, поднять PageRank c 1 до 2 легко, а с 6 до 7 гораздо сложнее.

На практике PageRank используется в основном в двух целях:

1. Быстрая оценка уровня раскрученности сайта. PageRank не дает точной информации о ссылающихся страницах, но позволяет быстро и просто «прикинуть» уровень развития сайта. Для англоязычных сайтов можно придерживаться следующей градации: PR 4-5 – наиболее типичный PR для большинства сайтов средней раскрученности. PR 6 – очень хорошо раскрученный сайт. PR 7 – величина, практически недостижимая для обычного вебмастера, но иногда встречается. PR 8, 9, 10 – встречаются только у сайтов крупных компаний (Microsoft, Google и т.п.). Знание PageRank можно использовать при обмене ссылками, для того чтобы оценить качество предложенной к обмену страницы и в других подобных ситуациях.

2. Оценка уровня конкуренции по поисковому запросу. Хотя PageRank и не используется непосредственно в алгоритмах ранжирования, тем не менее позволяет косвенно оценить конкурентность заданного запроса. Например, если в выдаче поисковой системы стоят сайты с PageRank 6-7, то сайт с PageRank 4 имеет очень мало шансов подняться в топ.

Еще одно важное замечание – значения PageRank, показываемые в Google ToolBar пересчитываются достаточно редко (раз в несколько месяцев), поэтому ToolBar показывает в некотором роде устаревшую информацию. То есть сама поисковая система Google учитывает изменения во внешних ссылках гораздо быстрее, чем эти изменения отображаются в Google ToolBar.

3.7 ТИЦ и ВИЦ Яндекс
ВИЦ – взвешенный индекс цитирования – аналог PageRank, применяемый поисковой системой Яндекс. Значения ВИЦ нигде не публикуются и известны только Яндексу. Поскольку узнать ВИЦ нельзя, следует просто помнить, что у Яндекса есть собственный алгоритм оценки «важности» страниц.

ТИЦ – тематический индекс цитирования – рассчитывается для сайта в целом и показывает авторитетность ресурса относительно других, тематически близких ресурсов (а не всех сайтов Интернета в целом). ТИЦ используется для ранжирования сайтов в каталоге Яндекса и не влияет на результаты поиска в самом Яндексе.

Значения ТИЦ показываются в Яндекс.Баре. Следует лишь помнить, что ТИЦ рассчитывается для сайта в целом, а не для каждой конкретной страницы.

На практике ТИЦ можно использовать для тех же целей, что и PageRank – оценка раскрученности сайта и оценка уровня конкуренции по заданному поисковому запросу. В силу охвата Интернета поисковой системой Яндекс, ТИЦ очень хорошо подходит для оценки русскоязычных сайтов.

3.8 Увеличение ссылочной популярности
3.8.1 Сабмит в каталоги общего назначения
В Интернете существует большое число сайтов-каталогов (директорий), которые содержат ссылки на другие ресурсы сети, разбитые по тематике. Процесс добавления в них информации о своем сайте называется сабмитом (от англ. submit).

Такие каталоги бывают платными и бесплатными, могут требовать или не требовать обратную ссылку с вашего сайта. Посещаемость их очень невелика, то есть реального притока посетителей с них не получить. Однако, поисковые системы учитывают ссылки с таких каталогов, что может поднять ваш сайт в результатах поиска.

Важно! Учитывайте, что реальную ценность представляют лишь те каталоги, которые размещают прямую ссылку на ваш сайт. На этом моменте стоит остановиться подробнее. Существует два способа простановки ссылки. Прямая ссылка ставится через стандартную конструкцию языка HTML («A href=... и т.д.»). Кроме этого, ссылки можно ставить через различного рода скрипты, редиректы и т.п. Поисковые системы понимают лишь прямые ссылки, непосредственно заданные в html-коде. Поэтому, если каталог не предоставляет прямой ссылки на ваш сайт, то ценность его близка к нулю.

Не следует сабмититься в FFA (free-for-all) каталоги. Такие каталоги автоматически размещают у себя ссылки любой тематики, они игнорируются поисковыми системами. Единственное, к чему приведет сабмит в FFA – это увеличение спама на ваши е-майл адреса. На самом деле главная цель FFA в этом и заключается.

С осторожностью относитесь к обещаниям различных программ и сервисов добавить ваш ресурс в сотни тысяч поисковых систем, каталогов и директорий. Действительно полезных каталогов в сети наберется не более нескольких сотен, от этой цифры и нужно отталкиваться. Профессиональные сервисы по сабмиту работают как раз с таким количеством каталогов. Если же обещаются огромные цифры в сотни тысяч ресурсов, значит база сабмита состоит в основном из упомянутых FFA архивов и прочих бесполезных ресурсов.

Отдавайте предпочтение ручному или полуавтоматическому сабмиту – не доверяйте полностью автоматизированным процессам. Как правило, сабмит, проходящий под контролем человека, дает гораздо лучшую отдачу, чем полностью автоматический сабмит.

Необходимость добавления сайта в платные каталоги, либо проставления ответной обратной ссылки со своего сайта нужно решать отдельно по каждому каталогу. В большинстве случаев особого смысла это не имеет, однако могут быть исключения.

Сабмит сайта в каталоги не дает очень значимого эффекта, однако несколько улучшает видимость сайта в поисковых системах. Возможность эта общедоступна и не требует больших временных или финансовых затрат, поэтому не забывайте о ней при раскрутке вашего проекта.

Один из старейших и хорошо себя зарекомендовавших себя сервисов - 1PS.ru

3.8.2 Каталог DMOZ
Каталог DMOZ (www.dmoz.org) или Open Directory Project является крупнейшим каталогом Интернета. Кроме того, в Интернете существует большое число копий основного сайта DMOZ. Таким образом, разместив ваш сайт в каталоге DMOZ, вы получите не только ценную ссылку из самого каталога, но и еще несколько десятков ссылок от родственных ему ресурсов. Таким образом, каталог DMOZ представляет большую ценность для вебмастера.

Попасть в каталог непросто, вернее это зависит от вашего везения. Сайт может появиться в каталоге через несколько минут после добавления, а может и много месяцев прождать своей очереди.

Если ваш сайт не появляется в каталоге в течение длительного времени, но вы уверены, что все сделали правильно и сайт подходит для каталога по своим параметрам, можно попробовать написать редактору вашей категории с вопросом о своей заявке (сайт DMOZ предоставляет такую возможность). Никаких гарантий, конечно, не дается, однако это может помочь.

Добавление в каталог DMOZ бесплатно, в том числе и для коммерческих сайтов.

3.8.3 Каталог Яндекса
Присутствие в каталоге Яндекса дает ценную тематическую ссылку на ваш сайт, что способно улучшить позиции вашего сайта в поисковой системе. Кроме того, сам каталог Яндекса способен дать некоторый трафик на ваш сайт. Объем этого трафика зависит от рубрики каталога и ТИЦ вашего сайта (в каталоге сайты сортируются по ТИЦ), в некоторых случаях трафик из каталога может быть довольно значительным

Существуют платный и бесплатный варианты добавления информации в каталог Яндекса. Конечно, в случае бесплатного варианта ни сроки, ни само добавление сайта никак не гарантируются.

В заключение еще пара рекомендаций по сабмиту в такие важные каталоги, как DMOZ и Яндекс. Прежде всего, внимательно прочитайте требования к сайтам, описаниям и т.п., чтобы не нарушить правил при подаче заявки (это может привести к тому, что ваша заявка не будет рассматриваться).

И второе – присутствие в этих каталогах есть требование желательное, но не обязательное. Если вам не удается попасть в эти директории, не стоит отчаиваться – добиться высоких позиций в результатах поиска можно и без этих каталогов, большинство сайтов именно так и делают.

3.8.4 Обмен ссылками
Обмен ссылками заключается в том, что вы со специально отведенной страницы ставите ссылки на другие сайты, сами же получаете аналогичные ссылки от них. Вообще, поисковые системы не приветствуют обмен ссылками, так как в большинстве случаев он имеет целью изменить выдачу поисковой системы и не несет ничего полезного пользователям Интернета. Однако, это эффективный способ увеличения ссылочной популярности, если соблюдать несколько простых правил.

- меняйтесь ссылками с тематически связанными сайтами. Обмен с нетематическими сайтами малоэффективен;

- перед обменом убедитесь, что вашу ссылку разместят на «хорошей» странице. То есть страница должна иметь некоторый PageRank (желательно 3-4 или выше), должна быть доступна для индексации поисковыми системами, размещаемая ссылка должна быть прямая, общее число ссылок на странице не должно превышать 50 и т.д.;

- не создавайте на сайте каталогов ссылок. Идея такого каталога выглядит привлекательно – появляется возможность меняться с большим количеством сайтов любых тематик, для любого сайта найдется соответствующая категория в каталоге. Однако в нашем случае качество важнее количества и здесь существует ряд подводных камней. Ни один вебмастер не поставит на вас качественную ссылку, если в ответ он получает ссылку-пустышку из вашего каталога (PageRank страниц из таких каталогов, как правило, оставляет желать лучшего). Кроме того, поисковые системы относятся крайне негативно к подобным каталогам, были также случаи бана сайтов за использование таких каталогов;

- выделяйте отдельную страницу на сайте под обмен ссылками. Она должна иметь некоторый PageRank, быть проиндексирована поисковыми системами и т.д. Не ставьте более 50 ссылок с одной и той же страницы (иначе часть ссылок может быть не учтена поисковыми системами). Это поможет вам легче находить партнеров по обмену;

- поисковые системы стараются отслеживать взаимные ссылки, поэтому, если есть возможность, используйте для размещения ответных ссылок другой домен/сайт, отличный от продвигаемого. Например, вы продвигаете ресурс site1.com, а ответные ссылки ставите на ресурсе site2.com – это оптимальный вариант;

- проявляйте некоторую осторожность при обмене. Довольно часто приходится сталкиваться с тем, что не совсем честные вебмастера удаляют ваши ссылки со своих ресурсов, поэтому необходимо время от времени проверять наличие своих ссылок.

3.8.5 Пресс-релизы, новостные ленты, тематические ресурсы
Этот раздел относится уже скорее к маркетингу сайта, а не к чистому seo. Существует большое число информационных ресурсов и новостных лент, которые публикуют пресс-релизы и новости на различные темы. Такие сайты способны не только привести к вам посетителей напрямую, но и повысить столь нужную нам ссылочную популярность сайта.

Если вы затрудняетесь создать пресс-релиз или новость самостоятельно, то подключайте журналистов – они помогут вам найти или создать информационный повод.

Ищите тематически связанные ресурсы. В Интернете существует огромное количество проектов, которые, не являясь вашими конкурентами, посвящены той же тематике, что и ваш сайт. Старайтесь найти подход к владельцам этих ресурсов, вполне вероятно, что они будут рады разместить информацию о вашем проекте.

И последнее – это относится ко всем способам получения внешних ссылок – старайтесь несколько разнообразить ссылочный текст. Если все внешние ссылки на ваш сайт будут иметь одинаковый ссылочный текст, то это может быть понято поисковыми системами как попытка спама.

4 Индексация сайта


Прежде чем сайт появится в результатах поиска, он должен быть проиндексирован поисковой системой. Индексация означает, что поисковый робот посетил ваш сайт, проанализировал его и занес информацию в базу данных поисковой системы.

Если некоторая страница занесена в индекс поисковика, то она может быть показана в результатах поиска. Если страница в индексе отсутствует, то поисковая система ничего не знает о ней, и, следовательно, никак не может использовать информацию с этой страницы.

Большинство сайтов среднего размера (то есть содержащих несколько десятков или сотен страниц) обычно не испытывают никаких проблем с правильной индексацией поисковыми системами. Однако, существует ряд моментов, которые стоит учитывать при работе над сайтом.

Поисковая система может узнать о вновь созданном сайте двумя путями:

- ручное добавление адреса сайта через соответствующую форму поисковой системы. В этом случае вы сами сообщаете поисковой системе о новом сайте и его адрес попадает в очередь на индексацию. Добавлять следует лишь главную страницу сайта, остальные будут найдены поисковым роботом по ссылкам;

- предоставить поисковому роботу самостоятельно найти ваш сайт. Если на ваш новый ресурс есть хотя бы одна внешняя ссылка с других ресурсов, уже проиндексированных поисковой системой, то поисковый робот в короткие сроки сам посетит и проиндексирует ваш сайт. В большинстве случаев рекомендуется использовать именно этот вариант, то есть получить несколько внешних ссылок на сайт и просто дождаться прихода робота. Ручное добавление сайта может даже удлинить время ожидания робота.

Время необходимое для индексации сайта составляет, как правило, от 2-3 дней до 2 недель, в зависимости от поисковой системы. Быстрее всех индексирует сайты поисковая система Google.

Старайтесь сделать сайт дружественным для поисковых роботов. Для этого учитывайте следующие факторы:

- старайтесь, чтобы любые страницы вашего сайта были доступны по ссылкам с главной страницы не более чем за 3 перехода. Если структура сайта этого не допускает, то сделайте так называемую карту сайта, которая позволит выполнять указанное правило;

- не повторяйте распространенных ошибок. Идентификаторы сессий затрудняют индексацию. Если вы используете навигацию через скрипты, то обязательно дублируйте ссылки обычным образом – поисковые системы не умеют читать скрипты (подробнее об этих и других ошибках рассказано в главе 2.3);

- помните, что поисковые системы индексируют не более 100-200 кб текста на странице. Для страниц большего объема будет проиндексировано только начало страницы (первые 100-200 кб.). Из этого следует правило – не используйте страницы размером более 100 кб, если хотите, чтобы они были проиндексированы полностью.

Управлять поведением поисковых роботов можно с помощью файла robots.txt, в нем можно явно разрешить или запретить для индексации те или иные страницы. Существует также специальный тег «NOINDEX», позволяющий закрыть для индексации отдельные части страницы, однако этот тег поддерживается только российскими поисковыми системами.

Базы данных поисковых систем постоянно обновляются, записи в базе могут подвергаться изменениям, исчезать и появляться снова, поэтому число проиндексированных страниц вашего сайта может периодически меняться.

Одной из наиболее частых причин исчезновения страницы из индекса является недоступность сервера, то есть поисковый робот при попытке индексации сайта не смог получить доступ к нему. После восстановления работоспособности сервера сайт должен появиться в индексе снова через некоторое время.

Следует также заметить, что чем больше внешних ссылок имеет ваш сайт, тем быстрее происходит его переиндексация.

Отследить процесс индексации сайта можно с помощью анализа лог-файлов сервера, в которых записываются все визиты поисковых роботов. В соответствующем разделе мы подробно расскажем о программах, которые позволяют это сделать.

5 Подбор ключевых слов


5.1 Первоначальный выбор ключевых слов
Подбор ключевых слов – это первый шаг, с которого начинается построение сайта. На момент подготовки текстов на сайт набор ключевых слов уже должен быть известен.

Для определения ключевых слов прежде всего следует воспользоваться сервисами, которые предлагают сами поисковые системы.

Для англоязычных сайтов это www.wordtracker.com и inventory.overture.com

Для русскоязычных adstat.rambler.ru/wrds/, direct.yandex.ru и stat.go.mail.ru

При использовании этих сервисов нужно помнить, что их данные могут очень сильно отличаться от реальной картины. При использовании сервиса Yandex Директ следует также помнить, что этот сервис показывает не ожидаемое число запросов, а ожидаемое число показов рекламного объявления по заданной фразе. Поскольку посетители поисковой системы часто просматривают более одной страницы, то реальное число запросов обязательно меньше числа показов рекламы по тому же запросу.

Поисковая система Google не дает информации о частоте запросов.

После того, как список ключевых слов примерно определен можно провести анализ своих конкурентов, с целью выяснить, на какие ключевые фразы ориентируются они, возможно удастся узнать что-то новое.

5.2 Высокочастотники и низкочастотники
При оптимизации сайта можно выделить две стратегии – оптимизация под малое число высокопопулярных ключевых слов, либо под большое число малопопулярных. На практике обычно сочетаются обе.

Недостаток высокочастотных запросов – как правило, высокий уровень конкуренции по ним. Для молодого сайта не всегда бывает возможно подняться в топ по этим запросам.

Для низкочастотных же запросов, часто бывает достаточным упоминание нужного словосочетания на странице, либо минимальной текстовой оптимизации. При определенных условиях низкочастотные запросы могут давать очень неплохой поисковый трафик.

Цель большинства коммерческих сайтов – продать тот или иной товар или услугу, либо каким-то другим способом заработать на своих посетителях. Это нужно учитывать при поисковой оптимизации и при подборе ключевых слов. Нужно стремиться получать целевых посетителей на сайт (то есть готовых к покупке предлагаемого товара или услуги), нежели просто к большому числу посетителей.

Пример. Запрос «монитор» намного более популярен и в разы более конкурентен, чем запрос «монитор samsung 710N» (точное название модели). Однако, для продавца мониторов второй посетитель гораздо более ценен, а получить его гораздо легче, так как уровень конкуренции по второму запросу небольшой. Это еще одно возможное различие между высокочастотными и низкочастотными запросами, которое следует учитывать.

5.3 Оценка уровня конкуренции поисковых запросов
После того, как набор ключевых слов приблизительно известен, следует определить основное ядро слов, под которые будет проводиться оптимизация.

Низкочастотные запросы по понятным причинам отбрасываются сразу (временно). В предыдущем разделе мы описали пользу от низкочастотных запросов, однако на то они и низкочастотные, что не требуют особой оптимизации. Поэтому в данном разделе мы их не рассматриваем.

По очень популярным фразам уровень конкуренции как правило очень высок, поэтому нужно реально оценить возможности своего сайта. Для оценки уровня конкуренции следует подсчитать ряд показателей для первой десятки сайтов в выдаче поисковика:
- средний PageRank страниц в выдаче;
- средний ТИЦ сайтов, чьи страницы попали в выдачу;
- среднее число внешних ссылок на сайты в выдаче по версии различных поисковых систем;

Дополнительные параметры:
- число страниц в Интернете, содержащих заданный поисковый термин (другими словами число результатов поиска);
- число страниц в Интернете, содержащих точное совпадение заданной фразы (как при поиске в кавычках).

Эти дополнительные параметры помогут косвенно оценить сложность вывода сайта в топ по заданной фразе.

Кроме описанных параметров, можно также проверить какое число сайтов из выдачи присутствуют в основных каталогах, таких как каталоги DMOZ, Yahoo и Yandex.

Анализ всех указанных выше параметров и сравнение их с параметрами собственного сайта позволят достаточно четко предсказать перспективы вывода вашего сайта в топ по указанной фразе.

Оценив уровень конкуренции по всем подобранным фразам, вы сможете выбрать ряд достаточно популярных фраз с приемлемым уровнем конкуренции, на которые и будет сделана основная ставка при раскрутке и оптимизации.

5.4 Последовательное уточнение поисковых запросов
Как уже говорилось выше, сервисы поисковых систем часто дают очень неточную информацию. Поэтому определить идеальный для вашего сайта набор ключевых слов с первого раза удается довольно редко.

После того, как ваш сайт сверстан и произведены определенные шаги по его раскрутке, в ваших руках оказывается дополнительная статистика по ключевым словам: вы знаете рейтинг вашего сайта в выдаче поисковых систем по той или иной фразе и знаете также число заходов на ваш сайт по этой фразе.

Владея этой информацией можно довольно четко определить удачные и неудачные фразы. Зачастую даже не нужно ждать, чтобы сайт вышел в топ по оцениваемым фразам во всех поисковых системах – достаточно одной или двух.

Пример. Допустим ваш сайт занял первое место в поисковой системе Rambler по данной фразе. При этом ни в Яндексе, ни в Google его еще нет в выдаче по этой фразе. Однако, зная процентное соотношение заходов на ваш сайт из различных поисковых систем (например, Yandex – 70%, Google – 20%, Rambler – 10%), вы уже можете предсказать примерный трафик по этой фразе и решить, подходит она для вашего сайта или нет.

Помимо выделения неудачных фраз, вы можете найти новые удачные варианты. Например, увидеть, что некоторая фраза, под которую не делалось никакой раскрутки, приносит неплохой трафик, даже несмотря на то, что ваш сайт по этой фразе находится на 2 или 3 странице в выдаче.

Таким образом, в ваших руках оказывается новый, уточненный набор ключевых слов. После этого следует приступить к перестройке сайта – изменение текстов под более удачные словосочетания, создание новых страниц под новые найденные фразы и т.д. Таким образом, через некоторое время вы сможете найти наилучший набор ключевых слов для вашего сайта и существенно увеличить поисковый трафик.

Еще некоторые советы. По статистике, на главную страницу сайта приходится до 30%-50% всего поискового трафика. Она лучше всего видна в поисковиках и имеет больше всего внешних ссылок. Поэтому главную страницу сайта следует оптимизировать под наиболее популярные и конкурентные запросы. Каждую страницу сайта следует оптимизировать под 1-2 основных словосочетания (и, возможно, под ряд низкочастотных запросов). Это увеличит шансы выхода в топ поисковых систем по заданным фразам.

6 Различная информация о поисковых системах


6.1 Google SandBox
В начале 2004 года в среде оптимизаторов обозначилось новое таинственное понятие – Google SandBox или песочница Google. Такое обозначение получил новый спам-фильтр Google, направленный на исключение из выдачи молодых, вновь созданных сайтов.

Фильтр SandBox проявляется в том, что вновь созданные сайты отсутствуют в выдаче поисковой системы практически по всем фразам. Это происходит, несмотря на наличие качественного и уникального информационного содержимого и правильно проведенную раскрутку (без использования спам-методов).

На данный момент SandBox касается только англоязычного сегмента, сайты на русском и других языках этому фильтру не подвергаются. Однако, вполне вероятно что этот фильтр может расширить свое влияние.

Можно предположить, что цель SandBox фильтра исключить из выдачи спам-сайты – действительно, ни один поисковый спамер не сможет ждать месяцы до появления результатов. Однако вместе с этим страдает огромное количество нормальных, вновь созданных сайтов.

Точной информации о том, что же конкретно представляет из себя SandBox фильтр до сих пор нет. Существует ряд предположений, полученных на основании опыта, которые мы и приведем ниже:

- SandBox – это фильтр на молодые сайты. Вновь созданный сайт попадает в «песочницу» и находится в ней неопределенное время, пока поисковая система не переведет его в разряд «обычных»;

- SandBox – это фильтр на новые ссылки, проставляемые на вновь созданные сайты. Постарайтесь заметить принципиальное отличие от предыдущего предположения – фильтр накладывается не на возраст сайта, а на возраст ссылок на сайт. Другими словами Google не имеет претензий к сайту, однако отказывается учитывать внешние ссылки на него, если с момента их появления прошло менее X месяцев. Так как внешние ссылки являются одним из основных факторов ранжирования, игнорирование внешних ссылок равносильно отсутствию сайта в выдаче поисковой системы. Какое из двух приведенных предположений более верно сказать сложно, вполне вероятно, что оба они верны ;

- сайт может находится в песочнице от 3-х месяцев до года и более. Есть также наблюдение, что сайты выходят из песочницы в массовом порядке. Т.е. срок песочницы определяется не индивидуально для каждого сайта, а для больших групп сайтов (сайты созданные в некотором временном диапазоне попадают в одну группу). Фильтр затем снимается сразу для всей группы, таким образом, сайты из одной группы пробудут в «песке» разное время.

Типичные признаки того, что ваш сайт находится в песочнице:

- ваш сайт нормально проиндексирован Google, регулярно посещается поисковым роботом;
- ваш сайт имеет PageRank, поисковая система знает и корректно отображает внешние ссылки на ваш сайт;
- поиск по адресу сайта (www.site.com) выдает правильные результаты, с правильным заголовком, сниппетом (описание ресурса) и т.д.;
- ваш сайт нормально находится по редким и уникальным словосочетаниям, содержащимся в тексте страниц;
- ваш сайт не виден в первой тысяче результатов по любым иным запросам, даже по тем, под которые он изначально создавался. Иногда встречаются исключения и сайт по некоторым запросам появляется на 500-600 позициях, что, конечно, сути не меняет.

Методов обхода фильтра практически не существует. Есть ряд предположений, о том, как это можно сделать, однако это не более чем предположения, к тому же малоприемлимые для обычного вебмастера. Основной метод – это работать над сайтом и ждать окончания фильтра.

После того, как фильтр снимается, происходит резкий рост рейтингов на 400-500 и более позиций.

6.2 Google LocalRank
25 февраля 2003 года компания Google запатентовала новый алгоритм ранжирования страниц, получивший название LocalRank. В основе лежит идея о том, чтобы ранжировать страницы не по их глобальной ссылочной цитируемости, а по цитируемости среди группы страниц, тематически связанных с запросом.

Алгоритм LocalRank не используется на практике (по крайней мере, в том виде, в каком он описывается в патенте), однако, патент содержит ряд интересных идей, с которыми, мы считаем, должен быть знаком каждый оптимизатор. Учет тематики ссылающихся страниц используется почти всеми поисковыми системами. Хотя происходит это, видимо, по несколько другим алгоритмам, изучение патента позволит уяснить общие идеи, как это может быть реализовано.

При чтении этой главы учитывайте, что в ней представлена теоретическая информация, а не практическое руководство к действию.

Основную идею алгоритма LocalRank выражают следующие три пункта:

1. Используя некоторый алгоритм, выбирается определенное число документов, релевантных поисковому запросу (обозначим это число N). Эти документы изначально отсортированы согласно некоторому критерию (это может быть PageRank, либо оценка релевантности или какой-либо другой критерий или их группировка). Обозначим численное выражение данного критерия как OldScore.

2. Каждая из N страниц проходит новую процедуру ранжирования, в результате которой каждая страница получает некоторый новый ранг. Обозначим его LocalScore.

3. На этом шаге величины OldScore и LocalScore перемножаются, в результате чего получается новая величина NewScore, согласно которой и происходит итоговое ранжирование страниц.

Ключевой в данном алгоритме является новая процедура ранжирования, в результате которой каждой странице присваивается новый ранг LocalScore. Опишем эту процедуру подробнее.

0. Используя некоторый алгоритм ранжирования отбираются N страниц, отвечающих поисковому запросу. Новый алгоритм ранжирования будет работать только с этими N страниц. Каждая страница в этой группе имеет некоторый ранг OldScore.

1. При расчете LocalScore для данной страницы выделяются все страницы из N, которые имеют внешние ссылки на данную страницу. Обозначим множество этих страниц M. При этом, в множество M не попадут страницы с того же хоста (host, фильтрация произойдет по IP адресу), а также страницы, являющиеся зеркалами данной.

2. Множество M разбивается на подмножества Li . В эти подмножества попадают страницы, объединенные следующими признаками:
- принадлежность одному (или сходным) хостам. Таким образом, в одну группу попадут страницы, у которых первые три октета IP адреса совпадают. То есть, страницы, IP адрес которых принадлежит диапазону
xxx.xxx.xxx.0
xxx.xxx.xxx.255

будут считаться принадлежащими одной группе;
- страницы, которые имеют одинаковое или схожее содержание (зеркала, mirrors);
- cтраницы одного сайта (домена).

3. Каждая страница в каждом множестве Li имеет некоторый ранг (OldScore). Из каждого множества выбирается по одной странице с самым большим OldScore, остальные исключаются из рассмотрения. Таким образом, мы получаем некоторое множество K страниц, ссылающихся на данную страницу.

4. Страницы в множестве K сортируются согласно параметру OldScore, затем в множестве K остаются только k первых страниц (k – некоторое заданное число), остальные страницы исключаются из рассмотрения.

5. На данном шаге рассчитывается LocalScore. По оставшимся k страницам происходит суммирование их значений OldScore. Это можно выразить следующей формулой:
formula.JPG - 2826 Bytes
Здесь m – некоторый заданный параметр, который может варьироваться от 1 до 3 (к сожалению, информация, содержащаяся в патенте на описываемый алгоритм, не дает подробного описания данного параметра).

После того, как расчет LocalScore для каждой страницы из множества N закончен, происходит расчет значений NewScore и пересортировка страниц согласно новому критерию. Для рассчета NewScore используется следующая формула:

NewScore(i)= (a+LocalScore(i)/MaxLS)*(b+OldScore(i)/MaxOS)

i – страница, для которой рассчитывается новое значение ранга.

a и b – некоторые числа (патент не дает более подробной информации об этих параметрах).

MaxLS – максимальное из рассчитанных значений LocalScore

MaxOS – максимальное из значений OldScore

Теперь постараемся отвлечься от математики и повторим все вышесказанное простым языком.

На первом этапе происходит отбор некоторого количества страниц соответствующих запросу. Это делается по алгоритмам, не учитывающим тематику ссылок (например, по релевантности и общей ссылочной популярности).

После того, как группа страниц определена, будет подсчитана локальная ссылочная популярность каждой из страниц. Все страницы так или иначе связаны с темой поискового запроса и, следовательно, имеют отчасти схожу тематику. Проанализировав ссылки друг на друга в отобранной группе страниц (игнорируя все остальные страницы в Интернете), получим локальную (тематическую) ссылочную популярность.

После проделанного шага у нас есть значения OldScore (рейтинг страницы на основе релевантности, общей ссылочной популярности и других факторов) и LocalScore (рейтинг страницы среди тематически связанных страниц). Итоговый рейтинг и ранжирование страниц проводится на основе сочетания этих двух факторов.

6.3 Особенности работы различных поисковых систем
Все, сказанные выше идеи по текстовой оптимизации и увеличению ссылочной популярности применимы ко всем поисковым системам в равной степени. Более подробное описание Google объясняется большим наличием информации об этой поисковой системе в свободном доступе, однако идеи, высказанные в отношении Google, в большой степени применимы и к другим поисковым системам.

Вообще, я не являюсь сторонником поиска «секретного знания» о том, как детально работают алгоритмы различных поисковых систем. Все они в той или иной мере подчиняются общим правилам и грамотная работа над сайтом (без учета каких-либо особенностей) приводит к хорошим позициям почти во всех поисковых системах.

Тем не менее, приведем некоторые особенности различных поисковых систем:

Google – очень быстрая индексация, очень большое значение придается внешним ссылкам. База Google используется очень большим числом других поисковых систем и порталов.

MSN – больший, нежели у других поисковых систем, акцент на информационное содержимое сайта.

Yandex – крупнейшая российская поисковая система. Обрабатывает (по разным данным) от 60% до 80% всех русскоязычных поисковых запросов. Уделяет особое внимание тематическим ссылкам (нетематические внешние ссылки также имеют эффект, но в меньшей степени, чем у других поисковых систем). Индексация проходит медленнее, чем у Google, однако так же в приемлемые сроки. Понижает в рейтинге или исключает из индекса сайты, занимающиеся нетематическим ссылкообменом (содержащих каталоги нетематических ссылок, созданных лишь с целью повышения рейтинга сайта), а также сайты, участвующие в системах автоматического обмена ссылками. В периоды обновлений базы, которые длятся несколько дней, выдача Яндекса постоянно меняется, в такие периоды следует отказаться от каких-либо работ по сайту и дождаться стабильных результатов работы поисковой системы.

Еще одна особенность Яндекс – различные результаты поиска в зависимости от регистра ключевых слов (т.е. «Слово» и «слово» дают разные результаты поиска).

Rambler – наиболее загадочная поисковая система. Занимает второе (по другим данные третье после Google) место по популярности среди российских пользователей. По имеющимся наблюдениям, понижает в рейтинге сайты, активно занимающиеся раскруткой (быстрое увеличение числа внешних ссылок). Ценит наличие поисковых терминов в простом тексте страницы (без выделения различными стилистическими тегами).

Mail.ru – набирающая популярность поисковая система. Использует результаты поисковой системы Google после некоторой дополнительной обработки. Оптимизация под Mail.ru сводится к оптимизации под Google.

6.4 Советы, предположения, наблюдения
В данной главе представлена информация, появившаяся в результате анализа различных статей, общения оптимизаторов, практических наблюдений и т.п. Информация эта не является точной и достоверной – это всего лишь предположения и идеи, однако идеи интересные. Данные, представленные в этом разделе, воспринимайте не как точное руководство, а как информацию к размышлению.

- исходящие ссылки. Ссылайтесь на авторитетные в вашей области ресурсы, используя нужные ключевые слова. Поисковые системы ценят ссылки на другие ресурсы той же тематики;

- исходящие ссылки. Не ссылайтесь на FFA сайты и прочие сайты, исключенные из индекса поисковой системы. Это может привести к понижению рейтинга вашего собственного сайта;

- исходящие ссылки. Страница не должна содержать более 50-100 исходящих ссылок. Это не приводит к понижению страницы в рейтинге, но ссылки сверх этого числа не будут учтены поисковой системой;

- внешние site wide ссылки, то есть ссылки, стоящие на каждой странице сайта. Считается, что поисковые системы негативно относятся к таким ссылкам и не учитывают их при ранжировании. Существует также другое мнение, что это относится только к большим сайтам с тысячами страниц;

- идеальная плотность ключевых слов. Очень часто приходится слышать подобный вопрос. Ответ заключается в том, что идеальной плотности ключевых слов не существует, вернее она различная для каждого запроса, то есть рассчитывается поисковой системой динамически, в зависимости от поискового термина. Наш совет – проанализировать первые сайты из выдачи поисковой системы, что позволит примерно оценить ситуацию;

- возраст сайта. Поисковые системы отдают предпочтение старым сайтам, как более стабильным;

- обновление сайта. Поисковые системы отдают предпочтение развивающимся сайтам, то есть тем, на которых периодически добавляется новая информация, новые страницы;

- доменная зона (касается западных поисковиков). Предпочтение отдается сайтам, расположенным в зонах .edu, .mil, .gov и т.п. Такие домены могут зарегистрировать только соответствующие организации, поэтому доверия таким сайтам больше;

- поисковые системы отслеживают, какой процент посетителей возвращается к поиску, после посещения того или иного сайта из вылачи. Большой процент возвратов означает нетематическое содержимое, и такая страница понижается в поиске;

- поисковые системы отслеживают, насколько часто выбирается та или иная ссылка в результатах поиска. Если ссылка выбирается редко, значит, страница не представляет интереса и такая страница понижается в рейтинге;

- используйте синонимы и родственные формы ключевых слов, это будет оценено поисковыми системами

; - слишком быстрый рост числа внешних ссылок воспринимается поисковыми системами как искусственная раскрутка и ведет к понижению рейтинга. Очень спорное утверждение, прежде всего потому, что такой способ может использоваться для понижения рейтинга конкурентов;

- Google не учитывает внешние ссылки, если они находятся на одном (или сходных) хостах, то есть страницах, IP адрес которых принадлежит диапазону xxx.xxx.xxx.0 xxx.xxx.xxx.255. Такое мнение происходит скорее всего от того, что Google высказывал данную идею в своих патентах. Однако сотрудники Google заявляют, что никаких ограничений по IP адресу на внешние ссылки не налагается, и нет никаких оснований не доверять им;

- поисковые системы проверяют информацию о владельце домена. Соответственно ссылки с сайтов, принадлежащих одному владельцу имеют меньший вес, чем обычные ссылки. Информация представлена в патенте;

- срок, на который зарегистрирован домен. Чем больше срок, тем большее предпочтение отдается сайту;

6.5 Создание правильного контента
Контент (информационное содержимое сайта) играет важнейшую роль в раскрутке сайта. Тому есть множество причин, о которых мы расскажем в этой главе, а также дадим советы, как правильно наполнить сайт информацией.

- уникальность контента. Поисковики ценят новую информацию, нигде ранее не публиковавшуюся. Поэтому при создании сайта опирайтесь на собственные тексты. Сайт, построенный на основе чужих материалов, имеет гораздо меньшие шансы на выход в топ поисковых систем. Как правило, первоисточник всегда находится выше в результатах поиска;

- при создании сайта не забывайте, что он изначально создается для посетителей, а не для поисковых систем. Привести посетителя на сайт – это только первый и не самый трудный шаг. Удержать посетителя на сайте и превратить его в покупателя – вот действительно сложная задача. Добиться этого можно только грамотным информационным наполнением сайта, интересным для человека;

- старайтесь регулярно обновлять информацию на сайте, добавлять новые страницы. Поисковики ценят развивающиеся сайты. Кроме того, больше текста – больше посетителей на сайт. Пишите статьи на тему вашего сайта, публикуйте отзывы посетителей, создайте форум для обсуждения вашего проекта (последнее – только если посещаемость сайта позволит создать активный форум). Интересный контент – залог привлечения заинтересованных посетителей;

- сайт, созданный для людей, а не поисковых машин, имеет большие шансы на попадание в важные каталоги, такие как DMOZ, Яндекс и другие;

- интересный тематический сайт имеет гораздо больше шансов на получение ссылок, отзывов, обзоров и т.д. других тематических сайтов. Такие обзоры сами по себе могут дать неплохой приток посетителей, кроме того, внешние ссылки с тематических ресурсов будут по достоинству оценены поисковыми системами.

В заключение еще один совет. Как говорится, сапоги должен делать сапожник, а писать тексты должен журналист или технический писатель. Если вы сумеете создать увлекательные материалы для вашего сайта – это очень хорошо. Однако у большинства из нас нет особых способностей к написанию привлекательных текстов. Тогда лучше доверить эту часть работы профессионалам. Это более дорогой вариант, но в долгосрочной перспективе он себя оправдает.

6.6 Выбор домена и хостинга
В настоящее время создать свою страницу в Интернет может любой и для этого не нужно никаких затрат. Существуют компании, предоставляющие бесплатный хостинг, которые разместят вашу страницу в обмен на право показывать на ней свою рекламу. Многие Интернет-провайдеры также дадут вам место на своем сервере, если вы являетесь их клиентом. Однако все эти варианты имеют очень существенные недостатки, поэтому, при создании коммерческого проекта, вы должны отнестись к этим вопросам с большей ответственностью.

Прежде всего стоит купить свой собственный домен. Это дает вам следующие преимущества:

- проект, не имеющий собственного домена, воспринимается как сайт-однодневка. Действительно, почему мы должны доверять данному ресурсу, если его владельцы не готовы потратить даже символическую сумму для создания минимального имиджа. Размещение бесплатных материалов на таких ресурсах возможно, но попытка создания коммерческого проекта без собственного домена почти всегда обречена на неудачу;

- собственный домен дает вам свободу в выборе хостинга. Если текущая компания перестала вас устраивать, то вы в любой момент можете перенести свой сайт на другую, более удобную или быструю площадку.

При выборе домена помните о следующих моментах:

- старайтесь, чтобы имя домена было запоминающимся и его произношение и написание было бы однозначным;

- для раскрутки международных англоязычных проектов более всего подходят домены с расширением .com Можно также использовать домены из зон .net, .org, .biz и т.п., однако этот вариант менее предпочтителен;

- для раскрутки национальных проектов всегда следует брать домен в соответствующей национальной зоне (.ru – для русскоязычных проектов, .de – для немецких и т.д.);

- в случае двуязычных (и более) сайтов следует выделить свой домен под каждый из языков. Национальные поисковые системы в большей степени оценят такой подход, чем наличие на основном сайте подразделов на различных языках.

Стоимость домена составляет (в зависимости от регистратора и зоны) 10-20$ в год.

При выборе хостинга следует опираться на следующие факторы:

- скорость доступа;
- время доступности серверов (uptime);
- стоимость трафика за гигабайт и количество предоплаченного трафика;
- желательно, чтобы площадка располагалась в том же географическом регионе, что и большинство ваших посетителей;

Стоимость хостинга для небольших проектов колеблется в районе 5-10$ в месяц.

При выборе домена и хостинга избегайте «бесплатных» предложений. Часто можно видеть, что хостинг-компании предлагают бесплатные домены своим клиентам. Как правило, домены в этом случае регистрируются не на вас, а на компанию, то есть фактическим владельцем домена является ваш хостинг-провайдер. В результате вы не сможете сменить хостинг для своего проекта, либо будете вынуждены выкупать свой собственный, раскрученный домен. Также в большинстве случаев следует придерживаться правила не регистрировать свои домены через хостинг-компанию, так как это может затруднить возможный перенос сайта на другой хостинг (даже несмотря на то, что вы являетесь полноценным владельцем своего домена).

6.7 Смена адреса сайта
Иногда по ряду причин может потребоваться смена адреса проекта. Некоторые ресурсы, начинавшиеся на бесплатном хостинге и адресе, развиваются до полноценных коммерческих проектов и требуют переезда на собственный домен. В других случаях находится более удачное название для проекта. При любых подобных вариантах встает вопрос правильного переноса сайта на новый адрес.

Наш совет в этом плане таков – создавайте на новом адресе новый сайт с новым, уникальным контентом. На старом сайте поставьте на новый ресурс видные ссылки, чтобы посетители могли перейти на ваш новый сайт, однако не убирайте совсем старый сайт и его содержимое.

При таком подходе вы сможете получать поисковых посетителей как на новый, так и на старый ресурс. При этом у вас появляется возможность охватить дополнительные темы и ключевые слова, что было бы сложно сделать в рамках одного ресурса.

Перенос проекта на новый адрес задача сложная и не очень приятная (так как в любом случае раскрутку нового адреса придется начинать практически с нуля), однако, если этот перенос необходим, то следует извлечь максимум пользы из него.

7. Semonitor – пакет программ для раскрутки и оптимизации сайта



В предыдущих главах мы рассказали о том, как правильно создать свой сайт и какими методами его можно раскрутить. Последняя глава посвящена программным инструментам, которые позволят автоматизировать значительную часть работы над сайтом и добиться более высоких результатов. Речь пойдет о пакете программ Semonitor, который вы можете скачать с нашего сайта (www.semonitor.ru).

7.1 Модуль Определение позиций
Проверка позиций сайта в поисковых системах является практически каждодневной задачей каждого оптимизатора. Позиции можно проверять и вручную, однако, если у вас несколько десятков ключевых слов и 5-7 поисковых систем, которые нужно мониторить, то этот процесс будет очень утомительным.

Модуль Определение позиций проделает всю работу автоматически. Вы сможете получить информацию о рейтингах вашего сайта по всем ключевым словам в различных поисковых системах, увидеть динамику и историю позиций (рост/падение вашего сайта по заданным ключевым словам), увидеть ту же информацию в наглядной графической форме.

7.2 Модуль внешние ссылки
Программа сама опросит все доступные поисковые системы и составит наиболее полный и не содержащий дубликатов список внешних ссылок на ваш ресурс. Для каждой ссылки вы увидите такие важные параметры, как PageRank ссылающейся страницы и ссылочный текст (в предыдущих главах мы подробно рассказали о ценности этих параметров).

Помимо общего списка внешних ссылок вы сможете отслеживать их динамику – то есть видеть вновь появившиеся и устаревшие ссылки.

7.3 Модуль Индексация сайта
Покажет все страницы, проиндексированные той или иной поисковой системой. Необходимый инструмент при создании нового ресурса. Для каждой из проиндексированных страниц будет показано значение PageRank.

7.4 Модуль Лог-Анализатор
Вся информация о ваших посетителях (с каких сайтов они попали на ваш ресурс, какие ключевые слова использовали, в какой стране они находятся и многое другое) содержится в лог-файлах сервера. Модуль лог-анализатор представит всю эту информацию в удобных и наглядных отчетах.

7.5 Модуль Page Rank анализатор
Определяет огромное количество конкурентной информации о заданном списке сайтов. Автоматически определяет для каждого сайта из списка такие параметры, как Google PageRank, Yandex ТИЦ, число внешних ссылок, присутствие сайта в основных каталогах DMOZ, Yandex и Yahoo каталоге. Идеальный инструмент для анализа уровня конкуренции по тому или иному поисковому запросу.

7.6 Модуль Подбор ключевых слов
Подбирает релевантные ключевые слова для вашего сайта, сообщает данные об их популярности (число запросов за месяц), оценивает уровень конкуренции по той или иной фразе.

7.7 Модуль HTML анализатор
Анализирует html-код страницы, подсчитывает вес и плотность ключевых слов, создает отчет о правильности текстовой оптимизации сайта. Используется на этапе создания собственного сайта, а также для анализа сайтов конкурентов. Позволяет анализировать как локальные html-страницы, так и он-лайн проекты. Поддерживает особенности русского языка, поэтому может быть использован для успешной работы, как с английскими, так и с русскими сайтами.

8. Полезные ресурсы


В сети существует масса ресурсов по продвижению сайтов. Приведем здесь основные, наиболее ценные на наш взгляд:

www.searchengines.ru – крупнейший в рунете сайт по оптимизации

forum.searchengines.ru – место, где общаются оптимизаторы, как профессионалы так и новички

www.optimization.ru/subscribe/list.html - архив рассылок компании Ашманов и партнеры, базовый курс поисковой оптимизации. Самая лучшая рассылка на тему seo, здесь вы найдете самые последние новости, статьи и т.д.

www.optimization.ru – сайт посвященный ежегодной конференции Поисковая оптимизация и продвижение сайтов в Интернете. Возможность приобрести доклады предыдущих конференций, содержащие очень ценную информацию.

1ps.ru - старейший сервис регистрации в Рунете.Специалисты Сервиса также помогут провести разработку рекламных кампаний для Яндекс.Директа и Бегуна

Вместо заключения – раскрутка сайта шаг за шагом


В этой главе я расскажу о том, как раскручиваю свои собственные сайты. Это нечто вроде небольшой пошаговой инструкции, в которой коротко повторяется то, что было описано в предыдущих разделах. В своей работе я использую программу Semonitor, поэтому она и будет взята в качестве примера.

1. Для начала работы над сайтом следует обладать некоторыми базовыми знаниями, в достаточном объеме они представлены в данном курсе. Подчеркну, что не нужно быть гуру в оптимизации и эти базовые знания приобретаются достаточно быстро. После этого начинаем работать,экспериментировать, выводить сайты в топ и т.д. Здесь нам и становятся нужны программные средства.

2. Составляем примерный список ключевых слов и проверяем уровень конкуренции по ним. Оцениваем свои возможности и останавливаем выбор на достаточно популярных, но среднеконкурентных словах. Подбор ключевых слов делается с помощью соответствующего модуля, примерная проверка конкуренции в нем же. По наиболее интересным для нас запросам проводим детальный анализ выдачи поисковых систем в модуле Page Rank анализатор и принимаем окончательные решения по ключевым словам.

3. Начинаем писать тексты для сайта. Часть текстов я пишу самостоятельно, часть наиболее важных отдаю на написание журналистам. То есть мое мнение - контент прежде всего. При наличии хорошего информационного содержимого, будет легче получать внешние ссылки и посетителей. На этом же этапе начинаем использовать модуль HTML-анализатор, создаем нужную плотность ключевых слов. Каждую страницу оптимизируем под свое словосочетание.

4. Регистрация сайта в каталогах. Можно делать самому, можно приобрести программу-самбиттер, либо заказать профессионалам - хорошо зарекомендовал себя сервис регистрации в каталогах 1ps.ru

5. После того, как первые шаги сделаны, ждем и проверяем индексацию, чтобы убедиться, что сайт нормально воспринимается различными поисковыми системами.

6. На следующем шаге уже можно начинать проверку позиций сайта по нужным ключевым словам. Позиции скорее всего будут не очень хорошими сначала, однако информацию к размышлению это даст.

7. Продолжаем работать над увеличением ссылочной популярности, процесс отслеживаем с помощью модуля Внешние ссылки

. 8. Посещаемость сайта анализируем с помощью Лога анализатора и работаем над ее увеличением.