|
Counter |
|
|
Онлайн всего: 1 Гостей: 1 Пользователей: 0
|
|
|
|
Каталог статей |
|
Раскрутка и оптимизация сайта (часть 2)
4 Индексация сайта Прежде чем сайт появится в результатах
поиска, он должен быть проиндексирован поисковой системой. Индексация означает,
что поисковый робот посетил ваш сайт, проанализировал его и занес информацию в
базу данных поисковой системы.
Если некоторая страница занесена в
индекс поисковика, то она может быть показана в результатах поиска. Если
страница в индексе отсутствует, то поисковая система ничего не знает о ней, и,
следовательно, никак не может использовать информацию с этой
страницы.
Большинство сайтов среднего размера (то есть содержащих
несколько десятков или сотен страниц) обычно не испытывают никаких проблем с
правильной индексацией поисковыми системами. Однако, существует ряд моментов,
которые стоит учитывать при работе над сайтом.
Поисковая система
может узнать о вновь созданном сайте двумя путями:
- ручное добавление
адреса сайта через соответствующую форму поисковой системы. В этом случае вы
сами сообщаете поисковой системе о новом сайте и его адрес попадает в очередь на
индексацию. Добавлять следует лишь главную страницу сайта, остальные будут
найдены поисковым роботом по ссылкам;
- предоставить поисковому роботу
самостоятельно найти ваш сайт. Если на ваш новый ресурс есть хотя бы одна
внешняя ссылка с других ресурсов, уже проиндексированных поисковой системой, то
поисковый робот в короткие сроки сам посетит и проиндексирует ваш сайт. В
большинстве случаев рекомендуется использовать именно этот вариант, то есть
получить несколько внешних ссылок на сайт и просто дождаться прихода робота.
Ручное добавление сайта может даже удлинить время ожидания робота.
Время необходимое для индексации сайта составляет, как правило, от
2-3 дней до 2 недель, в зависимости от поисковой системы. Быстрее всех
индексирует сайты поисковая система Google.
Старайтесь сделать сайт
дружественным для поисковых роботов. Для этого учитывайте следующие факторы:
- старайтесь, чтобы любые страницы вашего сайта были доступны по
ссылкам с главной страницы не более чем за 3 перехода. Если структура сайта
этого не допускает, то сделайте так называемую карту сайта, которая позволит
выполнять указанное правило;
- не повторяйте распространенных ошибок.
Идентификаторы сессий затрудняют индексацию. Если вы используете навигацию через
скрипты, то обязательно дублируйте ссылки обычным образом – поисковые системы не
умеют читать скрипты (подробнее об этих и других ошибках рассказано в главе
2.3);
- помните, что поисковые системы индексируют не более 100-200 кб
текста на странице. Для страниц большего объема будет проиндексировано только
начало страницы (первые 100-200 кб.). Из этого следует правило – не используйте
страницы размером более 100 кб, если хотите, чтобы они были проиндексированы
полностью.
Управлять поведением поисковых роботов можно с помощью
файла robots.txt, в нем можно явно разрешить или запретить для индексации те или
иные страницы. Существует также специальный тег «NOINDEX», позволяющий закрыть
для индексации отдельные части страницы, однако этот тег поддерживается только
российскими поисковыми системами.
Базы данных поисковых систем
постоянно обновляются, записи в базе могут подвергаться изменениям, исчезать и
появляться снова, поэтому число проиндексированных страниц вашего сайта может
периодически меняться.
Одной из наиболее частых причин исчезновения
страницы из индекса является недоступность сервера, то есть поисковый робот при
попытке индексации сайта не смог получить доступ к нему. После восстановления
работоспособности сервера сайт должен появиться в индексе снова через некоторое
время.
Следует также заметить, что чем больше внешних ссылок имеет
ваш сайт, тем быстрее происходит его переиндексация.
Отследить
процесс индексации сайта можно с помощью анализа лог-файлов сервера, в которых
записываются все визиты поисковых роботов. В соответствующем разделе мы подробно
расскажем о программах, которые позволяют это сделать.
5 Подбор ключевых слов 5.1 Первоначальный выбор
ключевых слов Подбор ключевых слов – это первый шаг, с которого
начинается построение сайта. На момент подготовки текстов на сайт набор ключевых
слов уже должен быть известен.
Для определения ключевых слов прежде
всего следует воспользоваться сервисами, которые предлагают сами поисковые
системы.
Для англоязычных сайтов это www.wordtracker.com и inventory.overture.com
Для русскоязычных adstat.rambler.ru/wrds/, direct.yandex.ru и stat.go.mail.ru
При использовании этих сервисов
нужно помнить, что их данные могут очень сильно отличаться от реальной картины.
При использовании сервиса Yandex Директ следует также помнить, что этот сервис
показывает не ожидаемое число запросов, а ожидаемое число показов
рекламного объявления по заданной фразе. Поскольку посетители поисковой системы
часто просматривают более одной страницы, то реальное число запросов обязательно
меньше числа показов рекламы по тому же запросу.
Поисковая система
Google не дает информации о частоте запросов.
После того, как список
ключевых слов примерно определен можно провести анализ своих конкурентов, с
целью выяснить, на какие ключевые фразы ориентируются они, возможно удастся
узнать что-то новое.
5.2 Высокочастотники и
низкочастотники При оптимизации сайта можно выделить две стратегии –
оптимизация под малое число высокопопулярных ключевых слов, либо под большое
число малопопулярных. На практике обычно сочетаются обе.
Недостаток
высокочастотных запросов – как правило, высокий уровень конкуренции по ним. Для
молодого сайта не всегда бывает возможно подняться в топ по этим запросам.
Для низкочастотных же запросов, часто бывает достаточным упоминание
нужного словосочетания на странице, либо минимальной текстовой оптимизации. При
определенных условиях низкочастотные запросы могут давать очень неплохой
поисковый трафик.
Цель большинства коммерческих сайтов – продать тот
или иной товар или услугу, либо каким-то другим способом заработать на своих
посетителях. Это нужно учитывать при поисковой оптимизации и при подборе
ключевых слов. Нужно стремиться получать целевых посетителей на сайт (то есть
готовых к покупке предлагаемого товара или услуги), нежели просто к большому
числу посетителей.
Пример. Запрос «монитор» намного более
популярен и в разы более конкурентен, чем запрос «монитор samsung 710N» (точное
название модели). Однако, для продавца мониторов второй посетитель гораздо более
ценен, а получить его гораздо легче, так как уровень конкуренции по второму
запросу небольшой. Это еще одно возможное различие между высокочастотными и
низкочастотными запросами, которое следует учитывать.
5.3 Оценка уровня конкуренции поисковых запросов После
того, как набор ключевых слов приблизительно известен, следует определить
основное ядро слов, под которые будет проводиться оптимизация.
Низкочастотные запросы по понятным причинам отбрасываются сразу
(временно). В предыдущем разделе мы описали пользу от низкочастотных запросов,
однако на то они и низкочастотные, что не требуют особой оптимизации. Поэтому в
данном разделе мы их не рассматриваем.
По очень популярным фразам
уровень конкуренции как правило очень высок, поэтому нужно реально оценить
возможности своего сайта. Для оценки уровня конкуренции следует подсчитать ряд
показателей для первой десятки сайтов в выдаче поисковика: - средний
PageRank страниц в выдаче; - средний ТИЦ сайтов, чьи страницы попали в
выдачу; - среднее число внешних ссылок на сайты в выдаче по версии
различных поисковых систем;
Дополнительные параметры: - число
страниц в Интернете, содержащих заданный поисковый термин (другими словами число
результатов поиска); - число страниц в Интернете, содержащих точное
совпадение заданной фразы (как при поиске в кавычках).
Эти
дополнительные параметры помогут косвенно оценить сложность вывода сайта в топ
по заданной фразе.
Кроме описанных параметров, можно также проверить
какое число сайтов из выдачи присутствуют в основных каталогах, таких как
каталоги DMOZ, Yahoo и Yandex.
Анализ всех указанных выше параметров
и сравнение их с параметрами собственного сайта позволят достаточно четко
предсказать перспективы вывода вашего сайта в топ по указанной фразе.
Оценив уровень конкуренции по всем подобранным фразам, вы сможете
выбрать ряд достаточно популярных фраз с приемлемым уровнем конкуренции, на
которые и будет сделана основная ставка при раскрутке и оптимизации.
5.4 Последовательное уточнение поисковых запросов Как
уже говорилось выше, сервисы поисковых систем часто дают очень неточную
информацию. Поэтому определить идеальный для вашего сайта набор ключевых слов с
первого раза удается довольно редко.
После того, как ваш сайт
сверстан и произведены определенные шаги по его раскрутке, в ваших руках
оказывается дополнительная статистика по ключевым словам: вы знаете рейтинг
вашего сайта в выдаче поисковых систем по той или иной фразе и знаете также
число заходов на ваш сайт по этой фразе.
Владея этой информацией
можно довольно четко определить удачные и неудачные фразы. Зачастую даже не
нужно ждать, чтобы сайт вышел в топ по оцениваемым фразам во всех поисковых
системах – достаточно одной или двух.
Пример. Допустим ваш сайт
занял первое место в поисковой системе Rambler по данной фразе. При этом ни в
Яндексе, ни в Google его еще нет в выдаче по этой фразе. Однако, зная процентное
соотношение заходов на ваш сайт из различных поисковых систем (например, Yandex
– 70%, Google – 20%, Rambler – 10%), вы уже можете предсказать примерный трафик
по этой фразе и решить, подходит она для вашего сайта или нет.
Помимо выделения неудачных фраз, вы можете найти новые удачные
варианты. Например, увидеть, что некоторая фраза, под которую не делалось
никакой раскрутки, приносит неплохой трафик, даже несмотря на то, что ваш сайт
по этой фразе находится на 2 или 3 странице в выдаче.
Таким образом,
в ваших руках оказывается новый, уточненный набор ключевых слов. После этого
следует приступить к перестройке сайта – изменение текстов под более удачные
словосочетания, создание новых страниц под новые найденные фразы и т.д. Таким
образом, через некоторое время вы сможете найти наилучший набор ключевых слов
для вашего сайта и существенно увеличить поисковый трафик.
Еще
некоторые советы. По статистике, на главную страницу сайта приходится до 30%-50%
всего поискового трафика. Она лучше всего видна в поисковиках и имеет больше
всего внешних ссылок. Поэтому главную страницу сайта следует оптимизировать под
наиболее популярные и конкурентные запросы. Каждую страницу сайта следует
оптимизировать под 1-2 основных словосочетания (и, возможно, под ряд
низкочастотных запросов). Это увеличит шансы выхода в топ поисковых систем по
заданным фразам.
6 Различная информация о поисковых системах 6.1
Google SandBox В начале 2004 года в среде оптимизаторов обозначилось
новое таинственное понятие – Google SandBox или песочница Google.
Такое обозначение получил новый спам-фильтр Google, направленный на исключение
из выдачи молодых, вновь созданных сайтов.
Фильтр SandBox проявляется
в том, что вновь созданные сайты отсутствуют в выдаче поисковой системы
практически по всем фразам. Это происходит, несмотря на наличие качественного и
уникального информационного содержимого и правильно проведенную раскрутку (без
использования спам-методов).
На данный момент SandBox касается только
англоязычного сегмента, сайты на русском и других языках этому фильтру не
подвергаются. Однако, вполне вероятно что этот фильтр может расширить свое
влияние.
Можно предположить, что цель SandBox фильтра исключить из
выдачи спам-сайты – действительно, ни один поисковый спамер не сможет ждать
месяцы до появления результатов. Однако вместе с этим страдает огромное
количество нормальных, вновь созданных сайтов.
Точной информации о
том, что же конкретно представляет из себя SandBox фильтр до сих пор нет.
Существует ряд предположений, полученных на основании опыта, которые мы и
приведем ниже:
- SandBox – это фильтр на молодые сайты. Вновь
созданный сайт попадает в «песочницу» и находится в ней неопределенное время,
пока поисковая система не переведет его в разряд «обычных»;
- SandBox
– это фильтр на новые ссылки, проставляемые на вновь созданные сайты.
Постарайтесь заметить принципиальное отличие от предыдущего предположения –
фильтр накладывается не на возраст сайта, а на возраст ссылок на сайт. Другими
словами Google не имеет претензий к сайту, однако отказывается учитывать внешние
ссылки на него, если с момента их появления прошло менее X месяцев. Так как
внешние ссылки являются одним из основных факторов ранжирования, игнорирование
внешних ссылок равносильно отсутствию сайта в выдаче поисковой системы. Какое из
двух приведенных предположений более верно сказать сложно, вполне вероятно, что
оба они верны ;
- сайт может находится в песочнице от 3-х месяцев до
года и более. Есть также наблюдение, что сайты выходят из песочницы в массовом
порядке. Т.е. срок песочницы определяется не индивидуально для каждого сайта, а
для больших групп сайтов (сайты созданные в некотором временном диапазоне
попадают в одну группу). Фильтр затем снимается сразу для всей группы, таким
образом, сайты из одной группы пробудут в «песке» разное время.
Типичные признаки того, что ваш сайт находится в песочнице:
- ваш сайт нормально проиндексирован Google, регулярно посещается
поисковым роботом; - ваш сайт имеет PageRank, поисковая система знает и
корректно отображает внешние ссылки на ваш сайт; - поиск по адресу сайта
(www.site.com) выдает правильные результаты, с правильным заголовком, сниппетом
(описание ресурса) и т.д.; - ваш сайт нормально находится по редким и
уникальным словосочетаниям, содержащимся в тексте страниц; - ваш сайт не
виден в первой тысяче результатов по любым иным запросам, даже по тем, под
которые он изначально создавался. Иногда встречаются исключения и сайт по
некоторым запросам появляется на 500-600 позициях, что, конечно, сути не меняет.
Методов обхода фильтра практически не существует. Есть ряд
предположений, о том, как это можно сделать, однако это не более чем
предположения, к тому же малоприемлимые для обычного вебмастера. Основной метод
– это работать над сайтом и ждать окончания фильтра.
После того, как
фильтр снимается, происходит резкий рост рейтингов на 400-500 и более позиций.
6.2 Google LocalRank 25 февраля 2003
года компания Google запатентовала новый алгоритм ранжирования страниц,
получивший название LocalRank. В основе лежит идея о том, чтобы
ранжировать страницы не по их глобальной ссылочной цитируемости, а по
цитируемости среди группы страниц, тематически связанных с запросом.
Алгоритм LocalRank не используется на практике (по крайней мере, в
том виде, в каком он описывается в патенте), однако, патент содержит ряд
интересных идей, с которыми, мы считаем, должен быть знаком каждый оптимизатор.
Учет тематики ссылающихся страниц используется почти всеми поисковыми системами.
Хотя происходит это, видимо, по несколько другим алгоритмам, изучение патента
позволит уяснить общие идеи, как это может быть реализовано.
При
чтении этой главы учитывайте, что в ней представлена теоретическая информация, а
не практическое руководство к действию.
Основную идею алгоритма
LocalRank выражают следующие три пункта:
1. Используя некоторый
алгоритм, выбирается определенное число документов, релевантных поисковому
запросу (обозначим это число N). Эти документы изначально отсортированы
согласно некоторому критерию (это может быть PageRank, либо оценка релевантности
или какой-либо другой критерий или их группировка). Обозначим численное
выражение данного критерия как OldScore.
2. Каждая из
N страниц проходит новую процедуру ранжирования, в результате которой
каждая страница получает некоторый новый ранг. Обозначим его
LocalScore.
3. На этом шаге величины
OldScore и LocalScore перемножаются, в результате
чего получается новая величина NewScore, согласно которой и
происходит итоговое ранжирование страниц.
Ключевой в данном алгоритме
является новая процедура ранжирования, в результате которой каждой странице
присваивается новый ранг LocalScore. Опишем эту процедуру
подробнее.
0. Используя некоторый алгоритм ранжирования отбираются N
страниц, отвечающих поисковому запросу. Новый алгоритм ранжирования будет
работать только с этими N страниц. Каждая страница в этой группе имеет
некоторый ранг OldScore.
1. При расчете
LocalScore для данной страницы выделяются все страницы из
N, которые имеют внешние ссылки на данную страницу. Обозначим множество
этих страниц M. При этом, в множество M не попадут страницы с того
же хоста (host, фильтрация произойдет по IP адресу), а также страницы,
являющиеся зеркалами данной.
2. Множество M разбивается на
подмножества Li . В эти подмножества попадают страницы, объединенные
следующими признаками: - принадлежность одному (или сходным) хостам. Таким
образом, в одну группу попадут страницы, у которых первые три октета IP адреса
совпадают. То есть, страницы, IP адрес которых принадлежит диапазону
xxx.xxx.xxx.0 xxx.xxx.xxx.255 будут считаться принадлежащими
одной группе; - страницы, которые имеют одинаковое или схожее содержание
(зеркала, mirrors); - cтраницы одного сайта (домена).
3.
Каждая страница в каждом множестве Li имеет некоторый ранг
(OldScore). Из каждого множества выбирается по одной странице с
самым большим OldScore, остальные исключаются из рассмотрения.
Таким образом, мы получаем некоторое множество K страниц, ссылающихся на
данную страницу.
4. Страницы в множестве K сортируются согласно
параметру OldScore, затем в множестве K остаются только
k первых страниц (k – некоторое заданное число), остальные
страницы исключаются из рассмотрения.
5. На данном шаге рассчитывается
LocalScore. По оставшимся k страницам происходит
суммирование их значений OldScore. Это можно выразить следующей
формулой:
Здесь m – некоторый заданный параметр,
который может варьироваться от 1 до 3 (к сожалению, информация, содержащаяся в
патенте на описываемый алгоритм, не дает подробного описания данного
параметра).
После того, как расчет LocalScore для каждой
страницы из множества N закончен, происходит расчет значений
NewScore и пересортировка страниц согласно новому критерию. Для
рассчета NewScore используется следующая
формула:
NewScore(i)=
(a+LocalScore(i)/MaxLS)*(b+OldScore(i)/MaxOS)
i – страница,
для которой рассчитывается новое значение ранга.
a и b –
некоторые числа (патент не дает более подробной информации об этих
параметрах).
MaxLS – максимальное из рассчитанных значений
LocalScore
MaxOS – максимальное из
значений OldScore
Теперь постараемся отвлечься от
математики и повторим все вышесказанное простым языком.
На первом
этапе происходит отбор некоторого количества страниц соответствующих запросу.
Это делается по алгоритмам, не учитывающим тематику ссылок (например, по
релевантности и общей ссылочной популярности).
После того, как группа
страниц определена, будет подсчитана локальная ссылочная популярность каждой из
страниц. Все страницы так или иначе связаны с темой поискового запроса и,
следовательно, имеют отчасти схожу тематику. Проанализировав ссылки друг на
друга в отобранной группе страниц (игнорируя все остальные страницы в
Интернете), получим локальную (тематическую) ссылочную
популярность.
После проделанного шага у нас есть значения OldScore
(рейтинг страницы на основе релевантности, общей ссылочной популярности и других
факторов) и LocalScore (рейтинг страницы среди тематически связанных страниц).
Итоговый рейтинг и ранжирование страниц проводится на основе сочетания этих двух
факторов.
6.3 Особенности работы различных поисковых
систем Все, сказанные выше идеи по текстовой оптимизации и увеличению
ссылочной популярности применимы ко всем поисковым системам в равной степени.
Более подробное описание Google объясняется большим наличием информации об этой
поисковой системе в свободном доступе, однако идеи, высказанные в отношении
Google, в большой степени применимы и к другим поисковым системам.
Вообще, я не являюсь сторонником поиска «секретного знания» о том,
как детально работают алгоритмы различных поисковых систем. Все они в той или
иной мере подчиняются общим правилам и грамотная работа над сайтом (без учета
каких-либо особенностей) приводит к хорошим позициям почти во всех поисковых
системах.
Тем не менее, приведем некоторые особенности различных
поисковых систем:
Google – очень быстрая индексация, очень большое
значение придается внешним ссылкам. База Google используется очень большим
числом других поисковых систем и порталов.
MSN – больший, нежели у
других поисковых систем, акцент на информационное содержимое
сайта.
Yandex – крупнейшая российская поисковая система. Обрабатывает
(по разным данным) от 60% до 80% всех русскоязычных поисковых запросов. Уделяет
особое внимание тематическим ссылкам (нетематические внешние ссылки также имеют
эффект, но в меньшей степени, чем у других поисковых систем). Индексация
проходит медленнее, чем у Google, однако так же в приемлемые сроки. Понижает в
рейтинге или исключает из индекса сайты, занимающиеся нетематическим
ссылкообменом (содержащих каталоги нетематических ссылок, созданных лишь с целью
повышения рейтинга сайта), а также сайты, участвующие в системах автоматического
обмена ссылками. В периоды обновлений базы, которые длятся несколько дней,
выдача Яндекса постоянно меняется, в такие периоды следует отказаться от
каких-либо работ по сайту и дождаться стабильных результатов работы поисковой
системы.
Еще одна особенность Яндекс – различные результаты поиска в
зависимости от регистра ключевых слов (т.е. «Слово» и «слово» дают разные
результаты поиска).
Rambler – наиболее загадочная поисковая система.
Занимает второе (по другим данные третье после Google) место по популярности
среди российских пользователей. По имеющимся наблюдениям, понижает в рейтинге
сайты, активно занимающиеся раскруткой (быстрое увеличение числа внешних
ссылок). Ценит наличие поисковых терминов в простом тексте страницы (без
выделения различными стилистическими тегами).
Mail.ru – набирающая
популярность поисковая система. Использует результаты поисковой системы Google
после некоторой дополнительной обработки. Оптимизация под Mail.ru сводится к
оптимизации под Google.
6.4 Советы, предположения,
наблюдения В данной главе представлена информация, появившаяся в
результате анализа различных статей, общения оптимизаторов, практических
наблюдений и т.п. Информация эта не является точной и достоверной – это всего
лишь предположения и идеи, однако идеи интересные. Данные, представленные в этом
разделе, воспринимайте не как точное руководство, а как информацию к
размышлению.
- исходящие ссылки. Ссылайтесь на авторитетные в вашей
области ресурсы, используя нужные ключевые слова. Поисковые системы ценят ссылки
на другие ресурсы той же тематики;
- исходящие ссылки. Не ссылайтесь
на FFA сайты и прочие сайты, исключенные из индекса поисковой системы. Это может
привести к понижению рейтинга вашего собственного сайта;
- исходящие
ссылки. Страница не должна содержать более 50-100 исходящих ссылок. Это не
приводит к понижению страницы в рейтинге, но ссылки сверх этого числа не будут
учтены поисковой системой;
- внешние site wide ссылки, то есть ссылки,
стоящие на каждой странице сайта. Считается, что поисковые системы негативно
относятся к таким ссылкам и не учитывают их при ранжировании. Существует также
другое мнение, что это относится только к большим сайтам с тысячами страниц;
- идеальная плотность ключевых слов. Очень часто приходится слышать
подобный вопрос. Ответ заключается в том, что идеальной плотности ключевых слов
не существует, вернее она различная для каждого запроса, то есть рассчитывается
поисковой системой динамически, в зависимости от поискового термина. Наш совет –
проанализировать первые сайты из выдачи поисковой системы, что позволит примерно
оценить ситуацию;
- возраст сайта. Поисковые системы отдают
предпочтение старым сайтам, как более стабильным;
- обновление сайта.
Поисковые системы отдают предпочтение развивающимся сайтам, то есть тем, на
которых периодически добавляется новая информация, новые страницы;
-
доменная зона (касается западных поисковиков). Предпочтение отдается сайтам,
расположенным в зонах .edu, .mil, .gov и т.п. Такие домены могут
зарегистрировать только соответствующие организации, поэтому доверия таким
сайтам больше;
- поисковые системы отслеживают, какой процент
посетителей возвращается к поиску, после посещения того или иного сайта из
вылачи. Большой процент возвратов означает нетематическое содержимое, и такая
страница понижается в поиске;
- поисковые системы отслеживают,
насколько часто выбирается та или иная ссылка в результатах поиска. Если ссылка
выбирается редко, значит, страница не представляет интереса и такая страница
понижается в рейтинге;
- используйте синонимы и родственные формы
ключевых слов, это будет оценено поисковыми системами
; - слишком
быстрый рост числа внешних ссылок воспринимается поисковыми системами как
искусственная раскрутка и ведет к понижению рейтинга. Очень спорное утверждение,
прежде всего потому, что такой способ может использоваться для понижения
рейтинга конкурентов;
- Google не учитывает внешние ссылки, если они
находятся на одном (или сходных) хостах, то есть страницах, IP адрес которых
принадлежит диапазону xxx.xxx.xxx.0 xxx.xxx.xxx.255. Такое мнение
происходит скорее всего от того, что Google высказывал данную идею в своих
патентах. Однако сотрудники Google заявляют, что никаких ограничений по IP
адресу на внешние ссылки не налагается, и нет никаких оснований не доверять им;
- поисковые системы проверяют информацию о владельце домена.
Соответственно ссылки с сайтов, принадлежащих одному владельцу имеют меньший
вес, чем обычные ссылки. Информация представлена в патенте;
- срок, на
который зарегистрирован домен. Чем больше срок, тем большее предпочтение
отдается сайту;
6.5 Создание правильного контента
Контент (информационное содержимое сайта) играет важнейшую роль в
раскрутке сайта. Тому есть множество причин, о которых мы расскажем в этой
главе, а также дадим советы, как правильно наполнить сайт информацией.
- уникальность контента. Поисковики ценят новую информацию, нигде
ранее не публиковавшуюся. Поэтому при создании сайта опирайтесь на собственные
тексты. Сайт, построенный на основе чужих материалов, имеет гораздо меньшие
шансы на выход в топ поисковых систем. Как правило, первоисточник всегда
находится выше в результатах поиска;
- при создании сайта не
забывайте, что он изначально создается для посетителей, а не для поисковых
систем. Привести посетителя на сайт – это только первый и не самый трудный шаг.
Удержать посетителя на сайте и превратить его в покупателя – вот действительно
сложная задача. Добиться этого можно только грамотным информационным наполнением
сайта, интересным для человека;
- старайтесь регулярно обновлять
информацию на сайте, добавлять новые страницы. Поисковики ценят развивающиеся
сайты. Кроме того, больше текста – больше посетителей на сайт. Пишите статьи на
тему вашего сайта, публикуйте отзывы посетителей, создайте форум для обсуждения
вашего проекта (последнее – только если посещаемость сайта позволит создать
активный форум). Интересный контент – залог привлечения заинтересованных
посетителей;
- сайт, созданный для людей, а не поисковых машин, имеет
большие шансы на попадание в важные каталоги, такие как DMOZ, Яндекс и
другие;
- интересный тематический сайт имеет гораздо больше шансов на
получение ссылок, отзывов, обзоров и т.д. других тематических сайтов. Такие
обзоры сами по себе могут дать неплохой приток посетителей, кроме того, внешние
ссылки с тематических ресурсов будут по достоинству оценены поисковыми
системами.
В заключение еще один совет. Как говорится, сапоги должен
делать сапожник, а писать тексты должен журналист или технический писатель. Если
вы сумеете создать увлекательные материалы для вашего сайта – это очень хорошо.
Однако у большинства из нас нет особых способностей к написанию привлекательных
текстов. Тогда лучше доверить эту часть работы профессионалам. Это более дорогой
вариант, но в долгосрочной перспективе он себя оправдает.
6.6 Выбор домена и хостинга В настоящее время создать
свою страницу в Интернет может любой и для этого не нужно никаких затрат.
Существуют компании, предоставляющие бесплатный хостинг, которые разместят вашу
страницу в обмен на право показывать на ней свою рекламу. Многие
Интернет-провайдеры также дадут вам место на своем сервере, если вы являетесь их
клиентом. Однако все эти варианты имеют очень существенные недостатки, поэтому,
при создании коммерческого проекта, вы должны отнестись к этим вопросам с
большей ответственностью.
Прежде всего стоит купить свой собственный
домен. Это дает вам следующие преимущества:
- проект, не имеющий
собственного домена, воспринимается как сайт-однодневка. Действительно, почему
мы должны доверять данному ресурсу, если его владельцы не готовы потратить даже
символическую сумму для создания минимального имиджа. Размещение бесплатных
материалов на таких ресурсах возможно, но попытка создания коммерческого проекта
без собственного домена почти всегда обречена на неудачу;
-
собственный домен дает вам свободу в выборе хостинга. Если текущая компания
перестала вас устраивать, то вы в любой момент можете перенести свой сайт на
другую, более удобную или быструю площадку.
При выборе домена помните
о следующих моментах:
- старайтесь, чтобы имя домена было
запоминающимся и его произношение и написание было бы однозначным;
-
для раскрутки международных англоязычных проектов более всего подходят домены с
расширением .com Можно также использовать домены из зон .net, .org, .biz и т.п.,
однако этот вариант менее предпочтителен;
- для раскрутки национальных
проектов всегда следует брать домен в соответствующей национальной зоне (.ru –
для русскоязычных проектов, .de – для немецких и т.д.);
- в случае
двуязычных (и более) сайтов следует выделить свой домен под каждый из языков.
Национальные поисковые системы в большей степени оценят такой подход, чем
наличие на основном сайте подразделов на различных языках.
Стоимость
домена составляет (в зависимости от регистратора и зоны) 10-20$ в год.
При выборе хостинга следует опираться на следующие
факторы:
- скорость доступа; - время доступности серверов
(uptime); - стоимость трафика за гигабайт и количество предоплаченного
трафика; - желательно, чтобы площадка располагалась в том же
географическом регионе, что и большинство ваших посетителей;
Стоимость
хостинга для небольших проектов колеблется в районе 5-10$ в месяц.
При выборе домена и хостинга избегайте «бесплатных» предложений.
Часто можно видеть, что хостинг-компании предлагают бесплатные домены своим
клиентам. Как правило, домены в этом случае регистрируются не на вас, а на
компанию, то есть фактическим владельцем домена является ваш хостинг-провайдер.
В результате вы не сможете сменить хостинг для своего проекта, либо будете
вынуждены выкупать свой собственный, раскрученный домен. Также в большинстве
случаев следует придерживаться правила не регистрировать свои домены через
хостинг-компанию, так как это может затруднить возможный перенос сайта на другой
хостинг (даже несмотря на то, что вы являетесь полноценным владельцем своего
домена).
6.7 Смена адреса сайта Иногда по
ряду причин может потребоваться смена адреса проекта. Некоторые ресурсы,
начинавшиеся на бесплатном хостинге и адресе, развиваются до полноценных
коммерческих проектов и требуют переезда на собственный домен. В других случаях
находится более удачное название для проекта. При любых подобных вариантах
встает вопрос правильного переноса сайта на новый адрес.
Наш совет в
этом плане таков – создавайте на новом адресе новый сайт с новым, уникальным
контентом. На старом сайте поставьте на новый ресурс видные ссылки, чтобы
посетители могли перейти на ваш новый сайт, однако не убирайте совсем старый
сайт и его содержимое.
При таком подходе вы сможете получать
поисковых посетителей как на новый, так и на старый ресурс. При этом у вас
появляется возможность охватить дополнительные темы и ключевые слова, что было
бы сложно сделать в рамках одного ресурса.
Перенос проекта на новый
адрес задача сложная и не очень приятная (так как в любом случае раскрутку
нового адреса придется начинать практически с нуля), однако, если этот перенос
необходим, то следует извлечь максимум пользы из него.
7. Semonitor – пакет программ для раскрутки и оптимизации сайта
В предыдущих главах мы рассказали о том, как правильно создать
свой сайт и какими методами его можно раскрутить. Последняя глава посвящена
программным инструментам, которые позволят автоматизировать значительную часть
работы над сайтом и добиться более высоких результатов. Речь пойдет о пакете
программ Semonitor, который вы можете скачать с нашего сайта (www.semonitor.ru).
7.1 Модуль Определение позиций Проверка позиций сайта
в поисковых системах является практически каждодневной задачей каждого
оптимизатора. Позиции можно проверять и вручную, однако, если у вас несколько
десятков ключевых слов и 5-7 поисковых систем, которые нужно мониторить, то этот
процесс будет очень утомительным.
Модуль Определение позиций
проделает всю работу автоматически. Вы сможете получить информацию о рейтингах
вашего сайта по всем ключевым словам в различных поисковых системах, увидеть
динамику и историю позиций (рост/падение вашего сайта по заданным ключевым
словам), увидеть ту же информацию в наглядной графической форме.
7.2 Модуль внешние ссылки Программа сама опросит все
доступные поисковые системы и составит наиболее полный и не содержащий
дубликатов список внешних ссылок на ваш ресурс. Для каждой ссылки вы увидите
такие важные параметры, как PageRank ссылающейся страницы и ссылочный текст (в
предыдущих главах мы подробно рассказали о ценности этих параметров).
Помимо общего списка внешних ссылок вы сможете отслеживать их
динамику – то есть видеть вновь появившиеся и устаревшие ссылки.
7.3 Модуль Индексация сайта Покажет все страницы,
проиндексированные той или иной поисковой системой. Необходимый инструмент при
создании нового ресурса. Для каждой из проиндексированных страниц будет показано
значение PageRank.
7.4 Модуль Лог-Анализатор
Вся информация о ваших посетителях (с каких сайтов они попали на ваш
ресурс, какие ключевые слова использовали, в какой стране они находятся и многое
другое) содержится в лог-файлах сервера. Модуль лог-анализатор представит всю
эту информацию в удобных и наглядных отчетах.
7.5
Модуль Page Rank анализатор Определяет огромное количество
конкурентной информации о заданном списке сайтов. Автоматически определяет для
каждого сайта из списка такие параметры, как Google PageRank, Yandex ТИЦ, число
внешних ссылок, присутствие сайта в основных каталогах DMOZ, Yandex и Yahoo
каталоге. Идеальный инструмент для анализа уровня конкуренции по тому или иному
поисковому запросу.
7.6 Модуль Подбор ключевых слов
Подбирает релевантные ключевые слова для вашего сайта, сообщает
данные об их популярности (число запросов за месяц), оценивает уровень
конкуренции по той или иной фразе.
7.7 Модуль HTML
анализатор Анализирует html-код страницы, подсчитывает вес и
плотность ключевых слов, создает отчет о правильности текстовой оптимизации
сайта. Используется на этапе создания собственного сайта, а также для анализа
сайтов конкурентов. Позволяет анализировать как локальные html-страницы, так и
он-лайн проекты. Поддерживает особенности русского языка, поэтому может быть
использован для успешной работы, как с английскими, так и с русскими сайтами.
8. Полезные ресурсы В сети существует масса ресурсов по
продвижению сайтов. Приведем здесь основные, наиболее ценные на наш
взгляд:
www.searchengines.ru – крупнейший в рунете сайт по
оптимизации
forum.searchengines.ru – место, где общаются оптимизаторы, как
профессионалы так и новички
www.optimization.ru/subscribe/list.html - архив рассылок
компании Ашманов и партнеры, базовый курс поисковой оптимизации. Самая лучшая
рассылка на тему seo, здесь вы найдете самые последние новости, статьи и т.д.
www.optimization.ru – сайт посвященный ежегодной конференции
Поисковая оптимизация и продвижение сайтов в Интернете. Возможность приобрести
доклады предыдущих конференций, содержащие очень ценную информацию.
1ps.ru - старейший
сервис регистрации в Рунете.Специалисты Сервиса также помогут провести
разработку рекламных кампаний для Яндекс.Директа и Бегуна
Вместо заключения – раскрутка сайта шаг за шагом В этой главе я
расскажу о том, как раскручиваю свои собственные сайты. Это нечто вроде
небольшой пошаговой инструкции, в которой коротко повторяется то, что было
описано в предыдущих разделах. В своей работе я использую программу Semonitor,
поэтому она и будет взята в качестве примера.
1. Для начала работы
над сайтом следует обладать некоторыми базовыми знаниями, в достаточном объеме
они представлены в данном курсе. Подчеркну, что не нужно быть гуру в оптимизации
и эти базовые знания приобретаются достаточно быстро. После этого начинаем
работать,экспериментировать, выводить сайты в топ и т.д. Здесь нам и становятся
нужны программные средства.
2. Составляем примерный список ключевых
слов и проверяем уровень конкуренции по ним. Оцениваем свои возможности и
останавливаем выбор на достаточно популярных, но среднеконкурентных словах.
Подбор ключевых слов делается с помощью соответствующего модуля, примерная
проверка конкуренции в нем же. По наиболее интересным для нас запросам проводим
детальный анализ выдачи поисковых систем в модуле Page Rank анализатор и
принимаем окончательные решения по ключевым словам.
3. Начинаем писать
тексты для сайта. Часть текстов я пишу самостоятельно, часть наиболее важных
отдаю на написание журналистам. То есть мое мнение - контент прежде всего. При
наличии хорошего информационного содержимого, будет легче получать внешние
ссылки и посетителей. На этом же этапе начинаем использовать модуль
HTML-анализатор, создаем нужную плотность ключевых слов. Каждую страницу
оптимизируем под свое словосочетание.
4. Регистрация сайта в
каталогах. Можно делать самому, можно приобрести программу-самбиттер, либо
заказать профессионалам - хорошо зарекомендовал себя сервис регистрации в
каталогах 1ps.ru
5. После того, как первые шаги сделаны, ждем и проверяем индексацию,
чтобы убедиться, что сайт нормально воспринимается различными поисковыми
системами.
6. На следующем шаге уже можно начинать проверку позиций
сайта по нужным ключевым словам. Позиции скорее всего будут не очень хорошими
сначала, однако информацию к размышлению это даст.
7. Продолжаем
работать над увеличением ссылочной популярности, процесс отслеживаем с помощью
модуля Внешние ссылки
. 8. Посещаемость сайта анализируем с помощью
Лога анализатора и работаем над ее увеличением.
Copyright © 2002-2007 Semonitor - программа для раскрутки
сайта
|
Категория: Мои статьи | Добавил: moneybooker (01.01.2013)
|
Просмотров: 737
| Рейтинг: 0.0/0 |
|
|
Copyright MyCorp © 2024 |
|
|