4352

Раскрутка WEB-Сайтов

Реферат

Информатика, кибернетика и программирование

Термины. Методы раскрутки сайта. Регистрация в поисковых системах и каталогах. Регистрация на поисковых сайтах и директориях. Что такое индекс цитирования Ссылочное ранжирование. Влияние собственных ресурсов поисковых машин. Перспективы развития...

Русский

2012-11-16

256.5 KB

3 чел.

Термины.

Методы раскрутки сайта.

Регистрация в поисковых системах и каталогах.

Регистрация на поисковых сайтах и директориях.

Что такое индекс цитирования?

Ссылочное ранжирование.

Влияние собственных ресурсов поисковых машин.

Перспективы развития.

Если вы создаете новый или раскручиваете существующий бизнес, вам необходимо проанализировать текущую ситуацию на рынке, на который вы претендуете, четко спланировать свою маркетинговую стратегию, произвести все необходимые работы и потом тщательно контролировать его выполнение. На сто процентов приемлема эта схема и при работе по продвижению веб-проектов. Причем, наверное, самое немаловажное место в этой формулировке занимает анализ текущей ситуации сайта и положения на рынке. Всем, кто хоть как-либо имел дело с продвижением веб-проектов, понимает, что это - очень затянутый по времени процесс и начинает себя окупать не скоро. И при таком раскладе исходные установки, на которых будет базироваться вся работа, имеют определяющее значение - ведь если они будут изначально неправильны, то срок повторных работ, будучи и без того немалым, удвоится.

Термины

Оптимизация сайта -работа с кодом и текстом web-страниц, имеющая целью использование совокупности внутренних факторов, применяемых на странице web-сайта, оказывающих влияние на результат выдачи по данному поисковому запросу. Начинается оптимизация сайта с выяснения потребностей Клиента, направления его бизнеса, сленговых терминов. После чего с помощью информации, находящейся в открытом доступе, выявляется семантическое ядро запросов, которое затем будет использовано в тексте страниц сайта. Другими словами, подбираются наиболее часто спрашиваемые пользователями ключевые слова и фразы, относящиеся к бизнесу Клиента, и включаются в контент страницы. Анализ сайтов конкурентов также обычно включен в оптимизацию сайтов. Далее, в идеальном варианте, разрабатывается структура сайта, происходит работа с кодом страниц, в том числе и с HTML тегами, с внутренним ссылочным ранжированием. Оптимизация сайтов настраивает «внутренности» сайта на восприятие его поисковыми машинами как наиболее подходящего в качестве ответа на данный запрос пользователя. Если заданный запрос не очень часто спрашивается в поисковой машине, и специалисты конкурентов не применяли оптимизацию сайта или продвижение, вполне вероятно, что для появления сайта на первой страницы выдачи по данному запросу вполне хватит использования только оптимизации сайта. Однако по высоко конкурентным запросам средств оптимизации сайта обычно бывает недостаточно.

Продвижение сайтов - комплекс мероприятий, направленных на изменение внешних факторов, влияющих на результат выдачи по данному поисковому запросу или опосредованно связанных с поисковой выдачей. При продвижении сайта выполняются работа с внешним ссылочным ранжированием (получение тематических ссылок с других web-ресурсов, отвечающих выбранной стратегии продвижения сайта, на нужные страницы ресурса Клиента). В результате через некоторое время, после индексации поисковой машиной страниц с такими ссылками, сайт постепенно начинает занимать в поисковой выдаче лидирующие позиции. Механизм прямого продвижения сайтов теоретически прост, но достаточно трудоемок, хотя и обеспечивает надежное и устойчивое продвижение сайтов по заданному запросу. В поисковой выдаче можно встретить в описании некоторых сайтов текст «найден по ссылке». Это значит, что точного соответствия запросу на странице нет, но на сайт ссылаются текстом этого запроса авторитетные ресурсы. Продвижение сайтов возможно и при отсутствии оптимизации сайта, однако в этом случае процесс продвижения сайта не всегда стабилен и надежен, и становится, по крайней мере, более трудоемким, а результат не таким устойчивым -любое изменение поискового алгоритма, меняющего «вес» ссылок, может сместить сайт с первых позиций вниз. Из опосредованно связанных с поисковой выдачей способов продвижения сайтов можно выделить размещение контекстной рекламы в поисковой машине. При ответе на определенный запрос пользователя поисковая машина вместе с результатами поисковой выдачи покажет и рекламное объявление Клиента, заказанное им под этот запрос. Данный метод продвижения сайтов обычно применяют в случае необходимости получить целевых посетителей на сайт без временных затрат, характерных для продвижения сайта и до того, как сайт займет надлежащее место в выдаче по этому запросу. Наибольший минус этого метода в том, что доверие пользователей (и количество заходов на сайт) на порядок больше к поисковой выдаче, чем к результатам контекстной рекламы.

Раскрутка сайтов - привлечение посетителей на сайт Заказчика способами, не связанными с результатами выдачи поисковых машин по данному запросу. В категорию «раскрутка сайта» (другое название - непоисковое продвижение сайта) относят все способы рекламы сайта, которые не связаны с получением проиндексированных поисковой машиной текстовых ссылок на сайт или поисковой выдачей.

Чтобы привлечь больше посетителей, надо увеличить посещаемость сайта. Поскольку основная масса посетителей ищет информацию через поисковые системы, то успех привлечения посетителей во многом зависит от того, насколько страницы сайта успешно оптимизированы для попадания на первые строчки поисковых систем по наиболее востребованным ключевым словам - нужно попасть на первую страницу результатов поиска – и проблема с посетителями решена. На этом утверждении многочисленные веб-студии, занимающиеся оптимизацией сайтов под поисковые системы, зарабатывают деньги. Понятие «раскрутка сайта» предполагает:

  •  размещение графических баннеров на сайтах, ведение тематических рассылок, размещение пресс-релизов, рекламирование ресурса вне Интернета;
  •  развитие разделов - статьи и классификаторы, глоссарий, новостной раздел, каталог сайтов, доска объявлений, форум;
  •  создание и индексация страниц магазина (товарного раздела, раздела бренда, страниц товара, страниц заказа и других вспомогательных страниц);
  •  разделение контента по доменам и субдоменам.

Все эти способы раскрутки сайта могут применяться как комбинированно, так и по отдельности. То есть раскрутка сайта в каких-то областях достаточно сильно пересекается с тем, что сейчас называется PR (Public Relation), Интернет-промоушн, рекламой в Интернете, маркетингом (Интернет-маркетинг), в то время как продвижение сайта и, тем более, оптимизация сайтов, имеют меньшее пересечение с указанными областями деятельности.

Методы раскрутки сайта

Для начала возьмем сайт. Обычный сайт, не особо балованный посетителями, ориентированный на конкретную аудиторию и предлагающий определенный вид товаров или услуг. Наша цель - вывести его на первые страницы поисковиков и направить к нему целевой трафик. Но для того, чтобы приступать к работе, необходимо дать ответ на целый ряд вопросов. Нужно знать причины, почему существующий сайт не занимает лидирующие позиции, откуда приходят посетители, как они переходят с одной страницы сайта на другую, и главное - почему они покупают или не покупают товары, предложенные на нем, то есть, оценить степень оптимизации и уровня юзабилити сайта (удобства для пользователей).

Одна из задач, которую надо решить - привлечь как можно больше посетителей и перевести их в статус пользователей. Высокий уровень готовности сайта - основа успеха. Если на этапе раскрутки сайта посетитель не получает доступа к сайту, то он уже не будет пользователем. Решение это тесно связано с понятием «барьер освоения». Любое приложение применительно к любому пользователю (а пока что только посетителю) имеет свой барьер освоения. Не преодолевшие этот барьер, так и останутся всего лишь посетителями, причем одноразовыми. Почему уходит посетитель? Потому что ему либо действительно не нужно это приложение (сайт), либо он не смог (не захотел) разобраться в нем.

Практически все причины неудачного освоения приложений -на совести разработчиков: посетитель всегда прав, даже (и особенно) когда его нет. Уровень эргономики и дизайна приложения обычно является следствием несколько общих факторов. Приложение имеет не просто определенный набор функций, но некоторую предметную область, определяемую назначением и областью применения этого приложения. Предметная область применительно к приложению имеет несколько аспектов, то как:

ее представляет пользователь и разработчик;

она отражена в схеме базы данных и в пользовательском интерфейсе.

Высота барьера освоения зависит в первую очередь от того, насколько естественно выражена в пользовательском интерфейсе и в поведении приложения модель предметной области с точки зрения пользователя, а также насколько они традиционны и узнаваемы. Квалификация пользователей и степень адекватности им представления предметной области могут существенно различаться. Поэтому приложения должны предоставлять на выбор несколько режимов работы: для начинающих, для продвинутых пользователей и т.д.

Важно, чтобы пользователь и приложение говорили на одном языке. Каждый не раз сталкивался с ситуацией, когда приложение странно ведет себя и выдает невнятные сообщения, а пользователь выполняет непонятные действия - просто они говорят на разных языках.

Раскрутка сайта: практические советы

Подумайте, с помощью каких фраз будут искать ваши товары. Наберите наиболее перспективные поисковые фразы и посмотрите, кто есть кто на первой странице. Если какие-либо сайты не являются вашими прямыми конкурентами, с ними стоит договориться об обмене ссылками. Лучше всего это получается, если написать хорошие статьи и в подписи к статье указать адрес вашего сайта.

Проверьте поисковые фразы на "Яндекс.Директа". Создайте список фраз, сходных с заданными изначально. Используйте "Рамблер-Ассоциации" для поиска близких по значению выражений. В списке для каждой ключевой фразы укажите количество запросов в месяц (по данным Яндекса). Упорядочьте этот список по потенциалу поисковых фраз. Выделите первые 30-50 согласно следующему принципу: если фраза сама по себе может быть вынесена в заголовок страницы, так её и оставляйте. Если нет - преобразуйте её в вид, при котором она будет смотреться более естественно. Остальные оставьте без изменения. Для выделенных фраз напишите отдельные страницы, где заголовок страницы будет в тегах title, keywords, description, h1, th, и несколько раз выделен тегом b в тексте страницы. Размер каждой страницы должен быть не менее 200 слов. На странице должно быть 2-3 изображения, значение alt-тега которых будет совпадать с заголовком. Для оставшихся фраз автоматически создайте набор страниц с использованием правил из предыдущего пункта. Текстом может быть что-то вроде "Если вы заинтересовались "ключевая фраза", то мы можем вам помочь.

Все это "богатство" выложите в корневую директорию сайта и сделайте ссылки обязательно с главной страницы. Известите ваших партнеров о создании вашего сайта, попросите их о добавлении ссылки на ваш сайт с их сайтов. Создайте одностраничные сайты на любом бесплатном хостинге с оптимизированным под основные ключевые слова текстом. Ждите 2-3 недели, пока вас проиндексируют поисковые машины. Как только появитесь - начинайте "колдовать". К примеру, если одна из страниц находится очень низко по какому-то слову, добавьте материалы по этому вопросу. Это позволит увеличить количество ключевых слов на странице.

Почаще добавляйте новые статьи на сайт. Содержание статей должно соответствовать как основным, так и второстепенным ключевым словам. Работайте с посетителями! Прежде всего, попросите друга позвонить по телефону, указанному на сайте и попробовать поговорить с сотрудниками. Затем напишите письмо от имени Васи Иванова с конкретными вопросами.

Развитие и обновление сайта. Если не обновлять и не развивать свой сайт, то проект умрет. Индексирование html страниц поисковыми роботами происходит достаточно быстро. Но сайт развивается, добавляются новые разделы, поэтому неизбежна перестройка всей структуры сайта. Работа по совершенствованию и обновлению сайта, его дизайна, юзабилити, никогда не останавливается. И посетители это замечают. Наиболее существенной частью развития является создание динамических страниц на основе баз данных. Еще одно направление развития проекта, пожалуй, самое важное -увеличение информационного наполнения, сайта. Постоянно нужно добавлять какие-то новые темы или расширять существующие на сайте. При этом не забывая об общей тематике. Когда ваш проект вырастет из нескольких страничек до небольшого сайта (или даже портала), придется работать в команде из нескольких человек.

Кольца сайтов представляет собой объединение группы сайтов схожей тематики с целью обмена посетителями. Кольца сайтов являются мощным инструментом популяризации сайта и привлечения посетителей. Наиболее ощутимый эффект кольца сайтов могут принести ресурсам с низкой посещаемостью. Для большинства вебмастеров у которых нет опыта и достаточных знаний в области Web маркетинга и раскрутки сайта без каких-либо затрат, кольца сайтов могут стать одним из основных источников посетителей. Кроме того, посетители, заходящие на ваш сайт с другого схожего по тематике сайта, являются более ценными, чем случайные посетители из рейтингов, например, так как они могут стать постоянными посетителями. Ознакомиться с построением колец сайтов можно по адресу http://inethelp.ru/webring/.

Информеры. В самом простейшем варианте используются информеры по погоде, курсу валют и последним новостям. Как правило информеры предоставляются бесплатно. Они выгодны поставщикам информации, т.к. являются их рекламой. Например, на сервере Фобос (http://www.gismeteo.ru/) Вы найдете информеры с погодой на большинство городов, интересующих отечественного потребителя. Даже самое убогое тиражирование на своих страницах перечисленной информации фантастически увеличивает возвращаемость клиентов на сайт. А грамотное тиражирование обеспечит заход посетителей на сайт поставщика информации именно с Ваших страниц.

Баннерная реклама. Необходимо зарегистрироваться в баннеробменной сети TBN. Казалось, что может быть проще и эффективнее: на сайте показываются чужие банеры и в обмен на это показываются баннеры сайта -сайт рекламируется, посетители приходят. Участие в баннерной сети может принести 5-10 посетителей в сутки. Сейчас активно развивается платная реклама – прежде всего так называемая контекстная реклама по ключевым словам на поисковых системах с оплатой «за клик».

Создание рассылки. Рассылки бывают разные: это могут быть только новости сайта, или часть нового материала с анонсами, или самостоятельная рассылка, в которой будут публиковаться интересные статьи, обзоры и т.д. Для поддержки сайта, нужно создавать что-то среднее -это должна быть самостоятельная рассылка на основе материалов с сайта. Здесь можно воспользоваться сервисом почтовых рассылок Subscribe.Ru, Content.Mail.Ru. Новости меняется только один раз в неделю. Для такой частоты смены информации самым распространенным "вещателем" является почтовая рассылка.

Участие в обзорах, форумах, написание статей. В основном, эти все действия подразумевают ваше активное участие. В Рунете существует достаточно большое количество различных обзоров интересных сайтов. Они могут иметь самые разные названия (веб-обзор, обзоры сети, прогулки по сети, навигатор Интернет, заметки, журнал Интернет обзоров, интересные места в Интернет и т. д. и т. п.), но суть у них остается одной -это краткое описание одного или нескольких сайтов, которые, по мнению автора, имеют интерес для читателей. Некоторые такие обзоры очень объективны, выходят нерегулярно, и попасть в такой обзор практически не реально. Но в основном авторы таких выпусков с удовольствием примут от читателей ссылки на интересные сайты в сети. Поэтому бывает достаточно написать письмо, в котором вы предлагаете свой сайт для обзора, и отправить понравившемуся вам автору.

Аналогично обстоит дело и с рассылками на такую же тему -обзоры сайтов в сети. Вам нужно написать письмо с кратким описанием своего сайта и предложением его автору для обзора. Это могут быть или тематические рассылки или рассылки общей направленности с интересными описаниями различных сайтов.

Кроме всех вышеперечисленных активных действий с вашей стороны по поводу появления анонса вашего сайта в форумах, обзорах и рассылках, вполне возможен такой вариант, когда ссылка на сайт появляется в обзорах или на форумах без вашего участия. Это означает, что сайт уже заметили и он на самом деле интересен посетителям.

Офф-лайн реклама. Можно выделить несколько приемов такой рекламы: объявления в газетах, расклейка объявлений (плакатов), одежда, аксессуары с адресом и символикой сайта.

По крайней мере, первые два способа офф-лайн рекламы вполне реально осуществить без серьезных финансовых затрат. Поместить небольшое сообщение от частного лица в какую-либо газету бесплатных объявлений не представляет собой ничего сложного. Так же без проблем можно сделать красивое и интересное объявление формата А4, в котором не обязательно составлять длинный текст, а достаточно сделать крупным шрифтом адрес вашего сайта, распечатать на цветной бумаге и расклеить, например, в ВУЗах вашего города или рядом с Интернет-кафе.

Третий вид офф-лайн рекламы требует денег на осуществление и подходит, больше для проведения рекламных кампаний крупных сайтов. Ведь не каждый может позволить себе заказать несколько сотен ручек, календариков, бейсболок, маек, кружек, часов и т. д. с символикой сайта.

При этом можно сделать вывод, что только примерно 60% успеха сайта в сети зависит от работы автора или веб-дизайнера, остальные 40% (или даже больше) -это качество и привлекательность самой информации на сайте, его темы. Ведь если ваш сайт интересен и полезен для посетителей, он и без рекламной кампании и супер дизайна завоюет популярность.

Самый первый интернет-сервис, которым необходимо воспользоваться для раскрутки сайта -это системы подсчета статистики посещений. Без информации, которые будут выдавать вам установленные счетчики, вы не сможете качественно и количественно анализировать аудиторию сайта. Самые популярные в настоящее время профессиональные системы сбора Интернет-статистики -это SpyLog и HotLog. К сожалению, SpyLog давно уже стал платным сервисом, но система HotLog ни в чем ему не уступает. Если на вашем хостинге разрешено выполнение скриптов, обязательно установите свой собственный счетчик, его вы сможете настраивать по своему желанию.

Заиндексируйтесь на Яндексе, Рамблере, Гугле, Апорт и мелких поисковиках. Зайдите в директорию Яндекса в раздел "Каталоги". Зарегистрируйтесь хотя бы в первых 200. Это даст вам примерно 40 ссылок.

Согласно статистике компании OpenStat рейтинг наиболее популярных поисковых машин представлял собой следующее: Google 56.1, Yahoo 21.5%, MSN Search 9.4%, AOL Search 3.7%, Terra Lycos 2.3%, Altavista 1.9%, AskJeeves 1.6% . О том, что Google прочно укрепился на первом месте по популярности вряд ли стоит говорить. Эта компания, основанная двумя студентами Стенфордского университета, и которая лишь в сентябре 1999 сняла знак бета-версии со своего веб-сайта, сейчас осуществляет поиск по трем миллиардам веб страниц и делает более 50 процентов всего трафика любого веб-сайта.

Наиболее популярными российскими поисковиками и каталогами являются: www.ru, weblist.ru, www.rambler.ru, yandex.ru , www.aport.ru, http://dir.spylog.ru/, www.list.ru, 1000.stars.ru/, top.list.ru/.

Интересную информацию дает рейтинг 1000.stars.ru/, который позволяет отслеживать подробную статистику (с какой станицы пришли посетители, их браузер, параметры экрана и т.д.). Усиленные средства аутентификации пользователя, в сочетании с другими технологиями, помогут обеспечить правильность учета пользователей, конфиденциальность работы и возможность полноценного аудита. Такие технологии, как адаптивное перераспределение нагрузки, системы управления трафиком, технологии наращивания и расширения, а также средства кэширования позволяют создавать Web сайты с большим потенциалом наращивания.

Кроме специализированных систем, некоторые отчеты по статистике посещений сайта могут предложить также рейтинги, в которых необходимо устанавливать счетчики на страницах, например: Mail.ru, Rambler, KM.ru. Можно установить несколько счетчиков, а так же написать собственный невидимый счетчик на PHP.

Сервисы статистики поисковых запросов предлагают все большие поисковики Рунета:

Яндекс.Директ - http://direct.yandex.ru/

Статистика поисковых запросов Рамблера - http://adstat.rambler.ru/cgi-bin/wrds_stat.pl

Google - https://adwords.google.com/select/main?cmd=KeywordSandbox

Mail.ru - http://stat.go.mail.ru/cgi-bin/stat.cgi

Наиболее удобным сервисом для отбора и оценки поисковых запросов для продвижения сайта в Рунете сегодня является Рамблер.

При такого рода анализе следует учитывать, какие поисковики дают больше всего трафика, какие страницы являются наиболее популярными точками входа, как ведут себя посетители, на какие страницы переходят и почему. И главное - доходят ли посетители до конечной цели сайта - страницы заказа, или покидают сайт, не найдя таковой. Зачастую посетители покидают сайт из-за того, что попросту не могут разобраться в навигации по сайту. Такая информация просто необходима для начала работ по улучшению и оптимизации ресурса.

Нужна точная и гибкая система статистики, позволяющая просмотреть данные о посещаемости сайта во всех возможных плоскостях. На данный момент существует два распространенных способа отслеживания статистики посещений - счетчики и лог-анализаторы. Каждый из них имеет свои преимущества и недостатки. Как правило, счетчики годятся для широкого круга пользователей, лог-анализаторы же используют более опытные вебмастера.

Конечно, оптимальное решение - это комбинация обоих видов сбора информации, но такие сервисы пока редкость. Пользователи могут комбинировать оба вида услуг, таким образом, восполняя недостатки одной системы преимуществами другой. Стандартные позиции вебмастеров по отношению статистики своих сайтов можно сформулировать следующим образом. Одна - «счетчики все считают», другая, противоположная - «нет нормального анализатора - нужно написать свой». Многие так и делают. Благо, в последнее время эта позиция пошатнулась, так как появились хорошие анализаторы. Итак, давайте сравним основные недостатки и преимущества обеих систем. Главный недостаток счетчиков - это отсутствие учета посещений поисковых роботов. Вебмастер, раскручивающий новый ресурс, нуждается в такой информации критически, поскольку от того, был ли ресурс проиндексирован, зависит срок появления ресурса на поисковом сервере. Кроме того, счетчики предоставляют недостаточно гибкий отчет по статистике, они ограничиваются, как правило, общей информацией о посещаемости и о посетителях.

Что же должен уметь счетчик? Точнее, что он должен показывать? Возьмем главные требования к среднестатистическому счетчику:

  •  Кто пришел. Здесь должна отображаться информация о пользователе, пришедшем на ваш сайт (его IP, браузер, ОС)
  •  Реферер, то есть, страница, с какой он пришел. Жизненно важный фактор. Поможет вебмастеру планировать и анализировать эффективность рекламной стратегии, ведь по этой информации можно делать выводы о том, стоит ли продолжать рекламироваться на той или иной площадке.
  •  Время заходов, желательно полная информация о времени всей сессии пользователя на сайте, время пребывания на каждой странице и т. д.
  •  Общая статистика посещаемости, желательно с детальным распределением по времени
  •  Информация о хостах, посетителях, хитах и сессиях.

Поисковая машина в своей работе пользуется технологией PageRank. Каждая ссылка на сайт считается «голосом» за этот сайт и, соответственно, помогает ему поднять рейтинг. При этом оценивается не только сайт, к которому ведет ссылка, но и сайт, на котором находится ссылка, то есть оценивается релевантность сайта данной тематике. Под релевантностью следует понимать соответствие содержания сайта объявленной тематике. То есть, поисковая машина считает оглавление страницы, содержимое мета тэга DESCRIPTION, и несколько абзацев текста. Тэг KEYWORDS будет проигнорирован, она сама решит какие слова для данной страницы являются ключевыми, проанализировав частоту повторений определенной фразы в тексте. Тем не менее, рекомендуется не отказываться от этого тэга, поскольку другие машины все еще пользуются им при оценке релевантности страниц. Также, следует обратить внимание на «заметность, или броскость» ключевых слов. Особую важность будут иметь заголовки, заключенные в тэги <H1>-<H3>, слова выделенные полужирным шрифтом, а также текст гиперссылок. Также, предполагается, что определенный вес будут иметь слова в альтернативном тексте изображений (атрибут ALT).

Уточните ключевые слова в метатегах

Тщательно подобранные ключевые слова являются осевой частью любого сайта. Главная цель тут -правильно предвидеть поисковые фразы, которые будут использованы потенциальными посетителями сайта. Основная причина того, что некоторые хорошо сделанные и продуманные сайты не добиваются популярности -неправильное использование ключевых слов.

Подумайте о том, что наиболее точно описывает ваш вид деятельности, и что отличает вашу деятельность от ваших конкурентов; какие слова описывают ваши услуги, месторасположение, касаются потенциальных клиентов и их интересов.

Составьте список слов, которые описывают ваш сервис. Задайте по ним поиск на известных поисковиках и внимательно изучите полученные результаты. Просмотрите сайты ваших главных конкурентов в данной области и подсмотрите в коде их страниц как это реализовано у них.

Разбейте содержание сайта на ясно очерченные страницы и секции, которые представляют наиважнейшие тематики. Разработайте карту сайта. Каждая страница должна называться соответственно ключевому слову, на которое она направлена. Отталкивайтесь от составленной карты при создании сайта. Не прячьте основные страницы очень глубоко. Разместите навигационные ссылки так, чтобы минимизировать количество кликов при переходе от одной страницы на другую. Для сайта, содержащего, например, сто страниц нетрудно сделать так, чтобы одна страница была не дальше, чем в двух кликах от другой. Дело в том, что некоторые поисковики индексируют только несколько первых страниц сайта, таким образом, если вы сделаете навигацию как можно проще, вы облегчите им поиск и индексацию остальных страниц.

Если сайт содержит страницы, не имеющие отношения к основному назначению сайта, скажем, для другого рода вашей деятельности, их лучше разместить под другим доменом.

Разрабатывайте новые страницы так, чтобы они привлекали поисковых роботов. Основные способы для привлечения, как роботов, так и людей, совпадают. И те, и другие высоко оценят сайт, если он хорошо организован и насыщен полезной информацией.

В идеале каждая страница должна содержать следующие тэги: TITLE, DESCRIPTION и KEYWORDS. Тэг TITLE (заголовок) имеет наибольший вес при индексации. Содержание именно этого тэга выводится в результатах поиска, а следовательно, не только роботы, но и люди быстрее обратят внимание на грамотный и хорошо написанный заголовок. Заголовок должен быть коротким и, при возможности, содержать ключевые слова. Не поддайтесь искушению внести название своей компании или начать заголовок с доброжелательного «Добро пожаловать…». Еще худший эффект будет иметь игнорирование этого тэга.

Тщательно оформите мета-тэг DESCRIPTION, поскольку именно этот тэг будет сопровождать название вашего сайта в большинстве результатов поиска. Он должен быть коротким -не больше 150 символов, и как можно более интересным. Повторите содержание тэга TITLE и насытьте ключевыми словами.

В последнее время вебмастера все больше и больше пренебрегают мета-тэгом KEYWORDS, ссылаясь на то, что поисковые роботы не индексируют их и не используют в своем алгоритме при оценивании. Это не так. Действительно, Google не проиндексирует в этот тэг, если в тексте страницы он не повторяется, поскольку начинка тэга ключевых слов словами на порнографическую тематику -один из распространенных способов спамирования, а специалисты поисковиков стараются оградить людей от спама. Итак, как правильно отформатировать тэг KEYWORDS? В принципе, большинство поисковиков не учитывают регистр, но предпочтительно, чтобы все слова были в нижнем регистре, поскольку поиск, как правило, делается именно в нижнем регистре. Не следует дублировать слова с большой и маленькой буквы, например «Компьютер,компьютер» поскольку это будет воспринято как попытка искусственно повысить значимость слова. Разделяйте слова запятыми или пробелами. При разделении слов комами каждое слово будет учитываться отдельно. Если вы разделяете слова пробелами, то поисковик будет самостоятельно составлять фразы из слов. Правда, это намного легче реализовать в английском языке, где нет спрягаемых окончаний.

Первый же заголовок на странице должен в той или иной форме обыгрывать содержимое тэга TITLE -это значительно придаст странице релевантности. Желательно чаще использовать тэги заголовков <H1>-<H3> для помещения в них ключевых слов. Это особенно важно для тех поисковиков, которые не учитывают или придают мало значения мета-тэгам.

Когда вы организовываете навигацию внутри сайта, делайте ссылки, ведущие к заголовкам. Каждая ссылка к тематически релевантному заголовку додает веса странице в целом. Так же обратите внимание на сам текст ссылок. Это еще одно место, где ключевое слово будет иметь больший вес, чем в обычном тексте. Изображения будут проигнорированы поисковиками, а вот альтернативный текст изображений -нет.

Не используйте фреймы. Некоторые индексирующие роботы все еще не научились их распознавать, и иногда при просмотре результатов поиска по ключевому слову вы можете увидеть в них сообщение «Ваш браузер не поддерживает фреймы». Это отнюдь не значит, что ваш браузер не поддерживает фреймы, это -всего лишь ответ, который получил поисковый робот при запросе какой-то страницы, содержащей фреймы. Практически невозможно указать путь к странице внутри фрейма. Вебмастера стараются обойти эту проблему, регистрируя на поисковике страницы, содержащие фреймы, но опять же, фреймовые страницы, богатые на содержание, могут остаться непроиндексированными. Если же они и будут проиндексированы, то посетитель, пройдя по ссылке увидит не целый фрейм, а отдельный файл.

Также, следует избегать чрезмерного использования JavaScript. Роботы не умеют различать ссылки внутри JavaScript, в отличие от обычных посетителей, которые без проблем проходят по такой ссылке. Между специалистами по веб-оптимизации ведется долгая дискуссия о том, в каком именно месте страницы размещать код JavaScript. Традиционно вебмастера размещают код в пределах тэга <HEAD>. Существуют ли для этого какие-либо правила разметки, или его можно помещать где угодно. Каждый, кто когда-либо имел дело с JavaScript знает, что его можно размещать где угодно. Размещение же в тэге <HEAD> облегчает работу вебмастеру, но только не роботу. Вопрос состоит в том, как упростить роботу индексацию страницы, например, если там находится несколько строк текста и сотня-другая строк кода JavaScript. Ведь робот должен исследовать страницу от начала и до закрывающего тэга </HTML>, следовательно не имеет значения, где будет находиться JavaScript в коде HTML. Облегчить это задание можно, поместив JavaScript в отдельный файл -он создается в любом текстовом редакторе и имеет расширение .js. В заголовке страницы помещается лишь ссылка на этот файл:

<html>

<head>

<title>Название страницы</title>

<meta name="description" content="Описание страницы.">

<meta name="keywords" content="Ключевые слова">

<script language="JavaScript" src="внешнийфайл.js"></script>

</head>

Похожая ситуация обстоит и с Flash объектами. Есть сайты, где навигация осуществляется исключительно через Flash. Результат -сайт остается полностью не проиндексированным. В лучшем случае поисковик выдает ссылку на домашнюю страницу сайта, дальше же робот пройти просто не смог. Такая страница расценивается как dangling page -страница не содержащая внешних ссылок, и оценивается очень низко. Избежать такой ситуации можно продублировав все ссылки в HTML-коде где-нибудь, скажем, внизу страницы.

Каскадные стили CSS так же рекомендуется выделять в отдельный файл. Это намного упрощает разметку страницы, делает ее более ясной, и экономит трафик. Можно запретить индексацию роботами этих файлов используя robots.txt-специальный файл, помещаемый в корневом каталоге сайта и содержащий инструкции для роботов по индексации.

Каждая страница сайта может оказаться входной страницей, то есть, если робот ее оценит высоко, посетители будут приходить к вам именно через нее. Поэтому следует максимально тщательно обрабатывать каждую страницу. Сначала испробуйте данные рекомендации на нескольких страницах и проверьте их эффективность для сайта.

Определив тематику страницы или сайта по своим собственным правилам, поисковая система будет оценивать сходство тематики сайта и сайтов, которые содержат ссылки на сайт. Ссылки с сайтов со сходной тематикой будут оцениваться выше, чем случайные ссылки.

Еще в 1994 г. разработан протокол исключения роботов. Он был принят, чтобы упорядочить процесс индексации и контролировать его. Когда вы создадите стандартный файл robots.txt, то получите возможность запретить одному, нескольким или даже всем роботам доступ к каталогу, файлу или определенному типу файлов. Вам необходимо лишь правильно отформатировать текстовый файл и поместить его в корень веб-сервера с именем robots.txt (помните, что все буквы должны быть строчными!). При посещении веб-ресурса цивилизованные пауки в первую очередь запрашивают данный файл, а затем покорно следуют его указаниям. Но, как показывают исследования, не все роботы столь «законопослушны». Чтобы убедиться в этом, нужно открыть лог-файл, где серверный компьютер фиксирует данные о посещениях веб-сайта. В каждой записи такого журнала приведены сведения о времени посещения, запрошенной странице, пользовательском агенте посетителя (программе, примененной для открытия страницы) и IP-адресе, с которого пришел запрос.

Для многострадальной раскрутки веб-сайта рекомендуется использовать специальное программное обеспечение, значительно облегчающее его продвижение и настройку, а также анализирующее эффективность прилагаемых усилий. Часть программ представляют собой прекрасный инструмент для изучения популярности сайта и для определения характеристик его аудитории. Почти все программы анализа служебного лог-файла могут легко соперничать по популярности с самыми распространенными онлайновыми сервисами статистики посещений в России.

HotLog. Лучше всего такая информация отображается одним из лидеров отечественной Интернет - статистики - HotLog, который очень удобен в пользовании и предоставляет целый ряд услуг как платных, так и бесплатных. Но ни на одном счетчике нет следующей информации:

  •  Загрузки загрузочных файлов, мультимедийных файлов, флеш - объектов и др.
  •  Количество посетителей, зашедших один раз, (случайные заходы) и постоянных (целевая публика)
  •  Информации об исполнении скриптов в браузере при заходе на страницы.

Почти вся эта информация отображается в логах, однако значительную ее часть невозможно засечь счетчиком. Извлечь и проанализировать ее можно с помощью программ лог - анализаторов. Составим же список требований к анализатору логов:

  •  Гибкая система отчетности - это главное преимущество анализаторов перед счетчиками, где отчеты фиксированные
  •  Распознавание как можно большего количества поисковых роботов
  •  Распознавание заходов с поисковых систем. Счетчики почему-то разделяют заходы, например, с google.com и google.ru
  •  Распознавание географии пользователей. К сожалению, такая функция доступна лишь в немногих программах, так как требует огромной, постоянно обновляемой базы данных IP-адресов
  •  Настраиваемая система отчетов.

Лог-анализатор выдает много лишней информации, которую следует отфильтровывать, но помогает, например, при отслеживании хакерских атак. Кроме того, программы несколько дороговаты, а бесплатные, как правило, никуда не годятся. Рассмотрим общую функциональность нескольких лог-анализаторов, достойных особого внимания.

Лог-анализатор от WebTrends. Очень мощный инструмент для сбора и обработки статистической информации, признанный лидер среди лог-анализаторов. Система отчетов настолько исчерпывающая, что трудно разобраться даже после недели работы. Один из лучших инструментов по функциональности для опытных вебмастеров. Недостатков можно привести только два - немалая цена и некорректное отображение кирилличных кодировок.

Log Analyzer от компании NetPromoter, отлично справляется со всевозможными кодировками. Небольшая по объему дистрибутива программа, тем не менее, отвечает большинству из вышеперечисленных требований. Распознает визиты роботов и заходы с поисковиков, имеет достаточно обширную, но тем не менее, гибкую систему отчетов. Распознает различные форматы лог-файлов и позволяет настраивать свои собственные форматы. Главное преимущество программы - она позволяет качественно работать со статистикой отечественных поисковиков, чего нет ни в одном зарубежном аналоге.

Анализатор логов и счетчик ALWA позволяет отслеживать действия пользователей. Проставляя ссылки с параметром, получаете возможность отследить заход на сайт посетителя по этой ссылке. Отчет предназначен для того, чтобы можно было точно анализировать переходы клиента по ссылке с рекламного блока. В Яндексе сайт виден по нескольким запросам, а по ним же показываются контекстнорекламные объявления. Ссылки ведут на одну и ту же страницу. Как определить, сколько человек кликнуло именно на рекламный блок, а сколько зашли из результатов поиска? Этот же отчет помогает легко оценивать посещение определенных страниц, закачку файлов и многое другое.

Web Log Explorer -Log Analyzer 1.8. Очень мощная программа для проведения многостороннего анализа посещаемости веб-сайта. Она также генерирует 23 основных и вспомогательных отчета в табличной форме и диаграммах. Просмотреть статистику посещаемости веб-ресурса допускается практически под любым углом и в любой форме, включая Search Engines Report и SE Robots Report (именно здесь отображаются данные о поисковых роботах, побывавших на сайте). Программа распознает 23 основных поисковых робота-паука. Web Log Explorer предназначена, скорее, для ведения общей статистики популярности веб-сайта. Вы можете просматривать графики посещений по дням недели, по времени суток, по пользовательским агентам и даже по операционным системам пользователей. Лог-файлы посещения могут быть расписаны программой по 53 тыс. городов мира, включая более 500 российских населенных пунктов. Web Log Explorer правильно обрабатывает самые распространенные форматы лог-файлов: отсутствие модуля, работающего на стороне сервера (приходится загружать на ПК большие лог-файлы). Сайт программы -http://www.exacttrend.com/WebLogExplorer/.

Advanced Log Analyzer 1.4. «Навороченная» программа для всестороннего анализа log-файлов сайтов. Может работать в режиме графического интерфейса, а также в качестве консольной программы. Имеет серверный вариант как CGI-приложение для работы на Microsoft Internet Information Server (IIS) и Apache-серверах. Предоставляет широчайшую свободу настроек и традиционных отчетов по сотням показателей (наиболее посещаемые страницы, статистика посещений по дням, неделям и месяцам), и нетрадиционных (время, ушедшее на загрузку файлов и страниц). Работает с девятью основными форматами лог-файлов, в том числе и с архивированными логами -.gz-файлами. Имеет такую интересную функцию настройки, как возрастающий анализ (incremental analysis), предусматривающий кэширование предварительно проанализированных лог-файлов. Таким образом, при работе с файлом больших размеров программа не анализирует его целиком, а использует сохраненные в кэше данные, разбирая только свежие записи. В ней есть также и планировщик заданий, автоматически просматривающий лог-файлы с заданной периодичностью. Думаем, что эту программу можно было бы считать лучшей для анализа лог-файлов, если бы не одно маленькое «но» -хотя она и имеет наряду с англоязычным интерфейсом еще пять дополнительных, среди них нет русского, так что программа не умеет правильно обрабатывать запросы российских поисковых машин. Недостатки: сложная организация интерфейса; отсутствие БД роботов и редактора файлов robots.txt. Сайт программы -http://www.vknoware.com/ala/.

Программа 123LogAnalyzer -удобный инструмент, превращающий «сырые» лог-файлы в упорядоченные результаты всестороннего анализа аудитории и перспектив информационного ресурса. 123LogAnalyzer описывает, каким образом посетители просматривают сайт, какие страницы читают (или игнорируют), как долго проводят время на веб - странице, откуда прибывают, по каким поисковым словам находят вас и т.д. Прогрессивные фильтры 123LogAnalyzer позволяют изучать только тех посетителей, которые попали на определенные страницы, или тех, кто загрузил определенные файлы, например мультимедиа. Вы можете также сосредоточиться на тех, кто прибывает со специфического URL, из определенной страны или в конкретные часы. Программа-анализатор функционирует как на различных ОС клиентского ПК, так и на стороне сервера сайта (Windows NT/2000 server, Linux/FreeBSD/ Sun Solaris/Mac OS X servers). Она умеет хорошо работать с большими лог-файлами и способна ежесекундно анализировать около 94 тыс строк, т. е. за минуту справляется с 1-Гбайт файлом. Недостатки: запутанная система отчетов; отсутствие БД поисковых роботов и редактора файлов robots.txt. Сайт программы -http://www.123loganalyzer.com/.

Robots.txt Editor and Log Analyzer 1.1. База данных о пользовательских агентах роботов включает 182 записи, которые можно пополнять своими, регулярные обновления, русскоязычный интерфейс, детальный и содержательный файл помощи. Программа позволяет запрещать доступ не только к каталогам сайта, но и просто к файлам с определенным расширением. Лог-анализатор автоматически определяет формат лог-файла (поддерживаются серверы Apache, Microsoft IIS и «маргинальный» Zeus) и позволяет работать с архивными лог-файлами формата .gz. Лог-анализатор дает возможность импортировать лог-файлы, извлекать оттуда данные и экспортировать их в форматы Microsoft Excel CSV, XML или в один из серверных лог-форматов для дальнейшей обработки и сохранения. Особое внимание следует обратить на сохранение и пополнение БД посещений роботов, чтобы позднее можно было отслеживать тенденции.

Регистрация в поисковых системах и каталогах

Регистрация Web сайта в поисковиках, каталогах, участие в рейтингах не приносит сама по себе большого трафика, однако, она позволяет получить постоянный приток посетителей. Все странички должны быть оптимизированы для поисковых систем. Это относится к заголовку страницы, к метатегам и непосредственно к содержанию, в котором выбранные вами ключевые слова должны встречаться достаточно часто, а так же не забывайте про тег ALT ко всем картинкам. Существуют дополнительные методы привлечения посетителей с помощью поисковых систем. Уделите некоторое время перед регистрацией сайта в поисковиках на проверку всего текста. Бесплатно зарегистрируйтесь на Web сайтах, содержащих каталоги адресов на Web; обменяйтесь ссылками с другими Web сайтами сходной тематики; укажите адрес Web сайта на всех печатных материалах: визитках, бланках и т.д.; используйте баннерную рекламу (помещение ссылки на Web сайт с другого в виде изображения или текста; отправьте информацию о Web сайте электронной почтой). Удобный инструмент обеспечения оперативной информацией о состоянии природной среды представляют информеры.

На самых главных поисковых системах необходимо прописывать сайт вручную и постоянно следить за результатами. Например, с основных поисковых систем Yandex и Rambler приходит около 85% всех посетителей. Во всех остальных поисковиках и каталогах вам поможет зарегистрироваться система 1ps.ru.

Тщательно продумайте описание сайта, которое вы будете давать во всех каталогах. Во-первых, оно должно по возможности полно описывать сайт и ни в коем случае не обманывать посетителей, не зазывать общими фразами, во-вторых, описание должно быть составлено с учетом возможного расширения сайта, добавления в него новых разделов, тем. Ведь у вас может не быть времени или возможности обновлять при необходимости данные сайта в более чем 200 каталогах Рунета.

Новые каталоги появляются довольно часто, поэтому нужно следить за этим и постоянно добавлять в них информацию о сайте. В таких случаях можно целенаправленно искать каталоги через поисковые системы или регулярно просматривать списки каталогов и рейтингов, например, на Rambler'е или на специализированных сайтах, посвященных веб-мастерам и раскрутке.

Индексироваться необходимо в как можно большем количестве поисковиков и каталогов. Но после регистрации на пяти самых популярных поисковиках, желание работать дальше пропадает. Тому есть несколько причин:

  •  загрузка форм и их заполнение занимает от 2 до 10 минут, т. е. за час можно обработать не больше 10–20 каталогов;
  •  приходится постоянно набирать один и тот же текст;
  •  поиск новых поисковых систем и каталогов также отнимает много времени.

В этих условиях говорить о добавлении сайта в сотни поисковых систем не приходится, это тяжелая ручная работа.

Казалось бы, простая идея -создать систему, в которой регистрация в сотнях каталогов и поисковиков проводилась бы, что называется, «в одно касание», нажатием одной кнопки. Попытки были. Но как бы хороша ни была система автоматической регистрации, она все равно имеет ограниченную точность. Недоверие к автоматам очень распространено и часто -оправдано. При регистрации на крупных поисковиках ошибка может иметь неприятные последствия. На мой взгляд, правильное решение -сочетание ручной и автоматической регистрации. Руками нужно добавить в самые крупные поисковики, а для работы с остальными пользоваться уже системами автоматической регистрации.

Основная причина регистрации сайта в сотнях каталогов, конечно, увеличение количества внешних ссылок на сайт для повышения позиций ссылок на сайт в Яндексе и Рамблере. Никакой другой способ не сможет дать сотни внешних ссылок так легко и легально. Не стоит забывать и о дополнительном трафике с менее известных поисковиков и каталогов. Посещаемость RAX.ru и MavicaNET, например, доходит до 20000 посетителей в день, а WWW.RU, MyWeb.ru, BigMax.ru колеблется около десяти тысяч.

В российском Интернете систем автоматической регистрации сайта не много. Их можно разделить на онлайновые сервисы и программные решения.

Для поисковой оптимизации существуют некоторые общие формулы и способы размещения такого текста на сайте. Итак, как же это все работает? Есть множество нюансов, которые следует учитывать при выборе оптимизационной стратегии, но основные отправные моменты состоят в следующем:

  •  Подбирайте только те ключевые слова, по которым вас будут искать, и по которым нет большого состязания. При большом соперничестве за слово (как правило, это обобщенное слово) пробиться на вершину рейтинга вам будет непросто.
  •  Оптимизируйте мета-тэги. Помните, что ключевые слова подбираются для каждой страницы индивидуально, ни в коем случае не старайтесь впихнуть в тег ключевых слов на каждой странице все возможные слова -вам никогда не удастся таким образом обмануть поисковых роботов.
  •  Оптимизируйте текст страницы. Проверьте, насколько оптимальна частота ключевых слов в тесте (желательно, чтоб она не выходила за 2–7 процентов ни в ту ни в другую сторону). Постарайтесь разместить как можно больше ключевых слов в начале страницы, в первых нескольких абзацах, а также в самых последних предложениях, -такие места наиболее ценятся поисковиками.
  •  Разместите ключевые слова в таких элементах разметки как заголовки Н1-Н3, текстовые ссылки, alt-тэги и названии страницы (тег TITLE).
  •  Обычно веб-мастера помещают JavaScript и таблицы стилей в начале страницы, что заставляет робота перелопачивать десятки и даже сотни линеек кода. Оптимизируйте HTML-код страниц. Вынесите JavaScript и CSS в отдельные файлы, поскольку они попросту засоряют страницы.
  •  Создайте дорвей-страницы, оптимизированные под разные поисковики, разместите их на сайте. Дорвей страницы -это специальные оптимизированные под отдельные ключевые слова страницы, размещаемые на сайте, предназначенные для того, чтобы их видели роботы, но не посетители. Такие страницы добиваются высокого рейтинга на поисковой машине, а посетителей, встроенный в страницу JavaScript, переносит на «настоящую» страницу.

Регистрация на поисковых сайтах и директориях

Давайте сразу же выведем различия между тремя понятиями, которые постоянно путают, но которые, тем не менее, все же следует различать:

  •  Поисковая машина. Это база данных, которая использует поискового робота, для исследования всемирной паутины. При оценивании релевантности сайта робот пользуется алгоритмом, известным только его создателям. Этот алгоритм, к тому же, постоянно меняется, поэтому некоторые компании специально занимаются отслеживанием алгоритма поисковиков, в особенности же Гугла. Поисковая машина может обслуживать несколько поисковых сайтов.
  •  Поисковый сайт – пользуется результатами поиска поисковой машины. Он не обязательно имеет своего поискового робота, и может пользоваться данными нескольких поисковых машин и каталогов.
  •  Веб-каталоги. Это базы данных сайтов, составляемые и редактируемые людьми, работниками компании или добровольцами. Основная цель в существовании каталогов -дать людям непредвзятую объективную информацию и оградить от спама. Недостаток -очень долгий период времени, который проходит между тем, как вы подали сайт на регистрацию, и появлением сайта в индексе каталога. Остановимся на нескольких наиболее достойных внимания поисковых машинах и каталогах.

Скриптов для создания каталогов в сети много. Но найти удобный именно для обмена ссылками не так-то просто. При написании скрипта разработчики ставят задачи, чтобы сделать каталог:

  •  Универсальным (с минимумом требований к хостингу);
  •  Удобным для администратора;
  •  Эффективным (обмен с сайтом, использующим данный каталог должен быть привлекательным для партнеров).

Каталог должен быть:

  •  Прост в использовании и установке.
  •  Иметь минимальные требования к ресурсам - устанавливаться на любом хостинге, даже и бесплатном (а значит - без возможности администрирования сервера), даже и без баз данных.
  •  Позволять массовые операции со ссылками. Массовое копирование, удаление, перенос в другую рубрику.
  •  Генерировать статичные страницы (никаких длинных адресов с параметрами).
  •  Все ссылки на страницах сгенерированного каталога должны быть прямыми - никаких переадресаций!
  •  Страница, где расположена ссылка, не должна менять свой адрес. (Примечание - периодически проверять наличие ссылки на сайт на определенной странице можно и автоматически, при помощи сервиса www.semaster.ru)

Необходимо также реализовать некоторые другие, актуальные для процедуры обмена ссылками функции:

  •  При самостоятельной регистрации партнеру должно быть предложено на выбор несколько вариантов кода (в зависимости от тематики и дизайна регистрируемого сайта).
  •  Простейшая проверка установки выбранного кода на указанной регистрантом странице сайта.
  •  Простой механизм адаптации каталога под дизайн сайта, на котором он устанавливается.
  •  Возможность формировать отдельные наборы мета-тегов для рубрик каталога, что при правильной рубрикации позволяет сделать сам каталог релевантным целевым запросам) (Примечание - примеры таких каталогов - www.optime.ru, www.refer.ru)

Пример такого скрипта размещается по адресу www.linkclub.ru. Его можно скопировать на сервер и установить для изменяемых файлов (содержащих сами линки). Система уведомляет администратора о добавлении нового сайта, вход в систему с логин и паролем. Скрипт распространяется бесплатно. На сайте открыта тестовая версия админки, позволяющая опробовать все реализованные функции. Архив можно скачать со страницы http://linkclub.ru/download1.html. Обновления версий происходят практически еженедельно.

Обмен ссылками. Он выполняет сразу несколько функций: реклама сайта, повышение Индекса цитируемости, поднятие авторитета сайта в глазах посетителей. Все эти функции будут работать наиболее эффективно при одном условии: сайт, с которым вы меняетесь ссылкой, должен быть более популярен и посещаем. Опубликуйте информацию о своем сайте и предложение об обмене в каталоге www.webmasteram.ru, на первом этапе этого будет достаточно, заинтересованные веб-мастера сами найдут вас. Не засоряйте страницы своего сайта ссылками на неинтересные, некрасивые и непопулярные ресурсы.

Вот возможные ситуации, в которых обмен и/или приобретение ссылки не имеет смысла, с точки зрения пользы для продвижения в поисковых системах (вспомним, что "просто обмен ссылками" рассматривается еще и как средство получения дополнительного трафика на сайт не из поисковых систем, а именно с ресурсов, где размещены ссылки).

Веб-мастер, с которым производится обмен, ставит не прямую ссылку на сайт, а редиректную. Пример,

<a href="http://www.your_site.ru">your_text</a> - прямая ссылка,  

<a href="http://www.his_site.ru?

param=www.your_site.ru">your_text</a> - непрямая.

Быстрая проверка прямая ссылка или нет делается при помощи наведения на нее курсора - в этом случае в статусной строке браузера (слева внизу) показывается адрес перехода. Но встречаются случаи, когда веб-мастера специально обрабатывают событие - наведение на ссылку курсора (onMouseOver) - и отображают в статусной строке прямую ссылку, хотя реальный адрес - редиректный. Поисковому роботe такая ссылка, конечно же, не видна.

  •  Веб-мастер, с которым производится обмен, закрывает директорию, где находится страница с ссылкой, от индексации поисковыми роботами при помощи записи в файле robots.txt
  •  Веб-мастер, с которым производится обмен, закрывает от индексации часть кода, где находится ссылка, при помощи тега <NOINDEX> 
  •  Веб-мастер, с которым производится обмен, удаляет ссылку, как только убедится, что на своем сайте вы поставили ссылку на него, в надежде, что вы не будете проверять и удалять "в отместку" его ссылку.
  •  Сайт веб-мастера, с которым производится обмен, забанен поисковыми системами и запрещен к индексации.

Что такое индекс цитирования?

Это количество и качество ссылок, ведущих на сайт с других сайтов. Чем большее количество ссылок существует на сайт, тем лучший рейтинг он получает. Другими словами - это популярность сайта. Этот метод сейчас широко используется поисковыми системами для ранжирования сайтов. Качество ссылок играет большую роль. Это просматривается в трех случаях:

1) откуда идет ссылка! Чем больше известных сайтов ссылаются на сайт тем большую роль будет играть ссылка.

2) тематическая надпись на ссылке: многие поисковые системы анализируют релевантность содержимого ссылки и сайта, на который она ведет. То есть, если на ссылке написано "поиск и поисковые системы в интернет", а сайт, куда она ведет так же посвящен "поиску и поисковым системам в интернет", то ссылка приобретает дополнительный "вес".

3) тематическая принадлежность сайта. Если ссылка расположена на схожем с по содержанию ресурса, то ее вес будет сильнее.

Индекс цитирования является очень важной составляющей при ранжировании страниц поисковыми системами. Для увеличения индекса вебмастера используют обмен ссылками, а условия обмена обсуждаются с каждым вебмастером отдельно. Необходимо найти круг сайтов, посвященных теме рассматриваемого сайта. Войдите в контакт с вэбмастером. Кратко расскажите о сайте и дайте понять, что это будет выгодно обоим.

Самый простой способ поднять ИЦ это обмен ссылками между сайтами. Это должен быть самый первый шаг к повышению ИЦ. Но, совершая такой обмен ссылками, вы сознательно идете на искусственное увеличение ИЦ, т.к. ИЦ представляет собой, количество ссылок на ценную информацию, расположенную на другом сайте, а не на сайт как таковой.

Сайт, с которым вы хотите обменяться ссылками, не должен находиться на бесплатном сервере. Но здесь есть исключение: ссылка учитывается поисковой системой ЯНДЕКС, если сайт описан в ее каталоге. Ссылка считается более ценной, чем выше ИЦ сайта, с которым вы совершаете обмен. На странице нельзя размещать более 7 ссылок. Иначе их ценность резко снижается, практически до нуля. Здесь под ссылкой понимается ссылка на другой ресурс, т.е. за пределы сайта. Отношение текста ссылок на странице к тексту самой страницы, без учета текста ссылок, должно составлять не более 30%. Ссылки не должны быть взаимными. Такие ссылки не учитываются, а если учитываются, то ее "ценность" очень маленькая. Простейшая схема обмена: сайт "А" ссылается на сайт "Б", сайт "Б" ссылается на сайт "В", а сайт "В" ссылается на сайт "А".

Все ресурсы, которые хотят совершить обмен ссылками; разделить на 3 равные группы. Первая группа ресурсов ссылается на вторую группу. Вторая группа ресурсов ссылается на третью. Третья группа ресурсов ссылается на первую.

Теперь рассмотрим более сложную схему. В ее основу положен принцип финансовых пирамид. Найти ресурсы, желающие обменяться ссылками. Каждый ресурс получает страницу с 5 ссылками, которую необходимо разместить на ресурсе. Каждый ресурс находит 5 желающих обменяться ссылками, и посылает им страницу с 5 ссылками, где на нижней позиции пишет текст своей ссылки с описанием.

Можно купить ссылки, например, на сайте http://links.obgon.ru/exchange/catalogs.php.

Если сайт представляет тематику, в которой идет напряженная борьба за первые места, и предложение очень высоко, бывает очень трудно, иногда даже невозможно пробиться к вершине поиска. В таком случае лучшим решением проблемы может быть покупка места в результатах поиска. Наиболее известными схемами платных включений в результаты поиска являются Overture, Google AdWords, и каталог Look Smart.

Хотя машинная регистрация и протоколирование рейтинга и считается незаконным приемом, о чем прямо заявляют специалисты поисковых сайтов, существует много программ, способных облегчить вебмастеру работу, особенно если он должен вести постоянный надзор над несколькими сайтами. Рассмотрим некоторые из программ, облегчающие вебмастерам оптимизацию и сабмит сайтов на поисковые машины.

Признанным мировым лидером среди программ регистрации является Web Position Gold. Программа содержит такие полезные модули, как протоколирование рейтинга по заданным ключевым словам, генератор деревьев -специальных, оптимизированных под отдельные поисковики страниц, а также анализатор существующих страниц. Кроме того, программа автоматически подает сайт на регистрацию на всех основных международных и национальных поисковых машинах. Главная проблема при пользовании данной программой состоит в том, что Google засекает использование этой программы, и IP может быть заблокирован на некоторое время.

Единственный на российском рынке русифицированный пакет программ NetPromoter исполняет практически все функции хоть как-нибудь связанные с продвижением сайта. Все функции пакета можно разделить на следующие три группы:

  •  поиск свободных доменов
  •  анализ лог-файлов, отслеживание визитов поисковых роботов
  •  автоматическая регистрация сайта на основных мировых поисковых машинах и каталогах.
  •  детальный анализ отдельных страниц веб-сайта и вывод отчета с рекомендациями по оптимизации, в том числе по частоте ключевых слов и количеству внешних ссылок на сайт.

Search Engine Commando все же стоит того, чтобы о ней упомянуть. Она, помимо функций автоматической регистрации на 123 основных мировых поисковых машин и отслеживания рейтинга по заданным ключевым фразам, еще и следит за изменениями регистрационного статуса доменного имени.

SubmitWolf Enterprise -программа для автоматической регистрации, которая к тому же «умеет» редактировать мета-тэги и отслеживать рейтинг. Положительным моментом в программе является то, что она позволяет добавлять собственные адреса поисковых машин и каталогов. Перед тем, как начать процесс регистрации на наиболее известных поисковых машинах и директориях, еще раз просмотрите, хорошо ли содержание тэгов TITLE и DESCRIPTION отображает цель и вид деятельности сайта. Именно содержимое этих тэгов будет создавать первое впечатление о сайте.

Если вы серьезно решили взяться за продвигание и раскрутку сайта, к этому делу надо подойти со всей серьезностью и ответственностью, поскольку этот процесс иногда может значительно растягиваться во времени, и пройдет много времени, прежде чем вы обнаружите свои ошибки. И еще больше времени займет их исправление.

Проверка актуальности ссылок. Обмениваясь ссылками или приобретая их за деньги, веб-мастер создает "сеть", поддерживающую его сайт в результатах поиска. Состояние этой сети необходимо регулярно контролировать. Организовать ручную проверку размещенных ссылок несложно, если их количество не превышает десятка. Но у профессионально продвигаемого сайта обменов - сотни, и ручная регулярная проверка невозможна физически.

Этот сервис предназначен для автоматизации контроля за состоянием системы поддерживающих ссылок. Это, своего рода, "пастух", который будет "пасти стадо" ссылок, проверяя состояние каждой интересующей вас ссылки, периодически выполняя проверку в назначенное время и информируя об изменениях, которые вам невыгодны. SEMaster.ru - сокращенное от Search Engines Monitoring Master - онлайн-сервис для автоматизации операций, необходимых для продвижения в поисковых системах. ЛинкМастер - система автоматической проверки страниц, где расположены ссылки на сайт. Указываете, какие страницы и как часто необходимо проверять, и на какой ресурс искать ссылки - остальное программа делает сама. Количество страниц, которые сегодня можно автоматически бесплатно проверять при помощи ЛинкМастера, ограничено тридцатью. Система предназначена для быстрого получения ответов на следующие вопросы:

Сколько сайтов сегодня ссылаются на сайт? Каково отношение активных и проверяемых адресов. Если вы мониторите 100 страниц, но ссылки на вас найдены только на 50, надо что-то срочно предпринять, Сеть явно изменяется, и поисковые системы это тоже скоро обнаружат. Если ЛинкМастер при очередной проверке не обнаружит ссылку на сайт на странице, где ожидает ее увидеть, вы узнаете об этом тут же и сможете провести коррекцию ссылок со своего сайта, либо выяснить причину, почему ссылка удалена. Возможно, ссылка не найдена по простой причине - "лежит" проверяемый сайт. Для исключения таких случаев ЛинкМастер перед тем, как отправить вам письмо, выполнит еще две проверки с интервалом в 6 часов, и только если сайт недоступен 12 часов подряд, вы получите письмо-извещение.

Сколько страниц ссылаются на сайт по фразе такой-то? Отчет "Фразы", предлагаемый ЛинкМастером, наглядно показывает общую картину продвижения - какие страницы продвигаются по каким фразам и с какой интенсивностью.

На какие страницы сайта ведут внешние ссылки? Ссылки могут быть не только текстовыми, часто ссылка ставится на кнопку 88*31, либо другой графический элемент. ЛинкМастер учитывает все виды ссылок на анализируемый домен. Отчет "Страницы" предоставит необходимую информацию.

Европейское подразделение Бюро интерактивной рекламы утвердило единую методику измерения посещаемости сайтов. В качестве европейского стандарта утверждена методика ABC Electronic (http://www.abce.org.uk).

http://www.ifabc.org/standards.htm содержит исчерпывающий список терминов и определений, которые используются для аудиторской оценки популярности веб-ресурса. Перечень стандартов IFABC WWW подразделяется на несколько тематических частей: 1) количество показов; 2) количество пользователей; 3) количество визитов, сессий и продолжительности; 4) доставка другого контента; 5) количество рекламных показов.

Классическая задача оптимизации - это постановка системы учета эффективности поисковой машины Searсh engine optimization (SEO). Проблема многих веб-мастеров - как определить, насколько хорошо оптимизирован сайт, либо как отследить изменения от работы над сайтом с течением времени. Проблема большинства заказчиков услуг SEO - чего можно ждать от оптимизации, и как оценить качество работы наемного специалиста или фирмы. А также на основании каких данных можно распределять бюджет между поисковой оптимизацией и контекстной рекламой.

Задача поисковой оптимизации - обеспечить хорошую видимость сайта в поисковых системах по профильным запросам.

Видимость сайта оценивается как отношение доли показов, которые обеспечивают ссылки на сайт, попавшие в Тор10 результатов поиска, к сумме всех показов результатов поиска по профильным запросам. Этот показатель называется "долей рынка".

Задача поисковой оптимизации. Searсh engine optimization (SEO) - буквально, оптимизация сайта для поисковых машин. Но нередка ситуация, когда заказчик требует от оптимизатора:

  •  увеличения посещаемости - что обеспечивается, помимо оптимизации, контекстной и неконтекстной рекламой, рассылками, "вирусным" маркетингом, пресс-релизами и еще рядом других способов;
  •  увеличения продаж - что зависит, помимо оптимизации, от ряда факторов, на которые оптимизатор не может влиять, а само увеличение продаж - проконтролировать.

Для 99% фирм эффективность работ по SEO намного удобнее оценивать в технических показателях. Лучший объективный показатель, который напрямую коррелирует и с посещаемостью и с продажами - это видимость сайта в поисковых системах.

Видимость сайта иначе еще называют "находимостью", "оценкой позиций", "положением сайта в поисковых системах". В чем смысл этого показателя и как его измерить?

Допустим, ссылка на сайт N находится по запросу "Интернет-реклама" среди первых десяти результатов поиска Яндекса. О чем это говорит? О том, что когда любой пользователь введет запрос "Интернет-реклама" ссылка на N ГАРАНТИРОВАННО будет показана.

Второй вопрос - как часто эта ссылка будет показываться? Очевидно, что количество ее показов равно частоте запроса. В нашем случае, частота запроса "Интернет-реклама" равна 400 обращений пользователей в месяц в Яндекс.

Итак, обеспечив средствами поисковой оптимизации положение ссылки в Тор10 Яндекса по запросу "Интернет-реклама", добиваемся результата, что приглашение посетить продвигаемый сайт будет показано Яндексом примерно 400 раз в месяц. Фактически, имеем полную аналогию с показами контекстной (поисковой) рекламы, заказанной по словосочетанию "интернет реклама".

Оценка позиций не имеет смысла без оценки запросов. Оптимизация сайта измеряется не в позициях, а в показах, которые обеспечиваются достигнутыми позициями. Частоты запросов на разные темы и, как следствие, количество показов, которые можно обеспечить с помощью SEO, для разных тем будет сильно различным. Поэтому количество показов как абсолютный показатель неприемлемо. Гораздо удобнее пользоваться относительной величиной.

Назовем сумму частот запросов, при помощи которых люди ищут информацию по тематике какого-либо сайта, "объемом спроса на информацию" или попросту - "рынком". Владелец сайта должен "захватить свой рынок", поэтому его успехи в этом занятии отлично будут описываться относительной величиной - той "долей рынка", которую он смог завоевать.

Чтобы сформулировать алгоритм оценки эффективности оптимизации сайта в общем виде, необходимо:

  •  составить список поисковых запросов, по которым будет отслеживаться продвижение.
  •  определить частоту каждого запроса и суммарную частоту всех запросов списка.
  •  при анализе позиций суммировать частоты запросов, по которым ссылка на анализируемый сайт была найдена в Тор10 результатов поиска.
  •  доля рынка анализируемого сайта = (S Top10 / S All) х 100%, где  S Top10 - сумма частот запросов, по которым ссылка нашлась в Тор10,  SAll - сумма частот всех запросов, по которым проверяется видимость.

Таким образом, при наличии утвержденного списка запросов, по которым отслеживается продвижение сайта, эффективность SEO определяется по трем показателям.

  •  Количеству ссылок в диапазоне Тор10.
  •  Количеству ссылок в диапазоне Тор11-50.
  •  Доле рынка в каждой из поисковых систем.

Сравнение долей рынка на разных этапах продвижения - отличный метод оценки. При стандартном комплексе работ доля рынка должна стабильно расти в течение полугода, времени, которое обычно отводится на оптимизацию.

Предложенный метод оценки - технический и зависит от исходных данных - количества анализируемых для продвижения запросов и их частот. В погоне за процентами можно в качестве цели для продвижения рассматривать один запрос, и, достигнув топа, получить "долю рынка" равную 100%. Это, конечно, преувеличение, но очень распространена техника, когда веб-мастер выбирает 3-5 "жирных" (высокочастотных) запросов и сосредоточивается только на них, оставляя "за бортом" десятки запросов с меньшими частотами, хотя они намного более точно подходят для сайта. Правильный подбор словосочетаний для продвижения - очень  важная задача.  

Ссылочное ранжирование

Ссылочное ранжирование, или поиск по лексике ссылок, является, пожалуй, самым интересным из критериев, оказывающих влияние на ранжирование документов в результатах поиска. Именно ссылочное ранжирование является причиной многих скандалов вокруг поисковых систем. Именно результаты действия ссылочного ранжирования вызывают у людей, далеких от оптимизации, стандартный вопрос: "почему мне выдается страница, на которой нет ни одного слова из запроса?" Итак, давайте разберемся.

Ссылочное ранжирование - влияние текста ссылок на документ на релевантность этого документа запросу. То есть, если слова из запроса встречаются в тексте ссылки на документ с другого документа, то это повышает его релевантность данному запросу.

При введении этого фактора ранжирования в алгоритм поисковой системы разработчики руководствовались соображением, что если кто-то ссылается на страницу каким-либо текстом, то, значит, с большой долей вероятности можно быть уверенным, что эта информация содержится на странице, и чем больше таких ссылок, тем выше эта вероятность. А если страница, на которую ссылаются, популярна у многих пользователей, т.е. "авторитетна"? Тогда соответствие содержания страницы тексту ссылки должно быть еще более вероятным - авторитетный сайт "плохого" не порекомендует. Значит, логично ввести зависимость от показателей "авторитетности" страницы.

Rа(x)=(m*Tа(x)+p*Lа(x))* F(PRа).

Из нее видно, что на величину итогового соответствия кода страницы запросу Rа(x) оказывает влияние произведение величин Lа(x) и F(PRа).

Таким образом, величина эффекта от ссылочного ранжирования на релевантность страницы запросу напрямую зависит от 3 параметров:

  •  релевантности текста ссылок запросу;
  •  "авторитетности" страницы;
  •  "авторитетности" ссылающейся страницы;

где

  •  PRi - показатель авторитетности страницы i, константа относительно запроса х,
  •  f(PRi) - некая неубывающая функция от PRi, для простоты можно принять ее линейной, т.е. f(PRi) = k* PRi, где k - некий коэффициент,
  •  Lаi(x) - релевантность запросу x ссылок со страницы i на страницу а, если в тексте ссылки нет ни одного слова из запроса, то Lai(x) = 0. Максимальное значение функция Lai(x) принимает, если в тексте ссылки встречается точное вхождение поисковой фразы.

Зачастую при анализе позиций сайта в выдаче бывает трудно выделить влияние именно ссылочного ранжирования. Однако хорошо виден его эффект в "крайних" случаях, т.е. когда влияние остальных факторов крайне мало.

В данном случае подобного текста не было на страницах, влияние внутренние динамические факторы не могли оказать, т.е. Tа(x) = 0; ранг ссылающихся страниц с релевантным запросу текстами ссылок был близок к нулю, т.е. значение Lа(x) довольно мало; однако за счет довольно высокого собственного ранга документа, на которую ведет ссылка, а, следовательно, довольно высокого значения функции F(PRа), получившееся в итоге значение Rа(x) было достаточно для того, чтобы данный документ был лидером выдачи. Соответственно, несколько ссылок с искомым текстом, ведущие на страницу с большим собственным рангом, могут дать очень существенный эффект. Для борьбы с подобным эффектом поисковые машины вводят ограничение на функцию f(PRi):

f(PRi) = 0, если PRi < M,

где М - константа, некое пороговое значение. То есть ссылки с документом с довольно низким рангом не учитываются при ссылочном ранжировании. Подобное ограничение, вполне возможно, действует во всех рассматриваемых в данной статье поисковиках. Также поисковые машины могут накладывать по той или иной причине ограничения на отдельные документы и даже сайты и вовсе не учитывать ссылки с них при ссылочном ранжировании, также как и при расчете ранга документов, на которые они ссылаются ("непот-фильтр" в Яндексе, "PR-пенальти" в Google)

Другой крайний случай - это когда на страницу без искомого текста и небольшим рангом ссылается текстом страница с рангом высоким. В этом случае внутренние динамические факторы влияния не оказывают, т.е. Tа(x) = 0; "авторитетность" страницы, на которую ссылаются, мала, поэтому влияния практически не оказывает, т.е. F(PRа) имеет значение близкое к 1; ранг документа, ссылающегося на данный документ текстом, релевантным запросу, очень высока, т.е. значение Lа(x) довольно велико. В итоге страница, получившая такую ссылку, может получить неплохое значение Rа(x) и занять высокие позиции в результатах поиска по запросам, слова из которых содержатся в тексте ссылки.

Особо хочу пояснить один момент, из-за которого ссылочное ранжирование в плане повышения релевантности документа запросу намного привлекательнее внутренних факторов. Дело в том, что функция Tа(x), зависящая от внутренних факторов, имеет максимум, достигаемый при некотором "идеальном" наборе своих параметров (каждый из которых у конкретного поисковика свой).

Функция ссылочного ранжирования Lа(x), в отличие от фунции Tа(x), такого экстремума не имеет, так как любое появление новой содержащей ключевую фразу ссылки на страницу, будет увеличивать ее значение.

Поэтому время и силы, которые можно затратить для нахождения идеального набора значений для внутренних факторов (который, кстати, может довольно часто изменяться вследствие действий администраций поисковых машин, постоянно работающих над "улучшением качества поиска"), что, по сути, является сложной задачей многокритериальной оптимизации, лучше с гораздо большей эффективностью потратить на организацию новых ссылок на страницы сайта с текстами, содержащим необходимые ключевые слова.

Очень важным моментом, о котором, однако, часто забывают, является то, что ссылочное ранжирование работает и внутри одного домена. Хотя, возможно, и с некоторыми понижающими коэффициентами. Иногда приходится сталкиваться с заблуждением, что ссылочное ранжирование должно поднимать релевантность любой из страниц сайта в выдаче по запросу, текст которого содержится в запросе. Это не так. Ссылочное ранжирование действует на конкретные страницы - те, на которые указывают ссылки.

Зачем нужен PageRang и что он из себя представляет? Появилась необходимость разделять информацию на более и менее достоверную, учитывать «важность» или «авторитетность» ресурсов, предоставляющих ее. Как это сделать? Лучше всего на основе данных о популярности страницы у пользователей, например посещаемости. Но тогда потребуется устанавливать какой-либо счетчик на каждую страницу. Такой вариант для глобального поиска не подходит. Тогда в качестве критерия была выбрана теоретическая посещаемость страницы.

Была разработана модель, эмулирующая движение пользователя по документам сети путем перехода по ссылкам с документа на документ, подразумевающая, что пользователь с равной долей вероятности перейдет по любой из ссылок, содержащихся в документе, который он в данный момент просматривает. Следовательно, вероятность пользователя попасть на конкретный документ зависит от количества ссылок на него с других документов и от того, на сколько вероятно нахождение пользователя на одном из ссылающихся документов и сколько исходящих ссылок содержит этот ссылающийся документ. Эта вероятность и была принята за показатель авторитетности или ранг страницы (PageRang):

PRa = (1-d) + d * ([Сумма от i=1 до n] PRi/Ci), где

PRa – PageRang рассматриваемой страницы,

d – коэффициент затухания (означает вероятность того, что пользователь, зашедший на страницу, перейдет по одной из ссылок, содержащейся на этой странице, а не прекратит путешествие по сети, обычно устанавливается равным 0,85),

PRi – PageRang i-й страницы, ссылающейся на страницу a,

Ci – общее чисто ссылок на i-й странице.

Одним из распространенных заблуждений является то, что можно вычислить PageRang по этой формуле для отдельно взятого документа, используя известные значения PageRang для ссылающихся на него документов. Так делать нельзя. Чтобы вычислить PageRang какого-либо документа надо составить систему N линейных уравнений данного вида для каждого из документов из поисковой базы, где N – число документов в поисковой базе. Эта система будет содержать N неизвестных. Решив ее, получим значения PageRang для каждого документа, известного поисковой машине. В поисковой базе крупнейших поисковых машин содержится огромное число документов. Несмотря на то, что матрица, соответствующая системе уравнений будет сильно разряжена, численное решение этой системы требует огромных вычислительных мощностей. Поэтому поисковая система должна постараться максимально упростить процесс расчета, вводя некоторые допущения. Вот эти конкретные особенности реализации классической формулы PageRang, увы, составляют коммерческую тайну поисковых машин.

PageRang в Google. Нормированное значение PageRang для конкретного документа, загруженного в браузер, можно узнать, скачав и установив Google ToolBar – специальную панель инструментов для работы с этим поисковиком.

Google учитывает не более 8 первых слов из текста ссылки, причем предлоги и междометия тоже будут считаться словами. Google не учитывает морфологию. Отличительная особенность Google состоит в использовании им атрибута alt тэга img в качестве текста ссылки, если таковой является картинка. Необходимо предупредить о последствиях использования однопиксельных картинок с непустым значением атрибута alt для воздействия на ссылочное ранжирование - это считается поисковым спамом и наказывается.

Яндекс ограничения на длину ссылки не накладывает, но у него есть другие ограничения по учету текста ссылок при ссылочном ранжировании. Во-первых, существует "непот-фильтр", ссылки со страниц, на которые он установлен, учитываться не будут. Во-вторых, кроме порога, накладываемого на ранг документа, существует еще один, не менее интересный порог. При вычислении релевантности запросу ссылок на страницу вычисляется соотношение между количеством ссылок с релевантным запросу текстом к общему количеству ссылок на страницу. И если это соотношение ниже определенного порогового значения, то эти ссылки не учитываются. Подобная ситуация исправляется обычно небольшим количеством новых ссылок с точным вхождением текста запроса. Причины введения этого ограничения понятны. Если из 100 опрошенных 99 человек сказали, что видят на картинке морковку, а 1 - арбуз, то вряд ли стоит доверять его мнению. Документы, найденные за счет лексики ссылок и не имеющие на странице слов запроса, в результатах поиска вместо обычной подписи "строгое соответствие" обозначаются "найдено по ссылке". И если при этом не выводится описание из Яндекс-Каталога, то тут же вы увидите и надпись "текст ссылок". Чтобы добиться хороших результатов в ранжировании по средне- и высококонкурентным запросам использование ссылочного ранжирования обязательно. И основная проблема для оптимизатора - при работе по установке внешних ссылок на страницы своего сайта, о которой говорилось в разделе, посвященном статическим факторам, договориться с владельцами других ресурсов об установке текстовых ссылок с текстом, релевантным целевым запросам, по которым продвигается сайт, или найти ресурсы, позволяющие свободно добавлять свои ссылки.

Влияние собственных ресурсов поисковых машин

Под собственными ресурсами подразумеваются самостоятельные сервисы поисковых систем, оказывающие влияние на ранжирование сайтов в результатах поиска. Для рассматриваемых нами поисковых систем Яндекс, Апорт и Google - это их каталоги и рейтинг Rambler Top100 для Рамблера. Появление этих ресурсов было обусловлено, прежде всего, необходимостью повысить качество поиска. Описания для сайтов в этих каталогах составляются профессиональными модераторами, заинтересованными в предоставлении максимально точной информации. В случае с Top100, хотя авторство описаний и принадлежит владельцам ресурсов, за них, по замыслу, голосуют сами пользователи своими посещениями ресурса. Исходя из этого, у поисковых систем имеется высокая степень доверия к собственным ресурсам и, как следствие, влияние их на ранжирование очень высоко.

Яндекс-Каталог (http://yaca.yandex.ru). Влияние каталога на результаты поиска Яндекса очень велико, что делает попадание на первые страницы по наиболее конкурентным запросам практически невозможным, если в каталожном описании документа нет точного вхождения поисковой фразы.

В Яндекс-Каталоге ресурсы описываются достаточно большим количеством характеристик:

  •  название ресурса;
  •  его описание;
  •  тема, т.е. основная категория каталога, в которой он находится;
  •  регион;
  •  сектор экономики;
  •  степень достоверности (источник) информации;
  •  потенциальная аудитория (адресат информации);
  •  жанр (художественная литература, научно-техническая литература);
  •  цель ресурса (предложение товаров и услуг, интернет-представительство).

Большинство этих характеристик служат лишь для организации навигации в каталоге. Каталог имеет фасетную структуру, т.е. описание сайта может располагаться одновременно в нескольких местах - прежде всего в своей категории, а также в уточняющих подкатегориях (регион, сектор экономики, степень достоверности информации, адресат информации, жанр и цель ресурса).

На результаты же поиска влияние оказывают только название ресурса и его описание. Действуют они по схеме ссылочного ранжирования, только в качестве ранга (взвешенный индекс цитирования - ВИЦ) ссылающейся страницы используется установленный для каталога коэффициент. Вполне возможно, что этот коэффициент может зависеть от рубрики каталога, от положения сайта в своей рубрике или даже вручную выставляться документу модератором каталога. При расчете ВИЦ документа, судя по всему, факт наличия его в каталоге, не учитывается. Особое внимание хочу обратить на тот факт, что хотя описание ресурса в каталоге Яндекса ссылкой не является, учитывается оно именно как ссылка при ссылочном ранжировании. Правда, гораздо меньше, чем ссылка-название: видимо, для описания существует некий понижающий коэффициент.

В случае если слова из поисковой фразы отсутствуют в тексте документа, но присутствуют в названии или описании его в Яндекс-каталоге, в выдаче по этому запросу приводятся каталожное название и описание документа.

Апорт-Каталог во многом схож с каталогом Яндекса, но, пожалуй, в несколько меньшей степени оказывает влияние на результаты поиска. Действие каталожного листинга также происходит по схеме ссылочного ранжирования, однако помимо названия и описания, учитывается и список ключевых слов, задающийся при регистрации, но не отображаемый в каталоге. Ресурсы могут заноситься одновременно в несколько категорий каталога, при условии соответствия их содержанию. Регистрационные данные для каталога подаются одновременно с регистрацией в поисковой системе (http://catalog.aport.ru/rus/reg/add.ple).

Каталог Google (http://www.google.com/dirhp) построен на основе каталога ODP - Open Directory Project (http://dmoz.org). Это крупнейший модерируемый каталог в интернете и практически единственный путь для попадания в каталог Google. ODP интересен еще и тем, что редакторами в нем являются волонтеры, т.е. люди, для которых это занятие является хобби. При желании редакторами в этом каталоге можете стать любой. Ресурсы в каталоге Google сортируются по PageRank и имеют название и описание, причем название является текстовой ссылкой. По сравнению с влиянием каталогов Яндекса и Апорта, влияние каталога Google можно назвать менее значительным. Влияет лишь заголовок ресурса, который собственно и является обычной текстовой ссылкой, и влияние это целиком укладывается в схему ссылочного ранжирования. Еще одним небольшим аргументом за регистрацию в каталоге служит наличие в результатах поиска под ссылкой на ресурс ссылки на категорию каталога и части каталожного описания, что может положительно повлиять на решение пользователя перейти по этой ссылке. На практике для достижения хороших результатов при позиционировании по низкоконкурентным запросам бывает достаточно влияния хотя бы одного из них, например, релевантного текста даже при невысоких показателях "авторитетности" страницы. По самым же конкурентным запросам может потребоваться "массированное" применение всего "арсенала" оптимизатора в течение большого временного отрезка, и не факт, что результат будет достигнут. Поэтому изначально при работе над проектом необходимо определиться с направлениями, т.е. запросами, которым будет отдано приоритетное значение. Об этом пойдет речь в одном из последующих докладов данной секции.

Перспективы развития

Никто не сомневается, что если надо привлечь клиентов, достаточно увеличить посещаемость сайта. Для этого надо заниматься раскруткой, оптимизировать сайт, платить за рекламу. Предположим, вы убедились, что на 100 уникальных посетителей приходится один клиент. Чтобы увеличить количество привлекаемых клиентов в 2 раза, приходится увеличивать посещаемость сайта до 200 посетителей в день. Чтобы увеличить в 3 раза, необходимо увеличить посещаемость до 300 в день. Но рано или поздно сайт компании упирается в «потолок», и дальнейший рост посещаемости зависит уже только от дорогостоящей рекламы. Получается, что основная масса финансовых компаний получает мизерную отдачу от Интернета, а другие привлекают клиентов, расходуя большие рекламные бюджеты.

Даже средняя финансовая компания может начать привлекать клиентов через Интернет больше, чем когда-либо, не расходуя деньги на рекламу. Чтобы продвигать финансовые услуги в Интернете и привлекать клиентов, раскрутка и реклама сайта не так важны, как вы об этом думали! Увеличение посещаемости сайта - это экстенсивные методы привлечения клиентов.

Третья волна уже давно захватила западный Интернет. Вместо методов увеличения посещаемости сайтов на первое место выходят методы увеличение продаж. Что для вас в итоге важнее – увеличение посещаемости или увеличение продаж услуг? Чтобы продавать больше финансовых услуг (=привлекать клиентов), нет необходимости давать больше рекламы. Используйте другие методы – интенсивные, а не экстенсивные. Раньше, чтобы увеличить количество привлекаемых клиентов в 2 раза, вам приходилось увеличивать посещаемость сайта до 200 посетителей в день.

Интенсивные методы работают по-другому. С помощью интенсивных методов третьей волны вы можете увеличить количество клиентов до 2-х на 100 посетителей. Затем до трех и даже до четырех на те же 100 посетителей. Методы продаж финансовых услуг напрямую относятся к продвижению бизнеса в Интернете, а не к рекламе. На первый план выходит каждый отдельный посетитель – клиент, а не количество хостов, показов, кликов и пр.

Интернет может быть эффективным средством коммуникации, служить установлению отношений с клиентами. В этом Интернет имеет гораздо больший потенциал, чем просто средство рекламы. С помощью Интернета можно не только донести до потенциального клиента информацию об услугах (это делают все), но и ПОВЛИЯТЬ на выбор потребителя (это умеют немногие). Интенсивными методами в увеличения продаж являются:

  •  позиционирование сайта в поисковиках;
  •  копирайтинг;
  •  email-маркетинг;
  •  «доверительный маркетинг»;
  •  «пошаговая техника» привлечения клиентов.

Эти методы можно с успехом внедрять для продвижения финансовых услуг в Интернете любой компанией, независимо от величины рекламного бюджета. Более того, отдача от рекламы или раскрутки сайта вырастает в n раз. Вместо того чтобы впустую «гонять» клиентов через рекламу на своем сайте, отпуская их к конкурентам, выжимайте максимум из аудитории, к которой получаете доступ. Интенсивные методы увеличивают долю пользователей из числа посетителей сайта.

Заключение

Для повышения ранга страницы необходимо работать над тем, чтобы как можно большее количество документов сети ссылалось на него. Делать это можно различными способами: с помощью обмена ссылками с другими сайтами, регистраций в каталогах и различных тематических ресурсах и т.д. Идеальный способ – сделать свой сайт насколько уникальным и интересным, чтобы владельцы других ресурсов сами считали необходимым поставить ссылку на него. Не следует также забывать, что при расчете ранга документа учитываются как внешние, так и внутренние ссылки. Поэтому грамотная перелинковка документов внутри сайта позволяет повысить ранг самых важных из них с точки зрения содержащейся информации. Наиболее важные в этом смысле документы обязательно должны иметь ссылку с главной страницы сайта, которая, как правило, имеет максимальный ранг среди всех страниц сайта вследствие того, что на нее указывает большинство внешних ссылок на сайт.

Литература

  1.  Журнал "Продвижение сайтов". Компания "Ашманов и Партнеры"
  2.  Факторы, независящие от запроса (статистические). 16:56, 17 Августа 2004. Автор: Александр Гаран http://www.garan.ru/ 
  3.  Методы раскрутки сайтов, www.stockportal.ru
  4.  Юрий Коберский. Особенности национальной Интернет - статистики. ZDNet.ru http://www.silicontaiga.ru/home.asp?artId=2690

Вопросы

1.Есть ли разница между регистрацией в поисковике и в каталоге этого поисковика? При регистрации в большом количестве каталогов и поисковиков чьи счетчики обязательно нужно ставить, а чьи необязательно? При регистрации в поисковике адреса сайта просто добавляется к списку сайтов, которые будут просмотрены роботом. При регистрации в каталоге поисковика сайт будет просмотрен модератором. При этом сайт может находиться в поисковой выдаче, но не быть в каталоге и наоборот. Такие каталоги есть у поисковых систем Яндекс, Апорт и Google (+Поиск@Mail.Ru). Из последней пары Google использует каталог DMOZ.Org, а Mail.Ru показывает разделы каталога "Каталог@Mail.Ru", нахождение в котором на выдачу никак не влияет. Переходя ко следующей части вопроса, следует отметить, что Вы путаете каталоги с обязательной установкой ссылки на сам каталог и рейтинги. Если Вы хотите принять участие в рейтинге, то кнопку устанавливать надо. Однако лишь малая часть рейтингов способна привести Вам посетителей. Примером такого рейтинга является Rambler Top100. Не рекомендуется устанавливать кнопки каталогов с обязательной установкой ссылки на сам каталог, из рейтингов вполне достаточно поставить Rambler Top100 И Рейтинг@Mail.Ru для получения статистики. Не надо увешивать свой сайт горами бесполезных кнопок. Страницы, с которой можно подать заявку размещения сайта (прямой линк): Google - http://www.google.ru/intl/ru/addurl.html; Яндекс - http://www.yandex.ru/addurl.html; Рамблер - http://www.rambler.ru/doc/add_site.shtml; Апорт - http://catalog.aport.ru/rus/add/AddUrl.aspx

2.В каких поисковых системах и каталогах лучше всего зарегистрироваться исходя из тематики сайта? Любой сайт, какой бы тематике он не был посвящен, нужно регистрировать по возможности во всех основных поисковых системах: Яндекс, Рамблер, Апорт и Гугл. Последний быстрее сам найдет сайт, если на него будут ссылаться другие. Вам нужно подумать, где можно найти потенциальную аудиторию – она довольно своеобразная. Школьников старших классов сейчас можно найти везде: конечно, на развлекательных сайтах, сайтах рефератов, более серьезных учеников на тематических порталах и прилагающихся форумах. Надо побывать во всех возможных местах появления возможных посетителей и попробовать заявить о себе. На литературных форумах, коих превеликое множество, вы можете участвовать в дискуссиях, которые Вам интересны, при этом посетители форума будут видеть ссылку на сайт в подписи к сообщениям либо в профиле пользователя – будьте уверены, заинтересовавшиеся читатели обязательно придут на сайт, а если он им понравится, то и не раз. Кстати, на самом сайте очень кстати будет форум, где ученики могут задать вопросы, обменяться ссылками или статьями, а преподаватели обменяться опытом. Форум позволит создать постоянную аудиторию сайта, костяк, который будет впоследствии принимать активное участие в развитии сайта. Кроме того, форум будет привлекать новых посетителей из поисковых систем. "Коды поисковика", которые можно скачать с Яндекса, это Яndex.Server Сам Яндекс описывает его так: "Серверное решение для организации полнотекстового поиска информации в заданной коллекции документов, предназначенный для работы с текстами как в локальной, так и в глобальной сети."Для того, чтобы его установить, нужны админские права на сервере. У многих хостинг-провайдеров он уже установлен, и, чтобы его настроить для своего сайта, следует прочесть инструкции у хостера (или запросить их у техподдержки). Если же у вас свой сервер, то для установки и настройки локального поиска имеются подробные инструкции в составе программного пакета Яndex.Server

3.Что нужно сделать, чтобы быть на первых страничках поисковиков? Факторы, которые могут влиять на позицию сайта:

  •  Тексты сайта и html-коды, использующиеся для разметки.
  •  Наличие ключевых слов в заголовках текста и в самом тексте.
  •  Наличие ключевых слов в заголовке <title>, описании страницы <meta description>
  •  Тексты ссылок на сайт с других сайтов и с внутренних страниц сайта - наличие ключевых слов в тексте ссылок. Желательно варьировать тексты ссылок, используемых при регистрациях в каталогах или обмене ссылками. Важно также качество сайта, высокий PageRank ссылающихся страниц.
  •  Читабельность, краткость заголовка страницы - если title будет умещаться в тексте ссылки выдачи целиком, это повысит число зашедших на сайт.

4.Влияет ли на продвижение сайта в Яндексе и Рамблере наличие в адресе сайта ключевого слова? Т.е. будет ли оно входить в расчет частоты содержания слов, ведь адрес на странице может использоваться достаточно часто.

Смысла в учете имени домена нет, т.к. имя может быть абсолютно любое, совсем не отражающее содержимое сайта. Однако может быть косвенный эффект от использования ключевого слова в имени сайта: меньше шансов, что при установки внешних ссылок на сайт забудут упомянуть это слово. Вот тут и будет эффект - сайт будет "вылезать" в результатах поиска за счет ссылочного ранжирования.

5.В каких "попугаях" мерить спрос на информацию? Необходимо оценить поисковые запросы, по которым будет отслеживаться результат, но однозначного ответа на вопрос "сколько вешать в граммах" не существует. Возможных подходов к "измерению" запросов несколько. Овертура (http://inventory.overture.com/d/searchinventory/suggestion/) - своя база чисто коммерческих запросов, многого там нет, число множественное/единичное не различает, многие запросы завышает в сотни раз, т.к. эта статистика не поисков, а показов, а показы могут быть десктопные, эксплоитные и прочие. Для популярных слов там всегда громадное завышение частот. Можно оценить с помощью Google, https://adwords.google.com/select/main?cmd=KeywordSandbox.

6.Проиндексируется ли заново главная страница сайта и обязательно ли при этом менять код счетчика?  После внесения изменений страницы дополнительно ничего делать не надо. Со временем поисковые системы сами всё проиндексируют. Код счетчика тоже не надо менять. Разные коды счетчика на разных страницах допустимы - просто в рейтинге Рамблера сайт будет считаться тремя отдельными ресурсами. Следите только чтобы на одной странице не оказывалось одновременно двух кодов счетчика, т. к. это серьезное нарушение, за которое ресурсы исключаются из рейтинга. Ресурсы, размещенные на бесплатных хостингах, конкурируют за позиции в выдаче наравне со всеми. Сама по себе бесплатность хостинга ни на что не влияет. Баннеры, лежащие на narod.ru, и не будут отображаться, если вы их пытаетесь показать на других сайтах или в письмах. Это сделано администраторами narod.ru специально.

7.Как предложить поисковикам на индексирование новые страницы сайта? Поисковые системы сами должны находить новые страницы сайта, индексировать их и делать доступными для поиска. Для этого достаточно поставить ссылку на новую страницу на какой-нибудь странице, уже известной поисковому роботу. При следующем посещении робот увидит новую ссылку, поставит новую страницу в очередь на индексацию, придет, добавит и т.д. Ускорить этот процесс можно вручную, показав поисковой системе новые страницы своего сайта. Каждый поисковик имеет для этого специальную страничку, например.

  •  Яндекс - http://www.yandex.ru/addurl.html
  •  Рамблер - http://www.rambler.ru/doc/add_site.shtml
  •  Апорт - http://www.google.ru/intl/ru/addurl.html
  •  Google - http://catalog.aport.ru/rus/add/AddUrl.aspx

Для избавления от них и написан макрос  подписчикам "РВ". Если есть список страниц, которые хотелось бы вручную подать на индексацию в Яндекс, Рамблер, Апорт и Google, можно просто скопировать его в лист Submit, скриншот которого вы видите ниже, и нажать соответствующую кнопку, они не нуждаются в комментариях. Единственное обязательное поле для заполнения - e-mail, без корректного адреса добавление в Апорт не произойдет. Макрос сам вызовет браузер Internet Explorer, и весь процесс добавления будет проходить перед вашими глазами - будут открываться новые страницы, заполняться формы и т.д.

8.Как надо сделать, чтобы Яндекс проиндексировал все страницы? Добавлять разные страницы на маленьком по объему сайте не нужно, робот их найдет и проидексирует сам. На большом сайте все же следует проверить наличие наиболее важных страниц и при их отсутствии - добавить. Также следует обратить внимание, не сделаны ли ссылки на отсутствующие страницы через ява-скрипты. По таким ссылкам робот не пройдет.

9.На что важнее обратить внимание при оптимизации сайта? На число внешних ссылок, текст внешних ссылок, наличие ключевых слов в теге title, использование выделения заголовков в тегах hx, расположение слова на странице, длина страницы, густота ключевого слова на странице, наличие контента на странице, регистрация в опорных каталогах поисковиков, соответствие всего сайта тематике запроса, наличие текстовых ссылок между страницами одного сайта, правильные коды ответа сервера.

10.Имеет ли смысл меняться ссылками с сайтами другой тематики и с меньшей посещаемостью? При обмене ссылками с технической точки зрения более важным является не посещаемость сайта, а посещаемость и авторитетность ссылающейся страницы, число ссылок на ней. Желательно, чтобы тематика была подходящей для вашего сайта, но прямого влияния на поиск тематика сайта не оказывает.

11.Можно ли считать счетчики и лог-анализаторы конкурентными продуктами? До тех пор, пока не появятся сервисы, объединяющие глобальные статистические возможности счетчиков (сравнение посещаемости, аудитории нескольких сайтов и др.) и тонкие возможности лог-анализаторов (визиты роботов, загрузки объектов, хакерские атаки), веб-мастерам приходится пользоваться этими двумя инструментами. Кроме того, счетчики являются решающим фактором при определении рекламодателями цены на размещение баннеров на том или ином ресурсе. Лог-анализаторы же годятся более как административный инструмент, «не для посторонних глаз». Так что, до тех пор, пока не появился сервис, объединяющий достоинства счетчиков и лог-анализаторов, нам придется пользоваться как тем, так и другим инструментом. Счетчики и лог-анализаторы - принципиально разные инструменты измерения посещаемости web-ресурсов. И только в комплексе они могут дать наиболее полную картину по посетителям сайта. Основная задача на сегодняшний день - предоставлять максимально точные и подробные данные всем нашим пользователям.


 

А также другие работы, которые могут Вас заинтересовать

62597. Особенности построения уроков в технологиях развивающего и традиционного обучения 6.88 MB
  Текстовые задачи являются тем богатейшим материалом на котором решается важнейшая задача преподавания математики развитие математического мышления и творческой активности учащихся. В четвертых усиливает желание детей учиться то есть само отношение учащихся к учебному предмету...
62598. Трагическая любовь в рассказе А. И. Куприна «Гранатовый браслет» 183.41 KB
  Цель урока: показать мастерство Куприна в изображении мира человеческих чувств; роль детали в рассказе; Расширить и углубить представления учащихся о Куприне – мастере художественного слова; Вызвать чувство восхищения чистой возвышенной любовью...
62600. Налог на имущество организаций 290.92 KB
  Цель занятия: ознакомление с нормативными документами исчисления налога изучение объекта налогообложения и особенностей определения налогооблагаемой базы учет налога на счетах предприятия приобретение навыков расчета налога заполнения соответствующих налоговых документов.
62602. Права дитини 115.98 KB
  Мета: сформувати в учнів уявлення про Декларація прав дитини з’ясувати обов’язки та права дітей; розвивати вміння висловлювати свою думку; виховувати почуття відповідальності за себе та за свої вчинки. Що ви очікуєте від сьогоднішнього уроку...