 Добро пожаловать,
|
|
|
|
|
|
Поиск
 |
Для многих вебмастеров SEO (search engine optimization, оптимизация для поисковой машины) - это не что иное, как просто набор трюков и методик, которые несомненно должны поднимать их сайт в рейтингах всех поисковиков. Такое отношение к SEO может и дает временные результаты, тем не менее, здесь содержится большой недостаток: правила постоянно меняются.
Алгоритмы поисковых машин постоянно меняются, как, например, антивирусное программное обеспечение. Ведь в мире постоянно появляются новые вирусы, поэтому они и должны постоянно совершенствовать и вносить коррективы в свои программы. Аналогично обстоит дело и с поисковиками: все в этом мире быстро меняется, а интернет-сфера еще быстрее.
Тем не менее, существует определенный набор правил, по которым поисковики ранжируют сайты, которых должен придерживаться каждый вебмастер в нелегком процессе поисковой оптимизации. Конечно, нет 100% гарантии, что все это работает сейчас или уже появились новые правила игры, но идея остается прежней. Меняются лишь детали, как говорится.
Но если мы не можем применить для оптимизации стандартный набор правил, то что же нам делать? Выход здесь в том, что не нужно всеми силами стараться разобраться в хитростях работы поисковой машины, а просто понять каким образом они работают. У этих самых хитростей есть своя логика работы, которую довольно просто вычислить, что и является их недостатком.
Так что же на самом деле необходимо?
Для достижения высоких позиций в рейтинге (да еще на долгое время) следует понимать, что поисковый робот - это в своем роде живое существо. Конечно, я при этом не имею ввиду, что у них есть мозги, пусть это останется для писателей-фантастов. Тем не менее их поведение и способы работы во многом похожи на работу этого самого мозга.
А теперь остановимся на рассмотрении некоторых функций их "мозга". В общем можно сказать, что им присуща такая специфика, как (если принять интернет за мир с множеством дорог) ходить различными путями, следуя указаниям установленных знаков и собирая всевозможную информация об этой дороге. Затем они направляют собранную информацию группе серверов, которые уже по своим специфическим алгоритмам определяют ее важность для внесения в свои базы.
По каким принципам работают эти алгоритмы? Для начала они создаются людьми, которые прекрасно разбираются в принципах работы интернета и информации, которая в нем содержится. А так как всемирная паутина постоянно изменяется, то эти самые люди и вносят необходимые коррективы в поисковые алгоритмы. По своей сути поисковую машину следует рассматривать, как существо, которое постоянно собирает информацию, сохраняет ее, а потом сортирует исходя из ее важности и с большим удовольствием отсеивает ненужную. Только вот как это она делает и исходя из каких принципов - толком не ясно.
Присмотримся поближе
Понимание того, что из себя представляет поисковая машина на самом деле, попытаемся выяснить в сравнении с анатомией человека. Пусть машина и не дышит, но она содержит много схожего, что необходимо ей для ее виртуальной жизни. А состоит она из следующего:
Легкие: Данный орган у поисковой машины, как и большинство жизненно важных органов, расположены внутри огромных data-центров (сервера, специально предназначенные для хранения информации). Как и организме человека, легкие мы не считаем очень важным органом, тем не менее понимаем, что без них не обойтись и нужно поддерживать их здоровыми.
Руки и ноги: Представим себе, что руки и ноги поисковой машины не что иное, как ссылки на ресурсы, которые она щедро выдает по запросу пользователя. С помощью этого органа мы можем найти все, что нам нужно и получить указатель в виде ссылки на необходимый ресурс. Также, как и тело человека изначально было создано для движения и исследования окружающего мира, аналогично и поисковые машины изначально запрограммированы исследовать всемирную паутину.
Глаза: Глазами поисковой машины являются так называемые пауки (еще их называют роботами или краулерами). Эти самые пауки постоянно просматривают интернет для поиска новых сайтов и следят за изменениями на уже проиндексированных. В данном случае пауки "ползают" по страничкам сайта по его внутренним ссылкам (как по путям), аналогично человеку, который на своем пути видит множество дорог для своего передвижения. К счастью для нас, поисковые роботы движутся по оптико-волоконным проводам, вот поэтому они могут путешествовать по интернету со скоростью света. Это-то и позволяет им посетить все интернет-странички, которые попадаются им на пути.
Мозг: Мозг поисковой машины выполняет те же функции, что и мозг человека: содержит целый набор функций для управления организмом своего хозяина. Также у мозга должен быть свой инстинкт, который должен знать о работе и постоянно контролировать все органы и системы. Вот поэтому поисковой машине никак не обойтись без этого самого мозга, который ей и помогает выжить в этом враждебном мире (пусть в чем-то и виртуальном).
Инстинкт: С помощью инстинкта поисковые машины имеют набор ключевых функций, таких как просматривание сайтов и фильтрация данных, которые нужно или не нужно индексировать. Они запрограммированы игнорировать некоторые типы файлов, не соответствующих определенным критериям. Как мне кажется, в инстинкте поисковой машины главное - это механизм или алгоритм, с помощью которого она индексирует сайты.
Знания: Поисковые машины прекрасно осведомлены о всех тонкостях индексации сайтов. Те знания, которыми они владеют, идут далеко впереди знаний всех пользователей, вебмастеров и оптимизаторов. Поисковая машина знает множество методов сортировки, представления данных, и, естественно, еще и имеет свой специфический набор хитростей и уловок.
Пока поисковый робот путешествует по интернету и индексирует веб-странички, параллельно он отсылает обратно в свой data-центр собранные им данные. Именно в этом центре данные обрабатываются согласно алгоритмов, а спам-фильтры отсеивают ненужное.
Подобно тому, как мы анализируем информацию из статьи в газете согласно своему видению мира, так и поисковики обрабатывает и ранжируют данные в строгом соответствии со своими законами и пониманием работы интернета.
Изучение: Так как поисковая машина ранжирует веб-странички согласно своему видению и пониманию законов функционирования интернета, а эти правила постоянно изменяются, то поисковые алгоритмы постоянно изменяются. Вот тут-то как раз и нужен механизм адаптации или самообучения поисковика.
В то же время, наряду в способностях просматривать странички, поисковые роботы должны уметь определять и наказывать попытки запрещенной раскрутки сайта. При этом благосклонно относится к честным вебмастерам и оптимизаторам.
Вот примеры тех областей, в которых поисковые машины так часто любят менять свои алгоритмы:
* Определения релевантности контента того сайта, на который она нашла ссылку;
* Способность обнаруживать информацию, которая содержится в новых типах данных, к примеру, базы данных, flash и т.п.
* Понимание нечестных методов раскрутки сайтов, таких как размещение "невидимого" текста, ссылок и т.п. Данные технологии рассматриваются поисковой машиной как спам, а пойманные на этом ресурсы попадают в так называемый "черный список";
* Изучение полученных данных, выявление недостатков в индексации, что приводит в действие механизм изменения алгоритма в сторону более эффективного определения релевантности сайта.
Способность к изучению и адаптации к окружающему интернет-пространству изначально закладывается при разработке алгоритмов работы поисковой машины. Ну и, само собой, остается актуальной до следующего обновления алгоритма.
От теории к практике
Все, о чем было сказано выше, касалось лишь аспектов работы поисковой машины. А вот как эти знания применить для раскрутки сайта? Все дело в том, что для правильного выбора стратегии раскрутки необходимо хорошо понимать, каким образом работает эта самая поисковая машина: собирает информацию, ранжирует сайты и т.д.
В свое время, когда одним из основных методов раскрутки было размещение большого количества ключевых слов на страницах сайта, многие вебмастера создавали целые сообщества из сайтов, дабы взаимным обменом ссылок достичь высоких позиций в рейтингах. А вот работает ли эта тактика сегодня? Работает, только результат скорее всего будет временным и краткосрочным.
Ведь поисковая машина, как и человек, хочет выжить в агрессивной окружающей среде. Поэтому, если результаты их работы будут плохими (а вот как раз нечестные методы раскрутки часто ведут к выдаче ненужной посетителю информации), то они медленно, но уверенно перестанут существовать. А ведь при постоянно растущей конкуренции эволюционировать крайне необходимо.
Для примера, пользователю значительно удобнее и проще найти сайт с множеством контента, который ему необходим. Как правило, на таких сайтах он часто обновляется, что позволяет сайту быть актуальным. Поэтому делайте выводы.
Немаловажным моментом остается и обмен ссылками. В данном вопросе намечается тенденция к снижению релевантности обратных ссылок, а обмен ссылками между сайтами разных тематик и вовсе малоэффективен. Но если же вы все же решите поставить обратные ссылки, то обязательно убедитесь, что они ведут на родственные по тематике сайты.
Данная стратегия хорошо работает как для привлечения посетителей, так и для повышения релевантности сайта. Ведь многие пользователи переходят из сайта на сайт по внутренним ссылкам. А если они еще и стоят на авторитетном и посещаемом ресурсе, то это только дополнительный плюс.
И напоследок...
Сам собою напрашивается вывод делать ставку на будущее. И отношение к поисковой машине как живому организму (пусть и в общих чертах) поможет выбрать правильную тактику. Вот когда она в очередной раз придет на ваш сайт, то "накормите" ее вкусным новым контентом, новыми разделами и она обязательно еще к вам вернется. А вот негостеприимных сайтов они не любят, как и быть обманутыми нечестными хозяевами. У роботов память отменная...
|
|
 |
Это поисковые системы, что в конечном итоге приведет вашего сайта до сведения потенциальных клиентов. Поэтому лучше знать, как эти поисковые системы фактически, и как они представляют информацию для потребителя начать поиск. В данной статье я бы хотел рассмотреть и сравнить между собой несколько способов раскрутки сайтов.
Существуют два вида поисковых систем. Первый роботами называемых сканеров или пауков. Поисковые машины использовать пауков для индексирования веб-сайтов.
Когда Вы отправляете страницах вашего сайта для поисковых систем, выполнив их требуется представления страницы Поисковая система паук будет индексировать весь сайт. "Спайдер" является автоматизированной программой, что осуществляется с помощью поисковой системы, системы.
Круговой посетителей веб-сайта, прочесть его содержимое на фактических сайте сайт Мета-теги, а также по ссылкам, что место соединения. Паук затем возвращается все, что информацию в центральный депозитарий, где данные индексируются. Он посетит каждой ссылки вы на сайте и индексировать эти сайты, а. Некоторые пауки будет индексировать только определенное количество страниц на сайте, тем не создавать сайт с 500 страницы!
Паук будет периодически возвращаться к местам для проверки любой информации, которая изменилась. Частота, с которой это происходит, определяется модераторами поисковой системой. Паук почти как книгу, где он содержит оглавление, Фактическое содержание и ссылки на все сайты, найденные в ходе обыска, и она может индексировать до миллиона страниц в день.
Пример : Excite, Lycos и Google еффект. Когда вы поисковую систему найти информацию, это фактически поиск по индексу, которые он сам создал и не ищут в Интернете. Разные поисковые системы производят различные рейтинги, потому что не во всех поисковых системах используется один и тот же алгоритм поиска индексов.
Одним из событий, поисковая система сканирует алгоритм является частота и расположение ключевых слов на веб-страницу, но может также обнаружить искусственное наполнение ключевыми словами или Поисковый спам. Затем алгоритмы анализа образом, чтобы страницы со ссылками на другие страницы в Интернете.
Установив, как страниц, ссылающихся друг друга, оба двигателя можно определить, о чем эта страница, если ключевые слова связаны страницы похожие на ключевые слова, по оригинальную страницу.
|
|
 |
Для получения целевых посетителей на ваш сайт необходимо иметь представление о факторах позиционирования сайта в поисковых результатах определенной поисковой машины. Под позиционированием подразумевается расположение сайта в выдаче по определенному поисковому запросу.
Как показывает статистика, основная часть посетителей переходит по сайтам, расположенным лишь на первой странице результатов выдачи. К тому же большинство из них предпочитают первые два сайта.
Логично, что если ваш сайт будет во второй десятке, то посетителей будет намного меньше. Таким образом, продвижение сайта нацелено на позиционирование сайта именно в первой десятке выдачи, а лучше – пятерке, идеально – тройке.
Рассмотрим наиболее важные факторы, которые влияют на позиционирование сайта.
Первым делом страница сайта, которая попадает в поисковую выдачу, должна соответствовать поисковому запросу. Для этого в ее содержании должны присутствовать слова поискового запроса и соблюдаться их процентное соотношение к остальному тексту.
Но это хоть и важный фактор, но не главный. Ведь можно создать большое количество страниц под определенные фразы. Пусть они даже будут нечитаемые для человека, но для поисковой машины они будут в самый раз.
Поэтому в последнее время все более важным для продвижения сайта является наличие достаточно большого количества ссылок, которые на него ведут. При этом важно, чтобы ссылки были со сходных по тематике ресурсов, не были взаимными и в тексте ссылки были нужные для владельца сайта ключевые слова.
Еще ссылки очень важны для эффективной раскрутки в такой поисковой системе, как Google. Ее алгоритмы оценивают авторитет сайта на основе ссылок на его с других сайтов, авторитет которых тоже очень важен.
Но недостаточно взять и купить, к примеру, 10000 ссылок с ключевым словом "раскрутка сайтов" и быть уверенным, что по этому запросу ваш сайт будет на первом месте и долгое время.
В последнее время поисковые машины совершенствуют свои алгоритмы на предмет неестественных или покупных ссылок. Поэтому быстрый рост их количества может быть расценен как обман поисковой машины и велика вероятность бана. Тогда сайт вообще может быть исключен из поисковой машины.
По этой причине важно выбрать ту организацию по раскрутке и продвижению сайтов, которая сможет провести наращивание входящих ссылок на сайт с гарантией соблюдения правил всех главных поисковых машин.
Обратите внимание на нашу фирму, которая имеет большой опыт раскрутки сайтов, которая имеет большой опыт раскрутки сайтов. На нашем сайте вы можете также прочитать отзывы наших клиентов.
|
|
 |
Утром, днем и вечером я пользуюсь различными free seo сервисами. В закладках им уже просто тесно. В один прекрасный день я выложил их на эту страницу. Возможно они будут полезны и другим.
Определение позиций. Анализ страниц.
* Анализ страниц сайта
* Определение Google Page Rank, Яндекс CY, индекса Апорт и индекса Alexa.com
* Определение позиции сайта в различных поисковых системах
* Множественная регистрация сайтов и страниц в поисковых системах Google, Рамблер и Яндекс.
* Определение позиций сайта в нескольких поисковых системах.
* контроль позиций по запросам в поисковых системах.
* Определение позиций сайта по запросам в Google и Yahoo.
* SEO tools - небольшой но функциональный набор инструментов.
* Анализ страницы на предмет видимости поисковой машиной, ключевых слов и заголовков.
* Быстрый анализ продвижения сайта
* SEO LinkTracker - Подсчет ссылок на странице
* Анализатор страниц, беклинков, PR и тИЦ + проверка присутствия в Яндекс.Каталоге, Рамблер-TOP-100 и DMOZ (очень рекомедую!)
* Анализатор вебсайта
* еще один анализатор вебсайта
* Анализ метатегов, заголовка, частоты ключевых слов.
* Visual PageRank
Google. Анализ беклинков
* Анализ обратных ссылок по Page Rank или CY ссылающихся страниц.
* просмотр беклинков по Google. Показывается исходящий PR по каждому линку.
* проверка PageRank по дата центрам.
Google. Индексация. Кеш. Датацентры.
* Google cache tool - проиндексированные Google страницы по различным датацентрам.
* удобное представление проиндексированных Google страницы по различным датацентрам.
* Google Datacenters Checker Tool - индексированые страницы, бекварды и PR. Статистика по разным датацентрам.
* проверка количества страниц проиндексированных поисковыми системами: AllTheWeb, AltaVista, Google, MSN Search, Yahoo.
Сервисы для работы с ДМОЗ (dmoz.org)
* DMOZ Listing Checker Tool - проверка наличия ресурса в каталоге DMOZ.
Google PR предсказатели
* Google PageRank Prediction (еще один предсказатель)
* Предсказание Google PageRank
* очередной предсказатель PageRank
|
|
 |
Эта статья посвящена всем вебмастерам, которые занимаются не только созданием сайтов, но и их продвижением в сети интернет. Под продвижением подразумевается получение посетителей на сайт (так называемого трафика).
На эту тему уже написано большое количество статей как русскоязычных оптимизаторов, так и зарубежных. Но до сих пор так и не выработано единого способа раскрутки, который бы 100% действовал для всех сайтов. Ведь у каждого сайта не только разная тематика, но и на него ведут разные ссылки опять-таки с разных сайтов, в немалой мере влияет название домена, html-код веб-страницы и даже грамотность текста.
В последнее время комплекс мероприятий по раскрутке сайтов называется seo (search engine optimization - оптимизация под поисковые машины). Почему именно под поисковые машины - потому что они дают целевой трафик и ими пользуется 60-80% (по разным оценкам) пользователей интернета. В мире очень много поисковых машин, толком даже никто не знает точного их количества, но главные известны - для рунета это Яндекс и Рамблер (недавно возник поисковик Вебальта, но пока от него заходит лишь индексирующий бот, а не посетители), для мирового инета - это Гугл (Google), Yahoo! и MSN. Последний, кстати, разработка компании Майкрософт, скорее всего и был бы неизвестным поисковиком, если бы не маркетологи компании, которые интегрировали его в ОС Windows - вот такой хитрый ход
Теперь о самой раскрутке. В первую очередь следует ориентироваться на два поисковика - Яндекс и Гугл (плюс Яху, если сайт англоязычный). Как показывает практика seo, только от этих поисковых машин можно получить какой-нибудь приличный трафик, который уже можно сконвертировать в вечнозеленые денежные знаки. Поэтому на форумах и блогах о поисковых машинах и поисковой оптимизации следует следить за новостями и методикой раскрутки именно для этих машин.
Спросите любого вебмастера, который уже не первый год занимается сайтами и он вам скажет, что создать сайт - это самое простое, а вот раскрутить его и получить стабильный трафик - это труд не одной недели и даже не одного месяца. Это самый настоящий труд, а не виртуальный, как может многим показаться - сидишь себе дома, серфишь по инету и ходишь в банкомат снимать деньги. Так думают только новички интернет-коммерции, те же, кто в этом бизнесе уже много лет скажут, что зарабатывать в инете гараздо труднее, чем в рельной жизни.
Проблема раскрутки может быть не такой острой, если на раскрутку вы можете выделить определенное количество финансов, но еще не все можно купить. Так, можно купить ссылки, но они могут быть не совсем тематическими или по ним не будет переходов на ваш сайт, можно заказать раскрутку через САР (системы автоматической раскрутки - я смотрю ваш сайт, вы - мой), получить первые места в топах, но иметь заказав на сайте. А все потому, что нет целевого, заинтресованного посетителя, которого может дать или поисковик или контекстная реклама (по поводу последней - можно долго спорить, но все же лучше САР и баннеров).
Но главное - не впадать в депрессию, тут действует единый принцип, на котором устроен мир - раз у кого-то получилось, получится и у меня. Главное не пасовать и сидеть сложа руки, расстраиваясь, что на ваш мега-сайт вот уже несколько месяцев нет посетителей. Для примера можно пройтись по нескольким сайтам, на которые вы сами попадали через поисковики при поиске софта или реферата - этим сайтам уже по 3 и более лет, на них уже собрано тысячи статей и обзоров программ.
Думаете, что человек взял да набрал все эти тысячи статей за ночь или какую софтину написал, чтобы она за него их сочиняла? Ну в первом случае все ограничено возможностями человека, а во втором - ну кому был бы интересен не текст, а бессмысленный набор слов? Все дело в постоянном добавлении новых статей, разделов, рубрик - вот со временем и вырастают такие монстры, не страдающие от нехватки трафика.
Естественно, что раскрутка домашней странички, информационного проекта и интернет-магазина - это разные виды раскруток, разные тактики и методы. Так, для домашних страничек важен ее главный герой, для информационного проекта (онлайн-журнал, газета) важно уделять внимание оптимизации текста, соблюдать частоту употребления ключевых слов, а для интернет-магазина нужно больше мультимедийной рекламы (баннеры, флеш, промоакции, покупка рекламных блоков, партнерские программы) чтобы сделать магазин узнаваемым.
Ясное дело, что при раскрутке любого ресурса нельзя ограничиться только одним, или двумя способами, большое значение имеет комплексный подход. Применение любого способа “в отрыве” от остальных даст слишком слабый, либо кратковременный результат. Ни первое ни второе неприемлемо для вашего сайта.
Результаты мероприятий по раскрутке требуется как-то измерять. Обычно это делается с помощью систем статистики, или счётчиков. Речь о них пойдёт в следующей статье.
|
|
 |
Расскажу о таком сервисе гугла, который помогает отсеивать спам из поисковой выдачи. Этим в Google занимается один, малоизвестный человек Adam Lasnik. Конечно, чистотой поисковой выдачи и заспамлености поисковой машины следят много человек, их имена нам неизвестны. Они как бойцы невидимого фронты - мы их не видим, а результаты - чувствуются сразу.
Про вид деятельности Адама Лэсника говорит вот такая строка в его биографии - Google, Mountain View, CA, Index Quality Enhancement: Analyzing Web spam trends and helping colleagues fine tune indexing and ranking algorithms.
Вообщем деятельность этого человека лежит во взаимодействии вебмастеров и инженеров гугла. Естественно, что внутренняя политика поисковой машины Google запрещает разглашать какие-либо поисковые технологии и механизмы, но нужно уметь понимать то, что подобные специалисты пишут или говорят между строк.
На основании сайта этого человека можно сделать несколько выводов:
* Рапорты или жалобы, которые отправлены через сервис https://www.google.com/webmasters/sitemaps/spamreport?hl=en получат наибольшее внимание
* На основании только жалобы, без проверки самого факта нарушения использования поисковой машины, сайт не может быть исключен из индекса, т.е поисковой выдачи
* Проверка жалоб - практически полностью автоматическая, ручную проверку проходят лишь крупные сайты, представляющие для поисковой машины коммерческий интерес
* Первостепенным фактором в обработке рапортов лежит степень замусоренности (заспамленности, популярности) определенных ключевых слов, тематик. Ясное дело, что чем выше конкуренция по определенному ключевому слову, тем быстрее будет осуществлена проверка на спам
* Ручной обработки бана практически не существует (за исключением исключительных случаев). Инженеры Google ежедневно используют полученную информацию для улучшения алгоритма, с целью определения новых видов спамерский технологий. Потом эти изменения алгоритма тестируются и постепенно вводятся в реальную работу алгоритма
* Инженеры, которые ответственны за качество поискового индекса гугла, не имеют право использовать данные, собираемыми другими отделениями гугла (такими как Adsense, Adwords, Analytic). Это связанно с так называемыми “privacy terms”. Следует обратить внимание, что про тулбар ничего сказано не было, так что весьма вероятно что данные гуглбара могут использоваться для обнаружения поискового спама.
Вот, в принципе и все. Если хотите больше узнать о технологиях поисковой машины, то внимательно изучайте и почаще заходите на сайт Адама Лэсника (его сайт http://www.lasnik.net/). Успехов вам!
|
|
 |
В этой небольшой заметке расскажу о нескольких очевидных причинах создания собственного контент-проекта. По своему опыту ведения информационного сайта уже более года, могу сделать несколько выводов. Среди прочего, есть и информация, найденная на различных форумах о продвижении сайтов и поисковой оптимизации.
1) Получение целевого трафика и продвижение сайта в поисковых системах.
Да, алгоритмы ранжирования сайтов, определения релевантности и выдачи результатов запроса не стоят на месте, постоянно меняясь. Для этого достаточно просто зайти на любой форум оптимизаторов и почитать подобные темы - сколько там недовольства и жалоб на изменчивость поисковых машин, у кого-то посетителей становится меньше (чаще всего), у кого-то больше.
Ну здесь речь не совсем об этом, а о том, что создавая сайт с большим количеством (не менее тысячи страниц) уникального текстового материала, вы обеспечите свой сайт трафиком с поисковых машин. Причем стабильным и качественным. Еще очень желательно разнообразить тематику сайта - ведь посмотрите - на первых местах по посещаемости сайты, у которых много различных тематик и подразделов.
Таким образом решается несколько важных проблем - это обмен ссылками (который еще нужно уметь грамотно проводить, чтобы не попасть в немилость к поисковой машине), регистрацию в каталогах (сейчас ссылки с них ценятся все меньше и меньше, естественно, речь здесь не идет об авторитетных и уважаемых каталогах - но туда еще нужно попасть, к примеру, в тот же dmoz.org даже за деньги не попадешь - важно лишь качество сайта).
2) Удержание посетителей и получение из трафика материальной выгоды
Не секрет, что каждый владелец веб-сайта хочет не только иметь посещаемый ресурс, но и чтобы он приносил прибыль. Ведь, как ни крути, а регистрация и продление доменного имени, хостинг, трафик, аренда сервера - все это стоит денег, еще и прямо пропорционально количеству посетителей. Плюс, когда сайт станет популярным и посещаемым, то ему уже понадобится свой сервер, сисадмин, редактор (-ы), модераторы, менеджеры по рекламе - а это все, как вы понимаете, деньги.
Так вот, начнем с самого начала :) Когда сайт постоянно обновляется новым контентом, появляются новые разделы, тематики, то посетителю он становится интересным и он вносит его в закладки - вот к чему стоит стремиться. И вы получаете самое ценное - постоянную аудиторию. А уже с помощью ее можно зарабатывать на различных партнерских программах, контекстной рекламе и т.п.
3) Стабильный источник дохода
Информационные проекты на Западе уже давно перешли из увлечения в серъезный бизнес. Взять тот же digg.com, к примеру, у него посещаемость около 4 млн в сутки (приблизительно), а стоимость рекламы на сайте измеряется десятками тысяч вечнозеленых президентов. Наблюдая за развитием сайтов своих друзей, могу сказать, что для них они переросли из хобби (домашней странички) в источник дохода, а не пустых трат времени и денег.
К примеру, один знакомый за 3 года работы над сайтом (когда еще он был как хобби, а основной работой было программирование), создал полноценный ресурс с PR-6 и тИЦ-425 (данные на февраль 2007 года), посещаемость сайта 5-6 тыс хостов в сутки, что для рунета очень даже неплохо. А человек просто собирал статьи, что сам писал, что переводил, размещал на сайте, потом статьи стали присылать различные авторы, дабы получить упоминание о своем ресурсе. Вот за 3 года результат - более 4000 статей, файлов, пособий.
Сделаю небольшой итог вышесказанному - если вы намерены создать популярный и посещаемый ресурс, то будьте готовы к долгой и непростой работе над ним. Можете сами писать статьи - пишите, знаете иностранный язык - переводите (на те тематики, в которых вы разбираетесь и которые вам интересны).
Если же в какой-то сфере вы не специалист, то можете попросить сделать это ваших друзей или же просто заказать написание контента. Можете просто договориться с авторами статей по вашей тематике, которые вы нашли в интернете, чтобы они присылали и для размещения на вашем сайте, можете просто попросить разместить уже готовые статьи. А уж что взамен - это или указание ссылки на сайт автора или же денежное вознаграждение - это уж как договоритесь.
А далее можно уже свои статьи, новости публиковать на других сайтах - всем нужен качественный и свежий контент - а это еще дополнительный источник трафика, что и есть самым главным, а хорошие PR, тИц - это лишь следствие хорошей посещаемости.
"Смотрите сами, решайте сами..." - как поется в известной песне. На этой ноте и раскланяюсь...
|
|
 |
В качестве вступления заметим, что в самом этом вопросе заключен подвох - заранее неверное предположение.
а) Первая страница результатов поиска - некое определенное место. Это не так: "Яндекс" и "Рамблер" производят в день не менее полутора миллионов первых страниц каждый и3 все они разные! Какие из них и сколько нам нужны?
б) Заранее предполагается, что попасть на первую страницу - абсолютное благо. Кроме того, все остальные виды продвижения сразу исключаются из обсуждения.
И то и другое - миф. Но начнем обсуждение по порядку.
Клиенты - поворот к Сети
Насколько можно судить, в настоящее время наблюдается заметный рост интереса к интернет-продвижению среди мелкого и среднего офлайнового бизнеса. Вот типовой портрет такого клиента:
* небольшая офлайновая компания,
* оборот $50 000 - 200 000 в месяц,
* имеется "информационный" сайт,
* нет интернет-маркетолога,
* нет выделенного интернет-бюджета.
Такие компании уже готовы к интернет-продвижению своих услуг, но не знают, как это сделать и сколько это стоит.
Причины интереса к Сети
Если есть рост интереса к Сети, то почему? Здесь могут быть различные причины. Например, мода, то есть последействие интернет-бума (наконец докатился). И более объективные внутренние: дороговизна печатной рекламы и рост числа потребителей, приходящих через Сеть. Вот какие причины называют сами клиенты:
* печатная реклама перестала работать;
* значительная доля клиентов стала приходить из Сети;
* привлечение клиента через Интернет дешевле.
Предположения
Для упрощения дальнейшего обсуждения сделаем следующие предположения о наших клиентах.
* Требуется продвижение корпоративного сайта "торговой" компании. Таким образом, цель сайта - увеличение объема продаж.
* У руководства есть маркетинговая стратегия. Руководство компании знает, как продавать свои продукты в "обычном" мире, и может оценить расходы на маркетинг и его результаты.
* Есть представление о нужной аудитории. Руководство компании знает, как и кому она продает свои продукты или услуги, и рассчитывает найти часть этой аудитории в Сети.
* Аудитории есть куда придти. Имеется в виду, что у компании есть более или менее приличный сайт, работающий, видный из Сети, с головной страницы которого не уходит 100% аудитории.
Почему поисковые машины?
Почему нужно производить продвижение именно через поисковые машины?
Плюсы
* Подавляющая доля трафика. Поисковики дают от 10% до 75% трафика корпоративных сайтов.
* Мотивированная аудитория. Пользователи сами сообщают о своих потребностях в виде поисковых запросов.
* Наглядность. Руководство компании, владеющей сайтом, сразу может увидеть свой сайт в результатах поиска (и в этом причина многих иллюзий).
Минусы
* Медленная индексация. Любые изменения на сайта попадают в поисковики за в среднем 1-2 месяца, что не позволяет использовать индексацию для разовых рекламных кампаний.
* Неустойчивая работа. Поисковики не дают никаких гарантий и работают неустойчиво: постоянные смены алгоритма, зависания серверов всё время меняют место сайта в поисковых результатах.
* Не борются с накрутчиками. Более умелый и хитрый вебмастер может обогнать в результатах поиска честных, талантливых, но неумелых создателей хорошего контента.
* Борются с накрутчиками. Разработчики поисковиков - независимые коммерческие компании и абсолютно не считаются с интересами вебмастеров. Они могут признать за накрутку самые невинные или сделанные по недомыслию вещи. Кроме того, возможно и осознанное представление сайта как накрутчика за счет накрутки его со стороны конкурентов. А выбрасывание из индекса за накрутку ведет к потере денег и ущербу для имиджа.
* Проблема первой страницы. Только 13% пользователей заглядывают дальше первой страницы результатов поиска. Фактическое падение числа показов на порядок приводит к абсолютной бессмысленности пребывания на вторых страницах, а первые перегружены.
Выбора всё равно нет. Я лично никогда не посоветовал бы такой неудачный рекламный носитель своему клиенту. Но выбирать не из чего - альтернативы поисковикам нет.
Мифы
За недостатком информации вебмастера и их хозяева питаются мифами относительно продвижения в поисковиках и в Сети вообще. Вот некоторые из них.
* Нужна постоянная аудитория. На самом деле у большинства корпоративных сайтов торговых компаний нет и не может быть постоянной аудитории - купив телевизор, я не буду ходить на сайт магазина каждый день. Постоянная аудитория бывает только у порталов, СМИ, узких контентных ресурсов и мест для общения. То есть у типично интернетовских проектов.
* Место на первой странице = успех. На самом деле это некорректное высказывание (см. вступление).
* Бывает быстрая, дешевая и эффективная раскрутка. Это обман: дешевая бывает, эффективная бывает, а быстрой и эффективной не бывает вообще.
* Есть гарантированные методы. См. выше про неустранимую ненадежность поисковиков.
* Все вокруг - накрутчики. Как минимум 99% владельцев сайтов никогда не занимались накруткой и даже не умеют этого делать.
Дешевая и дорогая раскрутка
Есть огромный спрос на дешевую раскрутку. Существует и дорогая раскрутка. Вот сравнительные характеристики.
"Дешевая раскрутка"
Методы
Вот основные методы, применяемые для дешевой и опасной раскрутки.
* Манипуляции с текстом сайта. Обычно это устаревшие попытки обмануть поисковик с помощью светло-серого текста по светло-серому фону, набивание поля ключевых слов терминами "секс, порно, линукс, рефераты, ...", создание ссылочных страниц-паровозов и другие приемы. Поисковики подобные ухищрения считают спамом и в лучшем случае не учитывают.
* Входные страницы (doorways). Размещение различного рода страниц на бесплатных хостингах или своем сервере со списком ключевых слов и автоматическим перебрасыванием на сайт (редиректом). Считается спамом и может повлечь удаление из индекса.
* Переменные страницы (cloaking). Настройка на поисковик - распознавание индексного робота поисковика и подсовывание ему не тех станиц, что видит пользователь. Считается спамом и жестоко карается (если заметят).
* "Секретные методы". Обычно "знатоки" дешевой раскрутки намекают на владение магическими и секретными технологиями. Здесь имеется полная аналогия с разделом "Оккультные услуги" в рекламных газетах.
[pagebreak]
Вред от дешевой раскрутки
* Создает иллюзии. Даже при видимом успехе (попадание на первые страницы) дешевая раскрутка фактически создает иллюзию успеха, так как посещаемость не гарантируется, не закрепляется, да и привлеченная в пиковый момент аудитория довольно случайна.
* Создает опасность для бизнеса. За применение сомнительных методов сайт могут выкинуть из индекса поисковика, а быстрое рассмотрение проблемы и восстановление никем не гарантируется, и даже денег за него не берут. А исключение из индекса - прямая потеря денег, затраченных на сайт.
* Практически пустая трата денег. После такой раскрутки в среднем не происходит роста продаж или хотя бы посещаемости.
Поисковая оптимизация
Как это делается
Вот как мы делаем поисковую оптимизацию, направленную на кумулятивное повышение видимости.
* Построение семантического ядра. Строится на основе содержания сайта и его конкурентов, синонимов, близких слов и анализа их статистики в поисковиках.
* Анализ спроса и доли рынка. Анализируется статистика ядра запросов на основе "Яндекс-Директа" и "Рамблер-Ассоциаций".
* Коррекция текстов и структуры сайта. Семантическое ядра используется для коррекции текстов, титулов и т. п., создания новых страниц и главок.
* Правильные аннотации и регистрация. На основе ядра пишутся и регистрируются новые аннотации для Тор100, "Листа", каталогов.
* Поисковая реклама. Запросы ядра используются для создания текстовых баннеров для "Яндекс-Директа" и "Google AdWords".
* Наращивание объема контента. Ядро запросов используется для создания новых разделов и страниц.
* Входные рекламные страницы. Создаются специальные рекламные страницы, с некоторым содержанием (описанием товара, каталогом и т. п.), с приглашением перейти "внутрь" продвигаемого сайта, на страницу нижнего уровня. Страницы ориентированы на низкочастотные запросы из семантического ядра. Такие страницы не нарушают правил поисковиков и не обманывают посетителей.
Ядро запросов
Составление семантического ядра состоит из следующих шагов:
* Анализ текстов сайта - выбор значимых терминов.
* Анализ частот запросов. Статистика запросов в "Яндекс-Директ", "Google".
* Ассоциативный анализ ("Рамблер") - добавление "близких" тем.
* Анализ слов-попутчиков - выбор не тематических, но частых попутчиков ключевых слов (глаголов, местоимений, прилагательных).
* Статистический анализ - отрезание хвоста.
Оценка доли рынка
Оценка доли рынка может делаться только очень приблизительно, как самая грубая прикидка для размышления, однако это всё же количественный метод. Вот основные шаги.
* Составление ядра.
* Суммарная частотность ядра по "Яндекс-Директ".
* Экстраполяция на весь Рунет с коэффициентом 1,8-2,2.
* Сравнение с количеством приходов с поисковиков ("SpyLOG" и др.)
Использование семантического ядра
Будучи составленным, семантическое ядро должно использоваться везде, где есть тексты компании - владельца сайта.
* Коррекция текстов сайта.
* Аннотации для каталогов и рейтингов.
* Создание новых страниц (глоссарии, каталоги, главки статей).
* Текстовые баннеры для поисковой рекламы.
Наращивание контента
Наиболее устойчивый эффект дает наращивание содержания сайта (контента); естественно, при этом лучше не забывать о правильных формулировках и терминах, получаемых из ядра запросов.
Плюсы
* Масса сайта повышает его ранг в поисковиках. Большинство поисковиков объединяют результаты поиска в сайты (кластеризуют их), при этом "техническая" масса сайта повышает ранг.
* Много страниц во многих местах. Ваши страницы начинают появляться во многих местах - в результатах поиска по разным запросам, по ссылкам и так далее. Количество показов пользователям автоматически увеличивается.
* Вебмастера начинают ссылаться на ваш сайт. Хороший контент всегда привлекает ссылки, ссылки повышают ваш ссылочный ранг, а это важнейший способ подсчета ранга сайта поисковиками.
* Кумулятивный эффект. Всё вышеперечисленное само "разогревает" сайт, как начинает тлеть торф или таять снег от давления. Здесь имеется петля положительной обратной связи.
Минусы
* Трудоемко, дорого. Контент просто долго писать и верстать. Но еще труднее придумывать.
* Нужны специалисты и энтузиасты. К сожалению, для создания контента нужны одержимые идеей люди. Их нужно удерживать, содержать, лелеять.
* Долгое время срабатывания. Кумулятивный эффект срабатывает не сразу - нужны как минимум месяцы. Но зато потом эффект не ослабевает, если сайт хотя бы поддерживается в "живом" состоянии.
Изостатическое правило контента
Чем больше контента на сайте, тем выше он всплывает.
Поисковая реклама Лучший способ попасть на первую страницу
Очевидно, что поисковая реклама - это самый верный способ попасть на первую страницу. Просто потому, что ваши баннеры, текстовые блоки, баннеры поисковой рекламы типа "Яндекс-Директ" помещают именно на первую страницу результатов поиска.
Плюсы
* Точное попадание. Поисковая реклама нацелена на самую мотивированную аудиторию.
* Высокая эффективность при удаче. Если создать удачный текстовый или графический баннер, можно получить "кликабельность" (CTR) на уровне 25%.
* Низкая входная стоимость. Чтобы попробовать этот вид рекламы, достаточно 10-20 долларов. При удаче и стоимость привлечения одного посетителя будет весьма низкой.
* Скорость и интерактивность. Разместить объявление можно за несколько минут, имея кредитную карту. Точно так же просто изменить объявление, чтобы настроить "кликабельность".
Минусы
* Не закрепляет посещаемость. Как и баннерная реклама, дает кратковременный эффект.
* Низкая видимость на странице. Пока баннеры поисковой рекламы очень похожи на технические сообщения поисковика, глаз с них "соскальзывает".
* Новизна. Малый опыт использования приводит к неумелому обращению, нежеланию рекламодателей выделять бюджет и пр.
Как правильно использовать
Этот эффективный инструмент мы советуем использовать следующим образом:
* для разовых рекламных кампаний;
* использовать семантическое ядро;
* подбирать низкочастотные формулировки;
* заголовки должны совпадать с запросами;
* настраивать интерактивно.
Выводы: как попасть на первые страницы
* Нужно оценить спрос и составить семантическое ядро.
* Нужно выправить тексты, объявления и аннотации.
* Нужно растить контент и заниматься ссылками.
* Нужно запастись терпением.
* Нужен сайт, с которого не уйдут посетители.
|
|
 |
Этимология слова "очевидно" - весьма проста и доступна. "Оче" - "видно" - видно очами, или говря современным языком, то, что очевидно, мы можем увидеть глазами или сознанием, совершенно не напрягая при этом ни первое, ни второе. Возвращаясь к теме статьи - очевидным проявлением раскрученности сайта, является как раз видимость оного сайта в Сети, иными словами "легкая находимость" в бездонном болоте Интернета. Сайт можно легко найти - значит он раскручен. Это очевидно.
Под этим самым, легко найти, подразумевается очень широкий спектр своиств: высокие позициии сайта в поисковых системах и каталогах, множество ссылающихся баннеров на популярных сайтах и пр. и пр. и пр.
Но зачем я рассказываю вам то, что вы и так знаете? Ничего особенного, просто маленькое прояснение ситуации, прежде чем я открою вам глаза на то, как неочевидное становится главенствующим, когда мы смотрим на раскрутку сайта не как на что-то абстрактное, а как на нормальный компонент рекламной политики компании, в который вложены деньги. И который, опять-таки, нормально и без суеты должен эти денюжки отработать и принести нормальную русскую прибыль, обычно исчисляюмую сотнями процентов.
Итак, вы предприниматель, и вы хотите иметь хорошо раскрученный ресурс, представляющий вашу фирму в сети. И целью данного ресурса, является ни больше, не меньше, а привлечение новых клиентов на ваши товары и услуги. Клиенты - это деньги, а деньги - это хорошо. Цели поставлены - начинаем достигать. Все неочевидное постараюсь изложить в порядке возрастания неочевидности.
Раскрутка начинается с создания
И сразу же первый неочевидный аспект - сайт который нравится вам и вашей секретарше может быть совершенно непригоден для раскрутки. Не буду здесь детализировать основные ошибки при создании сайта - сеть просто наводнена подобными перечнями, да и ваш покорный слуга уже не раз писал о несомненной пользе для раскрутки, фреймовых структур, двухсоткилобайтных заставок, и прочих недоразумений горе-сайтостроителей. Просто дам один совет - заказывайте создание сайта там же, где вы планируете заказывать его раскрутку - сэкономите дважды. Первый раз, когда получите скидку за комплексный заказ. Второй раз на том, что не прийдется все переделывать заново (то что переделывать обязательно прийдется, вам подтвердит любой, кто уже имел с этим дело).
Баннеры и Эрмигурт
Баннеры, баннеры- Я здесь предвзят - каюсь - я не люблю баннеры. Равно как не люблю рекламу "Эрмигурта". Я не смотрю на баннеры, я по ним не кликаю, Эрмигурт я не покупаю принципиально, хотя йогурты люблю. Мои знакомые не смотрят на баннеры и не кликают по ним. Когда я работаю через диалап, то частенько отключаю графику вообще. Но- Я не могу отрицать эффективность баннерной рекламы в приложеннии к раскрутке сайта и при определенных условиях.
Условие - баннеры наиболее эффективны, когда они размещены на ресурсе, тематически родственном вашему. Пожалуй, это единственный случай когда я рекомендовал бы финансировать баннерную рекламу. Пусть даже подобное размещение баннеров будет дороже (иногда это вообще невозможно, например когда все родственные ресурсы - это сайты ваших конкурентов) нежели в баннерных сетях. И как правило, это означает индивидуальные переговоры, относительно условий размещения (положение на странице, стоимость) ваших рекламных баннеров, с администрацией каждого сайта в отдельности, в противоположность автоматизированному выбросу в баннерные сети.
Хотя есть неочевидная полезность и баннерных сетей - переходов из оных сетей кот наплакал (по некоторым тематикам имеются исключения), ссылки, ведущие на ваш сайт, могут дать заметный прирост индекса цитирования в некоторых поисковиках. В общем, баннерные сети - хороший дополнительный ускоритель для молодых ресурсов. Но не более того.
Top 10 - "хорошо" или "отлично"?
Моя любимая тема. То что вы всегда хотели узнать, но боялись об этом спросить. А если бы даже и спросили- Ну вы понимаете - рынок есть рынок.
"Мы поможем Вашему сайту попасть в первую десятку ведущих поисковых машин-" "Так как мы используем только честные методы раскрутки, мы можем гарантировать только попадание на одну из первых трех страниц-" "Раскрутка всего за 30 долларов-" Надо ли мне писать о том, Матрица вас имеет? Или вы уже сами это ощущаете?
Как вы уже догадались, речь пойдет о поисковых рейтингах или назовите их как угодно, но суть здесь в том, что за исключением, пожалуй, только постоянного контингента на информационных, развлекательных и прочих часто обновляемых ресурсах ресурсах, наибольшую часть посетителей вашего сайта (и что особенно важно - целевых посетителей) составят именно люди, пришедшие по ссылке из поисковых систем. Когда я пишу это, я имею ввиду, что ваш сайт - это просто некий сайт, рекламирующий услуги и деятельность вашей фирмы.
Эти люди - это ваши клиенты. Это "активные" клиенты. Клиенты, которые сами ищут то, что можете предложить им вы. Я люблю таких клиентов. Вам не надо их в чем-то убеждать, вы можете им просто предложить то, что у вас есть. И если условия их устраивают, они это купят.
Итак, вы решили потратиться и заполучить-таки заветное место в первой десятке по паре-тройке словосочетаний, скажем в Яндексе. И сразу же: Яндекс (Гугль, Рамблер) не приветствует, когда деньги, по праву принадлежащие ему, уплывают куда-то в сторону - и постоянно, мягко, но настойчиво предлагает свою рекламную систему Яндекс.Директ. Но ответьте мне, только честно, часто вы пользуютесь ссылками, выдаваемыми Директом? Вот и я тоже. То ли, это особенности национального менталитета - не смотреть на то, что "подсовывают", а только на то, что найдено самим. То ли, визуально это как-то криво расположено- Факт состоит в том, что за деньги, потраченные на Директ вы получите рекламу- ровно на эти деньги. Как это ни печально, но всенародно-любимый эффект халявы здесь отсутствует.
"Мы гарантируем вам попадание в первую-" - давайте посмотрим, можно ли это гарантировать вообще? Есть Директ от создателей Яндекса. Надежно. Гарантированно. Но за него надо платить постоянно. И есть некая promo-фирма, предлагающая, заплатить один раз и через пару месяцев (это средний срок раскрутки, после которого начинается массовый приток посетителей из поисковых машин) воссиять на небесводе Рунета. Так могут ли они гарантировать это? Возможно ли в принципе гарнтировать что-либо подобное, имея в виду, что алгоритмы ранжирования сайтов тем же Яндексом - тайна за семью печатями. Ответ здесь где-то посередине между ДА и НЕТ. ДА - потому что кто-то в этих топах определенно находится. НЕТ - потому, что есть элемент тайны и везения. И ВОЗМОЖНО - потому, что- просто потому, что это возможно. Все это вопрос времени, денег и целесообразности. Именно целесообразность и эффективность интернет-рекламы - вот самая очевидная неочевидность. И я перехожу к самому неочевидному аспекту, коим вышеупомянутая целесообразность и является.
Как вы думаете, как быстро окупятся средства вложенные на попадание вашего сайта(ов) в первую десятку поисковых машин?
Какие это средства?
Хорошо, прийдется вам поверить мне на слово - гарантированное попадание в первые строки списка, выдаваемого поисковой машиной в ответ на словосочетания, соответствующие роду деятельности вашей компании (а я настаиваю на том, что это самый эффективный вид интернет-рекламы) обойдется вам в несколько тысяч долларов ($3.000 - $10.000 в зависимости от типа деятельности, представленности конкурентов в Сети и т.п.) и пару-тройку месяцев (две-три недели если оооооччень повезет) ожидания до получения нужного эффекта. Я вижу ваши круглые глаза, но "лекарство такого уровня, такого класса-". Это просто реальные деньги, которые весьма близки к себестоимости подобного проекта. Как правило это предполагает создание нескольких сайтов и огромный объем работы по их раскрутке.
Вы готовы платить подобные деньги?
Возможно, вы рассуждаете так: "Ага, я продаю машины. Слово машина в прошлом месяце запрашивали в Яндексе (статистика общедоступна), ну скажем, 25.000 раз. Следовательно, попадание на первую страницу в поисковой машине даст мне, примерно 5.000 посетителей. Первая десятка обеспечит 15.000..". Стоп!
Я хочу купить машину. Мои действия:
* иду на свой-любимый-поисковик.ru
* набираю "машина"
* просматриваю сайты из выданного списка по-порядку, начиная с первого (здесь я намеренно взял упрощенный пример)
* если я достаточно терпелив, то просматриваю, скажем, первые тридцать сайтов.
* я нашел то, что нужно - звоню - еду - покупаю машину
* не найдя желаемое, возвращаюсь к п. 2 и набираю "купить машину" (если я в Интернете недавно) или что-то типа "продажа машин" (если хоть какой-то опыт работы с поисковиками имею).
* Повторяю просмотр.
И ВНИМАНИЕ! - ЕСЛИ Я УЖЕ НА ПЕРВОМ САЙТЕ ИЗ СПИСКА НАХОЖУ ТО ЧТО МНЕ НУЖНО, ТО ДАЛЬШЕ Я НИЧЕГО СМОТРЕТЬ И ИСКАТЬ НЕ БУДУ.
Возможно, пример с машинами не самый удачный (хотя почему бы мне и не наткнуться на первом же сайте на рельную распродажу автомобилей по бросовым ценам) Но, надеюсь, что основную идею я все-таки донес. Если нет, то еще раз но другими словами.
ВАШ САЙТ БУДЕТ ГАРАНТИРОВАННО ПРОСМОТРЕН ТОЛЬКО ЕСЛИ ОН НАХОДИТСЯ НА ПЕРВОМ МЕСТЕ В СПИСКЕ.
Иными словами - идеальным вариантом является, когда ваш сайт будет первым и последним на котором побывает ваш клиент. У поисковых машин, кстати идеальная ситуация подобная - они стремятся обеспечить релевантность запросу такого же уровня - первый просмотренный сайт должен являться и последним.
Ваш сайт может быть не просмотрен потенциальным клинтом, несмотря на то, что он высоко ранжируется поисковой системой и даже если он входит в первую тройку-пятерку списка. И это пожалуй самый неочевидный момент в теме раскрутки сайта.
И если за то, что ваш сайт будет "последним среди просмотренных" и самым нужным ответственен контент вашего ресурса. То за попадание на первое место (которое гарантирует просмотр потенциальным целевым клиентом) собственно и отвечает фирма, взявшаяся за раскрутку сайта.
Можно ли гарантировать первое место? Возможно все - вопрос времени, денег и целесообразности.
В заключение. Когда я хочу помотреть свежие обзоры "железа" я иду на www.ixbt.com - и никакие поисковики, индексы цитирования на это не влияют - это просто пример идеально раскрученного ресурса. Правда совсем из другой оперы, но все же.
Хороший сайт нуждается не в раскрутке, а в мощном и быстром сервере ;)
|
|
 |
Поисковые механизмы продолжают эволюционировать, становятся все более изощренными и усложненными, в то же время упрощаются их пользовательские интерфейсы, и размеры накопленных баз данных экспоненциально увеличиваются. Впрочем, постоянное развитие в этой области и неудивительно спрос на поиск нужной информации в Сети будет только расти, причем с каждым годом как пользователей, так и данных будет становиться все больше.
Поисковая индустрия также выглядит лакомым кусочком пирога для многочисленных стартапов, которые не прочь попробовать себя в этой области. Лидером здесь можно стать если не за считанные сутки, то за несколько месяцев, о чем свидетельствует история успеха Google. Два года назад о компании знали только энтузиасты, и еще недавно ссылались на данный поисковик как на "разработку студентов Стэнфордского университета", отмечая, что Google "имеет реальные шансы стать одной из самых авторитетных служб в своем классе".
Сегодня за место лидера рынка постоянно соревнуются две компании американская Google и норвежская FAST, и поэтому неудивительно, что в данном материале речь в основном пойдет именно о нововведениях этих фирм.
Файловые форматы
Признавая тот факт, что Internet постоянно пополняется большим количеством информации, которая не всегда выкладывается в формате HTML, Google сообщил о поддержке файловых форматов Microsoft Office. Таким образом, сегодня команда "Поиск" в Google, кроме HTML-документов, выдаст файлы форматов PostScript, Rich text Format, Lotus1-2-3, Lotus WordPro, MacWrite, Microsoft Word, Microsoft Excel и MicrosoftPowerPoint. До этого поисковик также успешно находил и PDF-документы.
Поддержка новых форматов вызвала немало проблем и даже курьезов. Сисадмины и специалисты по компьютерной безопасности наверняка не обрадуются поддержке форматов Microsoft Office. Теперь, щелкнув по ссылке, которая ведет на документ Word, пользователь имеет все шансы запустить у себя на машине макрос, и нет никакой гарантии, что он не причинит вреда. Именно для таких случаев Google предоставляет возможность ознакомления с HTML-версией документа, однако поддержка новых форматов влечет за собой новые проблемы для домашних пользователей теперь компьютерные вирусы можно будет получать прямо из поисковика.
Для более грамотных пользователей новые файловые форматы, несомненно, представляют ценность, так как в слайдах PowerPoint в Internet часто выкладывается учебная и деловая информация, а Excel является общепринятым способом распространения прайс-листов.
Специализация поиска
Норвежские разработчики также предпочли не просто наблюдать за рынком, а развивать специализированные услуги своего поисковика.
FAST запустила поиск новостей, являющийся, как утверждают разработчики, обладателем "желтой майки лидера", если вести речь о скорости. Ежедневно FAST News Search обрабатывает около 3 тыс. ресурсов, которые обновляются в режиме реального времени, как и положено новостийно-информационным изданиям. "Паук" от FAST индексирует около 800 статей каждую минуту.
В данном направлении ведут разработки и отечественные компании. Как сообщил нашему изданию Алексей Чуксин, директор по маркетингу компании"МЕТА", в рамках украинского поисковика создан "динамический индекс", который позволяет вносить обновленные страницы в базу данных"на лету", не замедляя таким образом скорость работы поиска.
Потенциально данная технология может быть использована для организации поиска новостей и обновлений, а также в качестве внутреннего поисковика для крупных сайтов. Разработчики "META" сегодня переводят на динамический поиск сайты своих клиентов, среди которых финансовый сервер Finance.com.ua, банковский Ukrsibbank.com и портал Volia.com.
FAST также предложила весьма интересную концепцию кластеризации результатов поиска. За основу технологии FAST Topics взят открытый каталог Dmoz.org, на его базе сделаны тематические подборки сайтов, которые затем объединяются в кластеры с общей тематикой. Введите "ukraine" в поисковике FAST, и всписке папок будет представлено девять категорий для возможного сужения поиска.
Релевантность
Даже самые громогласные тирады о всемогуществе современных поисковиков зачастую прекращаются, когда их создатели говорят о релевантности. Алгоритмы определения релевантности для ранжирования документов постоянно находятся в стадии разработки. Спаммеры поисковиков, с одной стороны, и добросовестные маркетологи сайтов, с другой, ведут борьбу за право оказаться в списке первых на странице с результатами поиска.
С ноября 2001 г. "МЕТА" для определения релевантности украинских сайтов начала использовать алгоритмы PageRank, где место в списке результатов зависит и от количества ссылок на документ. Google, которая возникла фактически благодаря технологии PageRank, на этот раз решила еще более усложнить путь для недобросовестных "раскрутчиков".
Разработчики Google тестируют технологию, которая позволит пользователям самостоятельно определять релевантность сайта, таким образом голосуя за более информативные ресурсы и исключая из списка результатов поиска сайты, не имеющие никакого отношения к запросу. Теоретически это может даже развязать руки спаммерам, голосующим за свой сайт с различных компьютеров, однако Google рассчитывает на то, что многомиллионная аудитория, ежедневно пользующаяся поисковиком, в целом будет рационально относиться к "избираемым" сайтам.
Быстрее, выше, сильнее?
Как оказалось, олимпийские лозунги не всегда обеспечивают позитивное отношение к поисковикам со стороны пользователей. По мере расширения своей базы данных и увеличения кэша на жестких дисках компании Google пришлось столкнуться с противодействием со стороны Web-мастеров. Google индексирует документы, не предназначенные для публичного использования, Google сохраняет на своем жестком диске копии документов, которые по каким-то причинам должны быть уничтожены, Google ставит под удар платные сайты, требующие денежной мзды за доступ к архивам с более старыми статьями.
На все эти обвинения компания реагирует весьма корректно. Что касается индексирования документов, которые выкладываются на серверы, однако не предназначены для посторонних глаз, представители Google утверждают, что их робот никогда не проиндексирует информацию, доступ к которой запрещен. Не будучи взломщиком, робот, тем не менее, индексирует все, что находит, и тот факт, что конфиденциальные документы попали в око "паука",свидетельствует о том, что неправильно был оформлен файл robots.txt или же администратор не принял должные меры защиты.
Для желающих уничтожить копии своих файлов на дисках Google (а туда, напомним, сейчас попадают и документы PDF, и Microsoft Word), Google представляет такую возможность на сайте для Web-мастеров.
Что касается расширения баз данных поисковиков, то здесь решили не останавливаться на достигнутом и разработчики "МЕТА" робот, по словам Алексея Чуксина, теперь поддерживает настройку полей для поиска структурированной информации (а проще говоря, может получить доступ и проиндексировать базу данных).
С миру по нитке
Что еще произошло в мире поиска за последнее время? Портал Yahoo! согласился сотрудничать с платным поиском Overture (ранее известным как Goto.com), и таким образом на Yahoo! теперь будут появляться платные ссылки, которые будут четко обозначены как коммерческие результаты. Overture, готовясь выйти на прибыль уже в ближайшее время, сумела доказать большинству пользователей, что продажа ссылок за деньги не есть что-то неприличное, а наоборот весьма прибыльный бизнес при условии, что посетитель четко осознает ангажированность результатов.
FAST внедрила свои поисковые технологии в Lycos. Две компании издавна являются партнерами, однако долгое время поиск в Lycos занимал последние места по части объема базы данных и релевантности ссылок. Новая версия поискового ядра от FAST способствует укреплению имиджа Lycos как поисковой машины для Web. На обновленное ядро перешла и российская версия портала, расположенная по адресу www.lycos.ru. Как сообщил"Компьютерному Обозрению" генеральный продюсер российской Lycos Андрей Себрант, основной задачей для разработчиков компании в ближайшее время станет ускорение индексации русскоязычных новостей и интеграция данного сервиса в Lycos.ru. Также одной из ключевых задач сегодняшнего дня является наращивание мультимедийной базы для поисковой машины.
Немного странно не видеть в данном обзоре Inktomi, которая обычно шествовала в колонне лидеров данного рынка. Компания в последнее время направляет свои усилия на корпоративный сектор, хотя игнорировать такого крупного игрока на рынке Internet-услуг пока что нельзя вряд ли Inktomi согласится стать побежденной в гонке лидеров, и вполне возможно, что скоро FAST и Google получат в ее лице достойного конкурента.
|
|
 |
Поисковые серверы, в последнее время, при регистрации Вашего сервера, сайта или страницы, используют информацию, хранящуюся в специальных тэгах META, которые помещаются в секцию HEAD. Большинство начинающих вебмастеров и веб-дизайнеров не придают особого внимания этим тэгам, и зря. Сайт, который не посещается, подобен макулатуре, безжалостно выбрасываемой в мусорную корзину. Увеличивайте посещаемость, пользуйтесь подручными средствами!
Во-первых, стоит вкратце остановиться на самих тэгах и их значении с точки зрения видимости и легкой "находимости" вашего сайта.
META HTTP-EQUIV="Expires" CONTENT="Mon, 20 Sep 1999 00:00:01 GMT"
Используется для того, чтобы в нужное время браузер при просмотре документа брал не версию, хранящуюся в кэше, а свежую версию прямо с Вашего сайта.
META HTTP-EQUIV="Content-Type" CONTENT="text/html; CHARSET=Windows-1251"
Используется для того, чтобы браузер мог правильно отобразить содержимое страницы и для определения поисковой машиной языка, на котором написана страница (наилучший пример - AltaVista)
META HTTP-EQUIV="Refresh" CONTENT="x; URL=http://foo.bar/blatz.html"
Используется для того, чтобы в случае смены адреса страницы браузер пользователя автоматически переключался на новый адрес.
META name="author" content="codeguru"
Используется для указания имени автора. В большинстве случаев, поисковые системы позволяют найти нужный сайт и по имени автора (или найти самого автора :-).
META name="copyright" content="© 2006 kolyar"
Полезно также указать и авторские права название фирмы почти наверняка будет проиндексировано поисковой машиной.
META http-equiv="PICS-Label" content=' (PICS-1.1 "http://www.gcf.org/v2.5" labels on "1994.11.05T08:15-0500" until "1995.12.31T23:59-0000" for "http://w3.org/PICS/Overview.html" ratings (suds 0.5 density 0 color/hue 1)) '
Еще одна интересная штучка отсечение нежелательных пользователей от указанной страницы (например, детей от секс-серверов), при помощи введения рейтинга - т.н. "красной лампочки". Некоторые браузеры позволяют "повесить замок" на содержимое определенных сайтов, запрещая их просмотр. Имеется несколько признанных рейтинговых систем, распознаваемых браузерами. Сам браузер, естественно, можно подстроить под использование рейтинга, а профиль пользователя браузера защитить паролем. Как правило, текст в этот тэг вставляется в строгом соответствии с текстом, имеющемся на рейтинговом сервере.
META name="keywords" content="corporate,guidelines,cataloging"
Список терминов и ключевых слов это именно то, что является самым главным при индексировании Вашего сайта поисковой машиной!
META name="description" content="Corporate Web Page"
Краткое описание Вашего сайта, используемое поисковым сервером для индексирования, и, как правило, вставляемое в текст страницы найденных совпадений в качестве описания Вашего сайта.
Все тэги META не видны при просмотре документа, и заметно увеличивают его размер, но, с другой стороны, без них не обойтись. (Представьте себе такую интересную задачу составить каталог книг в библиотеке, при условии того, что во всех книгах отсутствуют страницы с содержанием и аннотацией. Представляете? Так вот, тэги META и есть те самые страницы, на которых напечатано содержание).
Поэтому плавно перейдем ко второму (основному) разделу, а как же правильно записать эти тэги, чтобы Ваш сайт было легко отыскать при помощи поисковых систем. Надеюсь, что к этому времени Вы уже освоите синтаксис этих тэгов :-).
Длина содержимого тэгов META "desctiptions", не должна превышать 200 символов, а "keywords" 1000 символов. Это связано с тем, что поисковые серверы, как правило, используют именно такие величины при индексировании информации о Вашем сайте. Ограничения на длину этих тэгов нет. Однако, раздувать их до бесконечности смысла не имеет - все равно поисковые машины не воспримут всей информации! Можно получить и отрицательный результат некоторые поисковые машины отбросят часть описания, превышающего установленные нормы, в результате чего в каталог попадет не вся желаемая информация, или сервер просто отвергнет регистрацию Вашего сайта, или будет проиндексировано только название.
Нужно включить все наиболее часто используемые термины в описание (description) для увеличения посещаемости сайта
Вы, конечно же, можете включить в описание и термины, не имеющие отношения к Вашему сайту, однако в Сети такое поведение считается некорректным (появился даже термин спэмдексинг!). В список ключевых слов можно вставлять и фразы. В этом случае у Вашего сайта появляется шанс попасть в самое начало списка, выданного поисковым сервером, в случае совпадения фразы с той, что вводит пользователь. Задумайтесь над фразой - может быть, она прибавит посещений Вашему сайту!
Для увеличения рейтинга сайта и попадания его в верхнюю часть списка необходимо повторять от 3 до 7 раз (!) каждый термин, включаемый в описание.
Однако же, перебарщивать не стоит некоторые поисковые машины могут просто не проиндексировать Ваш сайт или отбросить при индексировании слишком часто повторяющийся термин (хрен редьки не слаще!) Повторение ключевых слов в фразах (попытка обмана поисковой машины :-), вероятнее всего приведет к отрицательному результату, описанному выше. Частота появления терминов в списке META никоим образом не согласуется с появлением терминов в тексте страницы. Поисковые машины работают, как правило, с тэгами META, а в случае их отсутствия уже с содержимым страницы.
Используйте синонимы - как можно большее их количество в описаниях и списке терминов.
Это не спэмдексинг, а трезвое осознание правильности выбранного пути :-).
Не используйте в описаниях и в списке терминов отвлеченные понятия и слова, не относящиеся к содержимому сайта, или слабо связанные друг с другом.
Поисковые машины пишут умники, хорошо разбирающиеся в искусственном интеллекте, и, скорее всего, Ваш сайт, украшенный гирляндой взаимонезависимых слов, будет успешно вычеркнут из индексного списка поискового сервера, причем, возможно, даже без участия его владельца.
Итак вперед, за орденами! Увеличивайте количество посещений сайта при помощи грамотно составленных тэгов META.
|
|
 |
Дата: 18.07.2025
Модуль:
Категория: Хостинг
В мире информационных технологий такое понятие, как доступность сайта - это одна из самых важных составляющих. В Сети уже есть достаточное количество сервисов, с помощью которых можно проследить “доступность” (uptime - время работы). В данной статье рассмотрим три таких сервиса, один из которых работает на русском языке.
Бинoкль (http://www.binokl.info/) - изначально сервис разработан для хостинг-компаний, веб-мастеров и интернет-провайдеров. В зависимости от выбранного тарифного пакета проверка доступности (uptime'а) вашего сервера происходит через 15, 20 или 30 минут.
Если вам лень каждый раз заходить в раздел статистики и смотреть показатели работы хостинга, то можно настроить автоматическое уведомление на e-mail, когда ваш сервер будет недоступен. Предусмотрена и отправка отчетов за определенны интервал времени - раз в неделю, месяц.
Есть возможность установить у себя на сайте графическую кнопку, которая будет информировать о том, что ваш сайт находится под наблюдением сервиса "Бинокль". Единственный недостаток такой кнопки - это ее информативность лишь в популяризации сервиса, потому как числовых данных она не выдает.
mon.itor.us (http://mon.itor.us/) - uptime сервис от американской компании. Очень информативен и предлагает возможность контроля множества параметров. Информация может выводиться в виде графика, таблицы или диаграммы - это кому как удобнее и понятнее воспринимать. Также можно организовать получение уведомлений через e-mail. Среди недостатков - это удаленность сервера от просторов рунета, что, естественно, замедляет проверку хостинга на доступность.
Montastic (http://montastic.com/) - простой (можно сказать, что даже очень простой), но, тем не менее, удобный сервис для определения uptima'а. Здесь статистика отсутствует как таковая, и вообще есть только два состояния - работает и не работает. Но изюминка в способах того, как вы узнаете статус сайта - это и рассылка по электронной почте, подписка на RSS и даже Yahoo Widget.
Интерфейс, как и функциональность весьма прост, просто вводите адрес сайта, e-mail и все! В принципе если вы не заморачиваетесь подсчетом денег, которые вы потеряли пока ваш сайт не работает или у вас нет желания высылать подробные жалобные письма в адрес своего хостера, то этот сервис то, что вам надо.
Сделаем выводы:
mon.itor.us - следует использовать только в том случае, если ваш сайт (а желательно и вы тоже) живет близко к этому сервису, то он просто идеально подходит для вас, только следите чтобы ваш сайт работал всегда.
Montastic - этот сервис для тех, кому нужен ответ - работает/не работает сайт
Бинoкль - подробный, надежный и главное что на русском языке.
|
|
 |
Дата: 18.07.2025
Модуль:
Категория: Хостинг
Если вам необходимо найти компанию, которая предлагают хостинг, то ее можно очень просто найти в интернете через любимую вами поисковую машину. При выборе конкретной компании вам следует обратить внимание на следующие очень важные моменты:
1) Техническая поддержка должна быть круглосуточной (24/7/365), включая праздники и выходные и должна предоставляться по телефону, сервису мгновенных интернет сообщений через пейджеры (icq, qip, miranda) и электронной почте. Время ответа не должно превышать 1 часа.
2) Хорошие показатели доступности сервера в сети (uptime, аптайм). Если вы занимаетесь продажей чего-либо на вашем сайте, то во время простоя сайта у вас не будет покупателей и еще сложиться негативное мнение как о ненадежном магазине. Выбирайте uptime не менее 99%. Причем важно узнать его величину от независимых служб мониторинга и за несколько отчетных периодов. Ведь что толку, если в мае сайт имел аптайм 99,9%, а в марте и апреле - всего 80%.
3) Быстрый интернет канал, к которому подключен ваш хостер. Здесь важно выбирать географическое расположение хостера в зависимости от аудитории вашего сайта. К примеру, сайт на английском языке лучше размещать в США, поскольку основная часть англоязычной аудитории будет идти оттуда, да и пропускная способность каналов и стоимость трафика в США значительно лучше, чем, к примеру, у отечественных хостеров.
4) Если ваш сайт относится в сфере e-commerce (интернет или электронная коммерция), то необходимо позаботиться о возможности доступа по SSL для совершения безопасных транзакций. Естественно, хостинг должен поддерживать выполнение скриптов на определенном языке программирования (php, perl, cgi, asp или java).
5) Многие хорошие хостеры вернут вам деньги, если вам не понравятся их услуги. Это довольно распространенная на западе практика (называется там money-back guarantee), которая повышает доверие к компании как поставщику услуг. Это будет гарантией тому, что в случае некачественных услуг хостинга вы не останетесь без посетителей и своих денег.
6) Дисковое пространство для вашего сайта должно быть с запасом. Так, если для сайта-визитки фирмы хватит и 10 Мб диска, то для новостного сайта или крупного интернет магазина может быть мало и 1 Гб.
7) Трафик. Для большинства сайтов количество трафика столь невелико, что даже если они используют вместе не 100, а 110 Мб трафика в месяц, то это не разорит хостера. Вот для этого и предлагают тарифные планы с безлимитным трафиком. А вот если у вас посещаемый сайт с графикой, файлами, то величина трафика может измеряться десятками и сотнями гигабайт.
В таких случаях за него придется платить и лучше сразу брать хостинг с оплатой трафика, тогда вы будете приблизительно знать, во что он вам обойдется. А то перерасходуете лимит, возьмут и отключат сайт или придет счет на круглую сумму. Да, через некоторое время сайт вновь заработает, но его простой уж точно не пойдет на пользу.
8) Безопасность. Если у вас должен быть защищенный (зашифрованный) канал, то вам придется оплатить дополнительные расходы на получение сертификата сервера. Если вы собираетесь обрабатывать персональные данные или кредитной карты на вашем веб-сайте, вам потребуется наличие сертификата безопасности.
Цифровые сертификаты используется для защиты любого сообщения с клиентами, которое содержит личную информацию. Также вы должны иметь установленный цифровой сертификат на вашем веб-сервере, чтобы вы могли воспользоваться кредитной картой заказов в безопасном режиме.
9) Доступ по FTP (file transfer protocol, протокол передачи файлов). Без него сейчас не обойтись и он предоставляется всеми хостерами. Если вы планируете создать несколько FTP-аккаунтов (например, для совместной разработки сайта), то узнайте, сколько их входит в ваш тарифный план.
10) Программное обеспечение. Узнайте, какое программное обеспечение или встроенные скрипты предлагает ваш хостер. Не все хостинговые компании предлагаем одинаковый набор программного обеспечения. У некоторых есть несколько бесплатных инструментов, которые помогут вам работать с сайтом легко и эффективно.
Есть множество скриптов, которые помогут вам организовать поиск на сайте, завести и управлять электронной почтой, создать форум, доску объявлений или чат, сделать резервное копирование и восстановление всего сайта или только одной базы данных.
Вообще поиску компании для веб-хостинга следует уделить достаточно времени. Помните, что вы значительная часть успеха вашего веб-сайта будет связана с этой компанией. А одним из главных расходов, которые вам нужно будет оплачивать при серьезных проектах, будет оплата услуг хостинга. Поэтому лучше сразу выбирать компанию с надежной репутацией.
|
|
 |
Дата: 18.07.2025
Модуль:
Категория: Хостинг
IP Deny Manager (IP бан) позволяет заблокировать доступ к вашему веб-сайту для определенных адресов IP. Это может пригодиться, чтобы избавиться от досаждающих любителей использовать большое количество трафика или чтобы предупредить hotlinking к вашему сайту (больше информации о hotlinking смотрите в разделе HotLink Prevention (Хотлинк защита)).
Чтобы добавить адрес IP к IP Deny Manager (IP бан):
1. Нажимаете на кнопку IP Deny Manager (IP бан), расположенную на главной странице.
2. В поле IP Address (Добавить адрес для блокирования) введите тот адрес IP, который Вы хотите заблокировать.
3. Кликните на кнопку Add (Добавить).
Удалите заблокированный адрес IP, когда Вам больше не нужно, чтобы доступ с этого адреса был заблокирован.
Чтобы удалить адрес IP из Менеджера отказов IP:
1. Нажимаете на кнопку IP Deny Manager (IP бан), расположенную на главной странице.
2. Кликните на необходимый адрес IP, выбрав его из выпадающего списка Remove an IP Deny (Удалить блок IP-адреса).
3. Кликните на кнопку Remove (Удалить).
|
|
 |
Технология стека TCP/IP сложилась в основном в конце 1970-х годов и с тех пор основные принципы работы базовых протоколов, таких как IP, TCP, UDP и ICMP, практически не изменились. Однако, сам компьютерный мир за эти годы значительно изменился, поэтому долго назревавшие усовершенствования в технологии стека TCP/IP сейчас стали необходимостью.
Основными обстоятельствами, из-за которых требуется модификация базовых протоколов стека TCP/IP, являются следующие.
* Повышение производительности компьютеров и коммуникационного оборудования. За время существования стека производительность компьютеров возросла на два порядка, объемы оперативной памяти выросли более чем в 30 раз, пропускная способность магистрали Internet в Соединенных Штатах выросла в 800 раз.
* Появление новых приложений. Коммерческий бум вокруг Internet и использование ее технологий при создании intranet привели к появлению в сетях TCP/IP, ранее использовавшихся в основном в научных целях, большого количества приложений нового типа, работающих с мультимедийной информацией. Эти приложения чувствительны к задержкам передачи пакетов, так как такие задержки приводят к искажению передаваемых в реальном времени речевых сообщений и видеоизображений. Особенностью мультимедийных приложений является также передача очень больших объемов информации. Некоторые технологии вычислительных сетей, например, frame relay и ATM, уже имеют в своем арсенале механизмы для резервирования полосы пропускания для определенных приложений. Однако эти технологии еще не скоро вытеснят традиционные технологии локальных сетей, не поддерживающие мультимедийные приложения (например, Ethernet). Следовательно, необходимо компенсировать такой недостаток средствами сетевого уровня, то есть средствами протокола IP.
* Бурное расширение сети Internet. В начале 90-х годов сеть Internet расширялась очень быстро, новый узел появлялся в ней каждые 30 секунд, но 95-й год стал переломным - перспективы коммерческого использования Internet стали отчетливыми и сделали ее развитие просто бурным. Первым следствием такого развития стало почти полное истощение адресного пространства Internet, определяемого полем адреса IP в четыре байта.
* Новые стратегии администрирования. Расширение Internet связано с его проникновением в новые страны и новые отрасли промышленности. При этом в сети появляются новые органы администрирования, которые начинают использовать новые методы администрирования. Эти методы требуют появления новых средств в базовых протоколах стека TCP/IP.
Сообщество Internet уже несколько лет работает над разработкой новой спецификации для базового протокола стека - протокола IP. Выработано уже достаточно много предложений, от простых, предусматривающих только расширения адресного пространства IP, до очень сложных, приводящих к существенному увеличению стоимости реализации IP в высокопроизводительных (и так недешевых) маршрутизаторах.
Основным предложением по модернизации протокола IP является предложение, разработанное группой IETF. Сейчас принято называть ее предложение версией 6 - IPv6, а все остальные предложения группируются под названием IP Next Generation, IPng.
В предложении IETF протокол IPv6 оставляет основные принципы IPv4 неизменными. К ним относятся дейтаграммный метод работы, фрагментация пакетов, разрешение отправителю задавать максимальное число хопов для своих пакетов. Однако, в деталях реализации протокола IPv6 имеются существенные отличия от IPv4. Эти отличия коротко можно описать следующим образом.
* Использование более длинных адресов. Новый размер адреса - наиболее заметное отличие IPv6 от IPv4. Версия 6 использует 128-битные адреса.
* Гибкий формат заголовка. Вместо заголовка с фиксированными полями фиксированного размера (за исключением поля Резерв), IPv6 использует базовый заголовок фиксированного формата плюс набор необязательных заголовков различного формата.
* Поддержка резервирования пропускной способности. В IPv6 механизм резервирования пропускной способности заменяет механизм классов сервиса версии IPv4.
* Поддержка расширяемости протокола. Это одно из наиболее значительных изменений в подходе к построению протокола - от полностью детализированного описания протокола к протоколу, который разрешает поддержку дополнительных функций.
Адресация в IPv6
Адреса назначения и источника в IPv6 имеют длину 128 бит или 16 байт. Версия 6 обобщает специальные типы адресов версии 4 в следующих типах адресов:
* Unicast - индивидуальный адрес. Определяет отдельный узел - компьютер или порт маршрутизатора. Пакет должен быть доставлен узлу по кратчайшему маршруту.
* Cluster - адрес кластера. Обозначает группу узлов, которые имеют общий адресный префикс (например, присоединенных к одной физической сети). Пакет должен быть маршрутизирован группе узлов по кратчайшему пути, а затем доставлен только одному из членов группы (например, ближайшему узлу).
* Multicast - адрес набора узлов, возможно в различных физических сетях. Копии пакета должны быть доставлены каждому узлу набора, используя аппаратные возможности групповой или широковещательной доставки, если это возможно.
Как и в версии IPv4, адреса в версии IPv6 делятся на классы, в зависимости от значения нескольких старших бит адреса.
Большая часть классов зарезервирована для будущего применения. Наиболее интересным для практического использования является класс, предназначенный для провайдеров услуг Internet, названный Provider-Assigned Unicast.
Адрес этого класса имеет следующую структуру:
010
Идентификатор провайдера
Идентификатор абонента
Идентификатор подсети
Идентификатор узла
Каждому провайдеру услуг Internet назначается уникальный идентификатор, которым помечаются все поддерживаемые им сети. Далее провайдер назначает своим абонентам уникальные идентификаторы, и использует оба идентификатора при назначении блока адресов абонента. Абонент сам назначает уникальные идентификаторы своим подсетям и узлам этих сетей.
Абонент может использовать технику подсетей, применяемую в версии IPv4, для дальнейшего деления поля идентификатора подсети на более мелкие поля.
Описанная схема приближает схему адресации IPv6 к схемам, используемым в территориальных сетях, таких как телефонные сети или сети Х.25. Иерархия адресных полей позволит магистральным маршрутизаторам работать только со старшими частями адреса, оставляя обработку менее значимых полей маршрутизаторам абонентов.
Под поле идентификатора узла требуется выделения не менее 6 байт, для того чтобы можно было использовать в IP-адресах МАС-адреса локальных сетей непосредственно.
Для обеспечения совместимости со схемой адресации версии IPv4, в версии IPv6 имеется класс адресов, имеющих 0000 0000 в старших битах адреса. Младшие 4 байта адреса этого класса должны содержать адрес IPv4. Маршрутизаторы, поддерживающие обе версии адресов, должны обеспечивать трансляцию при передаче пакета из сети, поддерживающей адресацию IPv4, в сеть, поддерживающую адресацию IPv6, и наоборот.
|
|
Внимание! Если у вас не получилось найти нужную информацию, используйте рубрикатор или воспользуйтесь поиском
.
книги по программированию исходники компоненты шаблоны сайтов C++ PHP Delphi скачать
|
|