 Добро пожаловать,
|
|
|
|
|
|
Поиск
 |
Прикладное программирование для Web начиналось с обработки запросов пользователя и динамической генерации страниц на стороне сервера. Эта же тенденция получила развитие и в языках программирования вставок в HTML-документы. Затем появились языки программирования элементов HTML-документов на стороне клиента. И те, и другие привязаны к модели данных HTML. Сегодня, когда Web мигрирует к стеку спецификаций XML, разработчики средств программирования должны это учесть и правильно отреагировать, позволив, например, манипулировать элементами XML-разметки. Стандарт, призванный обозначить и решить эту задачу, получил название Document Object Model - DOM.
|
|
 |
Выбор ключевых слов является одним из важнейших этапов оптимизации сайта под поисковые системы. Так как поисковики являются основным источником целевых посетителей, то этому вопросу надо уделять особое внимание. Правильно подобранные ключевые слова помогут пользователям легко находить страницы сайта, а также повысят их позицию в результатах выдачи по запросу.
Итак, для начала необходимо проанализировать тематику сайта и постараться взглянуть на него глазами посетителя. Цель такого упражнения-разминки – подбор слов и выражений, по которым, на ваш взгляд, производится поиск подобных сайтов.
Теперь можно приступить к детализации задачи, а именно, подбору ключевых слов для каждой страницы сайта отдельно. Большинство начинающих разработчиков при оптимизации допускают одну критическую ошибку, а именно, оптимизируют все страницы под одни и те же запросы. Они не учитывают тот факт, что машины поиска каждую страницу рассматривают независимо от остальных, поэтому необходимо оптимизировать страницы по отдельности, тщательно подбирая для них ключевые слова.
При анализе страницы необходимо написать около двух десятков ключевых слов, из которых попробовать сформировать фразы с учетом возможностей морфологического поиска и расположить слова и выражения в порядке их соответствия тематике страницы.
Например, ваша компания занимается продажей бытовой техники. Вместо использования в тегах HTML-кода и содержимом страниц ключевой фразы “продажа бытовой техники”, нужно уточнить эту фразу в зависимости от содержимого каждой страницы. Если на данной странице внимание сфокусировано, например, на кухонных комбайнах, то теги и текст необходимо оптимизировать именно под это выражение.
Сейчас идет тенденция к оптимизации страниц больше под ключевые выражения, чем под отдельные слова. Это связано с повышением уровня интернет-пользователей, которые для уточнения поисковых запросов из ключевых слов с помощью служебных символов строят ключевые фразы, значительно повышающие релевантность результатов поиска.
Следующий этап - это анализ частоты запросов по пунктам списка, составленного на этапе обдумывания тематики сайта. Здесь уже придется излагать не свое видение сайта, а вооружиться поисковой системой. Желательно брать тот поисковик, в трафике которого вы больше всего заинтересованы.
Составленный список предполагаемых ключевых слов можно проверить, например, с помощью сервиса «Яндекс.Директ» и выделить в нем фразы, сходные с заданными изначально. Далее необходимо посмотреть количество запросов для каждого выражения, выбранного на первом этапе, и попробовать найти фразы-синонимы. Если для них количество запросов будет больше, есть смысл заменить первоначальный вариант.
Чтобы выявить близкие по значению выражения, можно использовать сервис «Рамблер-Ассоциации», который представляет статистику поисковых запросов и работает по принципу «Те, кто ищут [запрос пользователя], ищут также». Сервис предназначен в помощь пользователю, совершившему поиск по какому-либо запросу и не получившему нужной информации. Статистика “ассоциаций” помогает выяснить интересы пользователей, путем анализа списка запросов, схожих с основным. Для выявления англоязычных запросов можно использовать сервис Wordtracker, который в бесплатной версии выдает ограниченные отчеты по поисковым запросам.
Теперь необходимо проанализировать полученную статистику запросов по списку ключевых слов. Если по некоторым из них результаты зашкаливают за десятки тысяч, их однозначно можно убрать из дальнейшего рассмотрения т.к. эти слова используются многими конкурентами. Здесь надо учесть тот факт, что если для оптимизации будет выбрана слишком распространенная ключевая фраза, то потребуется много времени и сил, чтобы взобраться на вершину ранжированного списка результатов. Кроме того, привлеченный таким образом сетевой трафик будет плохо сфокусирован, т.е. процент целевых покупателей будет невелик. С другой стороны, если для ключевой фразы будет получено малое число результатов, то эффективность такой оптимизации также буде невысока.
Чтобы добиться компромисса в этом сложном вопросе, надо брать ключевую фразу, которая является оптимальной для тематики страницы и высоко конкурентной, и добавлять в нее описательные слова или, например, конкретные модели и торговые марки, т.е. конкретизировать представленную на странице информацию.
Часто многие сайты для привлечения большего числа посетителей используют для ключевых слов практически на всех страницах выражения типа “все модели”, “весь модельный ряд”, “огромный выбор” и т.д. Если на вашем сайте в самом деле представлены все модели некоторой торговой марки или же подавляющее большинство их, то лучшим вариантом будет оптимизация под такой запрос какой-то одной страницы, например с самой популярной моделью. При этом на этой странице обязательно должны быть ссылки на другие модели или на страницу с кратким представлением всех моделей в удобном для сравнения виде. Если в ключевой фразе перечисляются конкретные модели, то необходимо располагать их в порядке убывания популярности.
Очень часто при вводе поискового запроса пользователи не пишут прописные буквы в названиях компаний, торговых марок, городов и т.п. Т.к. некоторые системы поиска чувствительны к регистру символов, т.е. поиск по вариантам фразы с символами, преобразованными в нижний регистр, и с символами в верхнем регистре приводит к разным результатам. Поэтому, чтобы улучшить результаты поиска своего сайта, надо добавлять на страницы все варианты написания ключевой фразы. Если во фразе используются слова, которые по правилам языка пишутся с прописной буквы, то можно использовать ее версию со строчными буквами там, где она не будет видна для посетителей.
В зависимости от того, под какую систему поиска оптимизируется сайт, необходимо узнать поддерживается ли ей морфологический поиск, т.е. поиск по слову во всех его морфологических формах. Это значит, что поиск по фразе «оптовая покупка скидка» может быть интерпретирован, как “при оптовой покупке скидки” и т.д. Чтобы определить, выполняет ли данный поисковик морфологическую функцию, можно проработать поиск по различным версиям ключевой фразы и проанализировать результаты.
Необходимо не только постоянно проводить мониторинг частоты использования вашей ключевой фразы пользователями, но и отслеживать, как много других страниц также оптимизированы под нее. Т.е. надо постоянно следить за конкурирующими ресурсами, которые стоят первыми в рейтинге при запросе по данной тематике.
Таким образом, выбор наиболее эффективных ключевых фраз может буквально поставить на ноги ваш онлайновый бизнес, а неудачный, наоборот, разрушить его. Главное не забывать, что каждая страница оптимизируется под одну-две ключевые фразы, которые четко соответствуют ее тематике.
|
|
 |
В данной статье я рассмотрю вопросы о недавних тенденциях в области SEO, которые вносят свои коррективы и новые правила игры.
Ни для кого ни секрет, что рынок услуг в области поисковой оптимизации сегодня и несколько лет назад - это совсем разные вещи. В основном это обусловлено значительно возросшей конкуренцией между владельцами интернет-ресурсов. Да и само количество веб-страниц, ежедневно индексируемых поисковыми машинами, возрастает постоянно чуть ли не в геометрической прогрессии.
В Золотом Веке SEO, большинство веб-мастеров даже и не думали о каких-то поисковых машинах. А если такое все же случалось, то им (веб-мастерам) было достаточно разместить лишь несколько ключевых слов в Meta-тегах. Это были времена, когда каждый, кто хоть немного разбирался в оптимизации сайтов, мог запросто повысить рейтинг своего сайта во всех главных поисковых машинах. Для этого не нужно было и особо стараться.
В наши дни все совсем по-другому. Даже используя ключевые слова, у которых высокий KEI (keyword effectiveness index, индекс эффективности ключевого слова - отношение количества запросов ключевого слова к числу конкурирующих страниц), порой бывает очень трудно достичь высоких рейтингов в SERP (search engine results page, страничка результатов поискового запроса). Но дело не только в этом. Рейтинг - вещь довольно изменчивая (можно сравнить его с морем) и сайт, который несколько дней был на первой странице, потом запросто может спуститься ниже. Эта проблема особенно актуальна для вновь открывающихся веб-сайтов, порталов, интернет-магазинов.
Могу смело сказать, что если вашему интернет-ресурсу менее года, то результаты его раскрутки будут значительно отличаться от ожидаемых. К сожалению, не в лучшую сторону. Поэтому не верьте тем, кто предлагает "очень быструю", "с мгновенным эффектом", "очень дешевую" раскрутку - чаще всего за этим скрывается обычное мошенничество или от этого будет кратковременный эффект.
В вот последствиями такой раскрутки может стать "вылетание" из индексирования поисковой машиной. А это уже от 50 до 70 % аудитории посетителей. Так что сначала подумайте, а только потом действуйте. "Скупой платит дважды" - эту поговорку еще никто не отменял. Вообще, сам процесс раскрутки - довольно долгий и требующий множества усилий.
Еще одним важным моментом, о котором хочется поскорее упомянуть, будет следующее. Мне кажется, что всем веб-мастерам, владельцам сайтов и людям, которые занимаются SEO (сложно их по-другому назвать) нужно на данном этапе развития интернета переключить приоритеты от повышения рейтинга по ключевым словам к фокусировке на привлечение целевой аудитории (трафика), переводя ее в покупателей. На данном этапе лишь малая часть сервисов по продвижению сайтов действует именно по такой схеме.
Приведу небольшой, но характерный пример. Допустим, у вас есть свой интернет-ресурс, который для вас является не просто развлечением (хобби), а это ваш бизнес. Вы в него вкладываете некоторые материальные ресурсы (деньги - на хостинг, раскрутку, дизайн, программирование к примеру). Естественно, в недалеком будущем вы намерены получать с этого сайта прибыль. А вот каким образом этого достичь?
Рассмотрим возможные варианты ответов:
1) Нужно так раскрутить ресурс, чтобы по моим ключевым словам он занимал первые места в Google'е, Yandex'е и Rambler'е.
2) Привлечь тех посетителей (да и побольше) на мой интернет-ресурс, которые в интернете ищут товары / услуги, которые я продаю / предлагаю.
Какой же из них верный? Да оба верны, но каждый по-своему. Дело в том, если придерживаться идеологии из ответа №2, то пользы для вашего бизнеса будет гораздо больше.
Могу себе представить, сколько у вас ко мне накопилось вопросов. Но, стоп! Я прекрасно понимаю людей, которым очень хочется поднять рейтинг сайта с 99-ой до 1-ой позиции в рейтинге по нужному для них ключевому слову. Естественно, это приведет к дополнительному росту трафика посетителей к ним на сайт и увеличению объемов продаж. Жаль только, что есть люди, которые верят, что какая-то фирма по раскрутке сайтов может просто взмахнуть волшебной палочкой и рейтинг вашего сайта возрастет до небывалых высот.
Но дело в том, что даже лучшие профи поисковой оптимизации не волшебники. Они попросту не могут поместить ваш сайт наверх, когда существует сотни (если не тысячи) других сайтов, которые предлагают те же самые услуги, занимаются продажей тех же товаров. Если бы это было так, то среди оптимизаторов был бы не один миллионер :)
SEO утратило всякий смысл?
Ни в коем случае! Но та поисковая оптимизация, которая основана только на достижении высоких позиций с использованием популярных ключевых слов, постепенно становится все менее и менее эффективной. И выходом здесь будет вовсе не использование непопулярных ключевых слов. Необходимо просто расширить свой горизонт раскрутки другими, не менее эффективными методиками.
Если просто взять и пройтись по десятку-другому сайтов, можно заметить одну и ту же типичную тенденцию - использования стандартного набора ключевых слов / фраз в текстах сайтов. Владельцы сайтов так сильно привязаны к идее "побольше заработать", что уже и не думают о посетителях. Зачастую одни и те же фразы встречаются на всех страницах веб-ресурса. А ведь интернет постоянно меняется: появляются новые популярные слова, фразы, развиваются технологии. Ежедневно тысячи пользователей Всемирной Паутины производят все новые и новые запросы к поисковикам. Но множество веб-мастеров не используют эту возможность, а зря.
Теперь хочется остановиться на таком важном понятии для поисковой машины, как "хороший контент".
Что именно он из себя представляет? Только лишь обогащенный ключевыми словами текст? Я думаю, дело не в этом. На данный момент в интернете появилось множество компаний, предлагающих услуги по написанию "хорошего контента". Но чаще всего это попросту сводиться к вышеупомянутому способу с ключевыми словами. Хотя есть и исключения, но работа профессионалов такого уровня обходиться очень недешево.
А может взять да и самим попробовать написать "хороший контент" для своего сайта? Кто, как не вы лучше разбираетесь в его специфике? Можно и нужно попробовать. Главное - чтобы контент был уникальным и ни у кого его больше не было. Ключ к хорошему контенту - ваше творчество. А вот уже использовать ваш творческий потенциал - это уже не "вслепую" копировать статьи у конкурентов.
Важно, чтобы у вас было свое собственное мнение, своя аналитика происходящего. Просто представьте, что сайта с данной тематикой больше ни у кого нет. Вы будете выступать как бы в роли "первопроходца" в данной области интернета. Все эти методы уже давно проверены на практике и очень эффективны. Как для посетителя, так и для поисковой машины.
|
|
 |
За годы существования интернета такие понятия "вес" или "популярность" ссылки, технология Google PageRank, прочно укрепились среди пользователей интернета. В особенности среди вебмастеров и владельцев сайтов. Но часто возникает путаница между этими двумя терминами, а ведь для поисковой машины это не одно и тоже. Попытаюсь внести ясность в данный вопрос.
Что такое "вес" ссылки?
Теоретически это выглядит так: поисковый робот решает, что если другие сайты ссылаются на ваш сайт, то значит его (ваш сайт) нужно повысить в рейтинге. Т.е. при прочих равных условиях рейтинг будет выше у того сайта, на который ссылается большее число сайтов (желательно еще и с собственным "большим весом"). Ведь, исходя из элементарной логики, вебмастера ставят ссылки на дружественные сайты, которые заслуживают на внимание посетителей.
PageRank и "вес" ссылки - не одно и тоже
Да, эти два термина кое в чем между собой отличаются. PR - это скорее одна из составляющих "веса" ссылки. Поскольку PR больше сфокусирована на количестве ссылок (как прямых, так и обратных на сайт), то под термином "вес ссылки" скрывается качественная составляющая этих ссылок. Тем не менее, множество пользователей интернета неправильно понимают эти два термина, а зачастую и просто воспринимают их как синонимы.
На сегодняшний день все главные поисковые машины уделяют популярности ссылок большое внимание. В первую очередь это затрагивает алгоритмы, по которым составляются рейтинги проиндексированных сайтов. А что же полезного можно извлечь из этого для раскрутки собственного сайта? Оказывается, что существует 2 основных типа ссылок, которые наиболее важны в поисковой оптимизации:
1. Ссылки с других сайтов, которые содержат тот же набор ключевых слов, что и ваш ресурс
2. Ссылки с релевантных (с похожей тематикой) рубрик в популярных каталогах
А вот ссылки с каталогов типа "Free-for-all" (FFA) не дают весомых ссылок, поэтому нет необходимости тратить деньги и время на размещение в них. Уж лучше разместить сайт в десятке наиболее известных каталогов (таких, как например Яндекс. Каталог), чем в сотне малоизвестных. А еще, как показывает практика, размещение сайта в каталоге вместе с сайтами неродственных категорий (как и в непопулярных каталогах) дает только временный рост PR.
Алгоритмы поисковых машин постоянно меняются, как и эффективность методик раскрутки. Хочу заметить, что в последнее время наметилась общемировая тенденция в seo - повышать рейтинг только тех ресурсов, на которые ссылаются сайты с большим собственным рейтингом. Может это связано с ростом количества сайтов, а может проблема в чем-то другом. Возможно, что места под солнцем становиться все меньше, а желающих - все больше.
Как работает механизм "рейтинг ссылки"
Хочу привести вам пример того, каким образом работают ссылки на популяризацию сайта.
Предположим, что у дяди Васи есть пиццерия. Естественно, она у него имеет и свой сайт в интернете (люди заходят и заказывают пиццу). Далее представим, что на этом сайте дядя Вася решил разместить ссылочку на сайт свого соседа по дому дяди Вани. А вот он занимается продажей мужской одежды, у него сайт с низкой посещаемостью, вот и решил он помочь ему в раскрутке.
Итак, на сайте дяди Васи появилась ссылка на сайт продаже мужской одежды дяди Вани. Пусть она будет выглядеть как "лучший магазин мужской одежды". Если посмотреть на название ссылки, то все ок - ключевые слова тут как тут. Только вот эффект для дяди Вани от этого будет минимальным: ведь пицца и мужская одежда - это совсем не одно и то же.
Лучшим вариантом для дяди Вани было бы разместить ссылочку на сайте с похожей тематикой. Пусть лучше это был бы сайт тети Клавы о продаже женской одежды, сайт дяди Миши о продаже мужской обуви или любой другой, но уже тематически связанный с одеждой / обувью.
А вот просто идеальным было бы иметь для дяди Вани ссылочку в "Каталоге магазинов одежды Сан Саныча", в котором содержаться ссылки на наиболее популярные магазины одежды. Вот именно это и есть тот случай, когда поисковый робот непременно повысит рейтинг вашего сайта.
Нужно ли ставить обратные ссылки?
Вокруг этой тематики уже не один год ведутся споры, в которых было сломано немало копий. Но ситуация яснее не стала: достаточно как приверженцев, так и противников наличия обратных ссылок. А все началось с тех пор, когда вебмастера решили, что взаимный обмен ссылками - это самый простой способ привлечения посетителей (хотя это и не всегда верно). Сейчас же большинство вебмастеров обмениваются ссылками по принципу "ты-ставишь-ссылку-на-мой-сайт-я-ставлю-ссылку-на-твой". Но есть и противники такой методики, которые ее считают неэффективной для повышения рейтинга сайта.
Так кто же прав? Да неправы обе стороны одновременно. Я считаю, что нет необходимости ставить обратную ссылку, но если все же хочется, то можно и поставить. Необходимо помнить, что являются полезными лишь ссылки, которые указывают НА ваш сайт. А те ссылки, которые ведут ОТ вашего сайта, полезны лишь в том случае, если тот сайт является родственный по тематике. Ведь посетитель вашего сайт заинтересован, как правило, в посещении и других сайтов с похожей тематикой.
Необходимо ли заботиться о "популярности" ссылки?
Не только необходимо, а и жизненно важно для вашего сайта. Тем не менее, необходимо помнить, что (вопреки распространенному мнению) вес ссылки является только частью работы алгоритма поисковой машины. Но тут особенно выделяется Google, которая больше остальных поисковиков уделяет внимание качеству и количеству ссылающихся сайтов. А вот насколько реально это повышает рейтинг сайта и каким образом - это спорный вопрос, точного ответа на который не знает никто (кроме разработчиков поискового алгоритма).
Хочу также заметить, что не последнюю роль в рейтинге сайта играет и то, какие слова содержатся в ссылке на него. Как показывает практика, несколько ссылок с высокой релевантностью и удачным описанием - это едва ли не единственный быстрый и простой путь к повышению рейтинга сайта.
Но тут главное не переусердствовать. Не нужно сразу же бросаться рассылать сотни писем владельцам сайтов с предложением разместить на вас ссылочку. Думаю, что большинство вебмастеров не будут в восторге от излишней настойчивости, если вообще не примут ваши письма за спам. Необходимо понять, что каждая ссылка на "вес золота" - только благодаря ей можно получить посетителей больше, чем со всех поисковиков, вместе взятых.
Способ получить ссылки ничего не делая
Хочу с вами поделиться одним способом получения ссылок на свой сайт. Пусть он и более затратный по времени, но зато очень эффективный. Необходимо просто создать лучший (ну или один из лучших) сайтов в своей тематической нише. Для этого будет вполне достаточно, чтобы он был грамотно и красиво сделан, содержал множество статей (желательно еще и уникальных) и постоянно бы обновлялся (в идеале - каждый день). Пройдет некоторое время и сайты с похожей тематикой начнут сами ставить ссылки на ваш ресурс.
Пусть кто-то добавит ваш сайт в "рекомендованные сайты", кто-то в "друзья" или "каталог ссылок", но ведь главное, что ссылка будет. Могут также взять статью с вашего сайта, главное, чтобы ссылочку на источник поставили :)
Да, может быть этот метод в чем-то и утопичен. Но уж лучше сразу потратить месяц-другой на создание хорошего ресурса, чем потом просить поставить ссылку на ваш сайт. Хотя, не буду спорить, может этот метод и не самый лучший.
Поэтому советую вам не пожалеть времени и подумать над тем, как создать супер-сайт. Вот тогда вам уже не придется беспокоиться о каких-то "рейтингах" ссылки, обратных ссылках и непонятной аббревиатуре PR!
|
|
 |
Для многих вебмастеров SEO (search engine optimization, оптимизация для поисковой машины) - это не что иное, как просто набор трюков и методик, которые несомненно должны поднимать их сайт в рейтингах всех поисковиков. Такое отношение к SEO может и дает временные результаты, тем не менее, здесь содержится большой недостаток: правила постоянно меняются.
Алгоритмы поисковых машин постоянно меняются, как, например, антивирусное программное обеспечение. Ведь в мире постоянно появляются новые вирусы, поэтому они и должны постоянно совершенствовать и вносить коррективы в свои программы. Аналогично обстоит дело и с поисковиками: все в этом мире быстро меняется, а интернет-сфера еще быстрее.
Тем не менее, существует определенный набор правил, по которым поисковики ранжируют сайты, которых должен придерживаться каждый вебмастер в нелегком процессе поисковой оптимизации. Конечно, нет 100% гарантии, что все это работает сейчас или уже появились новые правила игры, но идея остается прежней. Меняются лишь детали, как говорится.
Но если мы не можем применить для оптимизации стандартный набор правил, то что же нам делать? Выход здесь в том, что не нужно всеми силами стараться разобраться в хитростях работы поисковой машины, а просто понять каким образом они работают. У этих самых хитростей есть своя логика работы, которую довольно просто вычислить, что и является их недостатком.
Так что же на самом деле необходимо?
Для достижения высоких позиций в рейтинге (да еще на долгое время) следует понимать, что поисковый робот - это в своем роде живое существо. Конечно, я при этом не имею ввиду, что у них есть мозги, пусть это останется для писателей-фантастов. Тем не менее их поведение и способы работы во многом похожи на работу этого самого мозга.
А теперь остановимся на рассмотрении некоторых функций их "мозга". В общем можно сказать, что им присуща такая специфика, как (если принять интернет за мир с множеством дорог) ходить различными путями, следуя указаниям установленных знаков и собирая всевозможную информация об этой дороге. Затем они направляют собранную информацию группе серверов, которые уже по своим специфическим алгоритмам определяют ее важность для внесения в свои базы.
По каким принципам работают эти алгоритмы? Для начала они создаются людьми, которые прекрасно разбираются в принципах работы интернета и информации, которая в нем содержится. А так как всемирная паутина постоянно изменяется, то эти самые люди и вносят необходимые коррективы в поисковые алгоритмы. По своей сути поисковую машину следует рассматривать, как существо, которое постоянно собирает информацию, сохраняет ее, а потом сортирует исходя из ее важности и с большим удовольствием отсеивает ненужную. Только вот как это она делает и исходя из каких принципов - толком не ясно.
Присмотримся поближе
Понимание того, что из себя представляет поисковая машина на самом деле, попытаемся выяснить в сравнении с анатомией человека. Пусть машина и не дышит, но она содержит много схожего, что необходимо ей для ее виртуальной жизни. А состоит она из следующего:
Легкие: Данный орган у поисковой машины, как и большинство жизненно важных органов, расположены внутри огромных data-центров (сервера, специально предназначенные для хранения информации). Как и организме человека, легкие мы не считаем очень важным органом, тем не менее понимаем, что без них не обойтись и нужно поддерживать их здоровыми.
Руки и ноги: Представим себе, что руки и ноги поисковой машины не что иное, как ссылки на ресурсы, которые она щедро выдает по запросу пользователя. С помощью этого органа мы можем найти все, что нам нужно и получить указатель в виде ссылки на необходимый ресурс. Также, как и тело человека изначально было создано для движения и исследования окружающего мира, аналогично и поисковые машины изначально запрограммированы исследовать всемирную паутину.
Глаза: Глазами поисковой машины являются так называемые пауки (еще их называют роботами или краулерами). Эти самые пауки постоянно просматривают интернет для поиска новых сайтов и следят за изменениями на уже проиндексированных. В данном случае пауки "ползают" по страничкам сайта по его внутренним ссылкам (как по путям), аналогично человеку, который на своем пути видит множество дорог для своего передвижения. К счастью для нас, поисковые роботы движутся по оптико-волоконным проводам, вот поэтому они могут путешествовать по интернету со скоростью света. Это-то и позволяет им посетить все интернет-странички, которые попадаются им на пути.
Мозг: Мозг поисковой машины выполняет те же функции, что и мозг человека: содержит целый набор функций для управления организмом своего хозяина. Также у мозга должен быть свой инстинкт, который должен знать о работе и постоянно контролировать все органы и системы. Вот поэтому поисковой машине никак не обойтись без этого самого мозга, который ей и помогает выжить в этом враждебном мире (пусть в чем-то и виртуальном).
Инстинкт: С помощью инстинкта поисковые машины имеют набор ключевых функций, таких как просматривание сайтов и фильтрация данных, которые нужно или не нужно индексировать. Они запрограммированы игнорировать некоторые типы файлов, не соответствующих определенным критериям. Как мне кажется, в инстинкте поисковой машины главное - это механизм или алгоритм, с помощью которого она индексирует сайты.
Знания: Поисковые машины прекрасно осведомлены о всех тонкостях индексации сайтов. Те знания, которыми они владеют, идут далеко впереди знаний всех пользователей, вебмастеров и оптимизаторов. Поисковая машина знает множество методов сортировки, представления данных, и, естественно, еще и имеет свой специфический набор хитростей и уловок.
Пока поисковый робот путешествует по интернету и индексирует веб-странички, параллельно он отсылает обратно в свой data-центр собранные им данные. Именно в этом центре данные обрабатываются согласно алгоритмов, а спам-фильтры отсеивают ненужное.
Подобно тому, как мы анализируем информацию из статьи в газете согласно своему видению мира, так и поисковики обрабатывает и ранжируют данные в строгом соответствии со своими законами и пониманием работы интернета.
Изучение: Так как поисковая машина ранжирует веб-странички согласно своему видению и пониманию законов функционирования интернета, а эти правила постоянно изменяются, то поисковые алгоритмы постоянно изменяются. Вот тут-то как раз и нужен механизм адаптации или самообучения поисковика.
В то же время, наряду в способностях просматривать странички, поисковые роботы должны уметь определять и наказывать попытки запрещенной раскрутки сайта. При этом благосклонно относится к честным вебмастерам и оптимизаторам.
Вот примеры тех областей, в которых поисковые машины так часто любят менять свои алгоритмы:
* Определения релевантности контента того сайта, на который она нашла ссылку;
* Способность обнаруживать информацию, которая содержится в новых типах данных, к примеру, базы данных, flash и т.п.
* Понимание нечестных методов раскрутки сайтов, таких как размещение "невидимого" текста, ссылок и т.п. Данные технологии рассматриваются поисковой машиной как спам, а пойманные на этом ресурсы попадают в так называемый "черный список";
* Изучение полученных данных, выявление недостатков в индексации, что приводит в действие механизм изменения алгоритма в сторону более эффективного определения релевантности сайта.
Способность к изучению и адаптации к окружающему интернет-пространству изначально закладывается при разработке алгоритмов работы поисковой машины. Ну и, само собой, остается актуальной до следующего обновления алгоритма.
От теории к практике
Все, о чем было сказано выше, касалось лишь аспектов работы поисковой машины. А вот как эти знания применить для раскрутки сайта? Все дело в том, что для правильного выбора стратегии раскрутки необходимо хорошо понимать, каким образом работает эта самая поисковая машина: собирает информацию, ранжирует сайты и т.д.
В свое время, когда одним из основных методов раскрутки было размещение большого количества ключевых слов на страницах сайта, многие вебмастера создавали целые сообщества из сайтов, дабы взаимным обменом ссылок достичь высоких позиций в рейтингах. А вот работает ли эта тактика сегодня? Работает, только результат скорее всего будет временным и краткосрочным.
Ведь поисковая машина, как и человек, хочет выжить в агрессивной окружающей среде. Поэтому, если результаты их работы будут плохими (а вот как раз нечестные методы раскрутки часто ведут к выдаче ненужной посетителю информации), то они медленно, но уверенно перестанут существовать. А ведь при постоянно растущей конкуренции эволюционировать крайне необходимо.
Для примера, пользователю значительно удобнее и проще найти сайт с множеством контента, который ему необходим. Как правило, на таких сайтах он часто обновляется, что позволяет сайту быть актуальным. Поэтому делайте выводы.
Немаловажным моментом остается и обмен ссылками. В данном вопросе намечается тенденция к снижению релевантности обратных ссылок, а обмен ссылками между сайтами разных тематик и вовсе малоэффективен. Но если же вы все же решите поставить обратные ссылки, то обязательно убедитесь, что они ведут на родственные по тематике сайты.
Данная стратегия хорошо работает как для привлечения посетителей, так и для повышения релевантности сайта. Ведь многие пользователи переходят из сайта на сайт по внутренним ссылкам. А если они еще и стоят на авторитетном и посещаемом ресурсе, то это только дополнительный плюс.
И напоследок...
Сам собою напрашивается вывод делать ставку на будущее. И отношение к поисковой машине как живому организму (пусть и в общих чертах) поможет выбрать правильную тактику. Вот когда она в очередной раз придет на ваш сайт, то "накормите" ее вкусным новым контентом, новыми разделами и она обязательно еще к вам вернется. А вот негостеприимных сайтов они не любят, как и быть обманутыми нечестными хозяевами. У роботов память отменная...
|
|
 |
Начну эту статью о SEO с простого. На тему о величине частоты употребления ключевых слов написаны, наверное, уже десятки статей и “полезных советов”, но все еще довольно часто встречаются сайты, тексты на которых явно написаны людьми, никогда таких советов не читавших. К сожалению, тенденция к неграмотному составлению набирает своих оборотов.
На различных форумах часто задают вопрос: “Какой является оптимальная частота употребления ключевого слова или фразы?”
Тут однозначино ответа нету. Ответы вариьруются и в сторону уменьшения и увеличени процента ключевых слов. Некоторые рекомендуют 2%, иные специалисты предлагают остановиться на 4-6%. Смелые гуру утверждают, что даже 10% не станут перебором.
Важно запомнить главную деталь: тексты должны быть написаны для читателя. Перенасыщение текста несколькими часто повторяющимися ключевыми фразами заставляет читателя чесать затылок, удивляясь столь кривому тексту. Я не думаю, что после этого ему еще раз захочется посетить ваш ресурс, занести в избранное или порекомендовать своим друзьям. Получить же значительные преференции от поисковых систем столь примитивным способом сегодня сложно.
Поэтому можно порекомендовать формулировать задачу к каждому отдельному тексту следующим образом - выделяется главный запрос и несколько опциональных. В тексте запрос употребляется только в случаях его органичного вхождения в контекст.
Привлекательность контента в деле сбора низкочастотников состоит в том, что для поисковой системы не обязательно наличие словосочетания в исходном виде поискового запроса. Может использоваться другой падеж, другой порядок слов, а в выдаче все будет выглядеть как положено. Думаю, общая идея вам понятна. Да и поисковики уже научились более-менее корректно работать со всей морфологией языка.
Не стоит перегружать текст видоизмененными ключевиками-мастодонтами. Тут уже происходит искуственное завышение частоты ключевых слов. Такие методы раскрутки уж очень не любят поисковики, зачастую помечая (для начала) сайт, а потом и вовсе переставая его индексировать.Употребление фразы “оптимизация и продвижение сайта в интернете” 5-7 раз в различных падежах в тексте объемом в полторы-две тысячи знаков не возбуждает. Ни читателя, ни поисковые системы.
Будьте настоящими. Это мгновенно оценят Ваши читатели и… не удивляйтесь, поисковые машины.
|
|
 |
Типы адресов: физический (MAC-адрес), сетевой (IP-адрес) и символьный (DNS-имя).
Каждый компьютер в сети TCP/IP имеет адреса трех уровней:
* Локальный адрес узла, определяемый технологией, с помощью которой построена отдельная сеть, в которую входит данный узел. Для узлов, входящих в локальные сети - это МАС-адрес сетевого адаптера или порта маршрутизатора, например, 11-А0-17-3D-BC-01. Эти адреса назначаются производителями оборудования и являются уникальными адресами, так как управляются централизовано. Для всех существующих технологий локальных сетей МАС-адрес имеет формат 6 байтов: старшие 3 байта - идентификатор фирмы производителя, а младшие 3 байта назначаются уникальным образом самим производителем. Для узлов, входящих в глобальные сети, такие как Х.25 или frame relay, локальный адрес назначается администратором глобальной сети.
* IP-адрес, состоящий из 4 байт, например, 109.26.17.100. Этот адрес используется на сетевом уровне. Он назначается администратором во время конфигурирования компьютеров и маршрутизаторов. IP-адрес состоит из двух частей: номера сети и номера узла. Номер сети может быть выбран администратором произвольно, либо назначен по рекомендации специального подразделения Internet (Network Information Center, NIC), если сеть должна работать как составная часть Internet. Обычно провайдеры услуг Internet получают диапазоны адресов у подразделений NIC, а затем распределяют их между своими абонентами.
Номер узла в протоколе IP назначается независимо от локального адреса узла. Деление IP-адреса на поле номера сети и номера узла - гибкое, и граница между этими полями может устанавливаться весьма произвольно. Узел может входить в несколько IP-сетей. В этом случае узел должен иметь несколько IP-адресов, по числу сетевых связей. Таким образом IP-адрес характеризует не отдельный компьютер или маршрутизатор, а одно сетевое соединение.
* Символьный идентификатор-имя, например, SERV1.IBM.COM. Этот адрес назначается администратором и состоит из нескольких частей, например, имени машины, имени организации, имени домена. Такой адрес, называемый также DNS-именем, используется на прикладном уровне, например, в протоколах FTP или telnet.
Три основных класса IP-адресов
IP-адрес имеет длину 4 байта и обычно записывается в виде четырех чисел, представляющих значения каждого байта в десятичной форме, и разделенных точками, например:
128.10.2.30 - традиционная десятичная форма представления адреса,
10000000 00001010 00000010 00011110 - двоичная форма представления этого же адреса.
Адрес состоит из двух логических частей - номера сети и номера узла в сети. Какая часть адреса относится к номеру сети, а какая к номеру узла, определяется значениями первых битов адреса:
* Если адрес начинается с 0, то сеть относят к классу А, и номер сети занимает один байт, остальные 3 байта интерпретируются как номер узла в сети. Сети класса А имеют номера в диапазоне от 1 до 126. (Номер 0 не используется, а номер 127 зарезервирован для специальных целей, о чем будет сказано ниже.) В сетях класса А количество узлов должно быть больше 216 , но не превышать 224.
* Если первые два бита адреса равны 10, то сеть относится к классу В и является сетью средних размеров с числом узлов 28 - 216. В сетях класса В под адрес сети и под адрес узла отводится по 16 битов, то есть по 2 байта.
* Если адрес начинается с последовательности 110, то это сеть класса С с числом узлов не больше 28. Под адрес сети отводится 24 бита, а под адрес узла - 8 битов.
* Если адрес начинается с последовательности 1110, то он является адресом класса D и обозначает особый, групповой адрес - multicast. Если в пакете в качестве адреса назначения указан адрес класса D, то такой пакет должны получить все узлы, которым присвоен данный адрес.
* Если адрес начинается с последовательности 11110, то это адрес класса Е, он зарезервирован для будущих применений.
В таблице приведены диапазоны номеров сетей, соответствующих каждому классу сетей.
Класс | Наименьший адрес | Наибольший адрес
A _________01.0.0 ___________126.0.0.0
B _________128.0.0.0_________191.255.0.0
C _________192.0.1.0._________223.255.255.0
D _________224.0.0.0__________239.255.255.255
E _________240.0.0.0 _________247.255.255.255
Уже упоминавшаяся форма группового IP-адреса - multicast - означает, что данный пакет должен быть доставлен сразу нескольким узлам, которые образуют группу с номером, указанным в поле адреса. Узлы сами идентифицируют себя, то есть определяют, к какой из групп они относятся. Один и тот же узел может входить в несколько групп. Такие сообщения в отличие от широковещательных называются мультивещательными. Групповой адрес не делится на поля номера сети и узла и обрабатывается маршрутизатором особым образом.
В протоколе IP нет понятия широковещательности в том смысле, в котором оно используется в протоколах канального уровня локальных сетей, когда данные должны быть доставлены абсолютно всем узлам. Как ограниченный широковещательный IP-адрес, так и широковещательный IP-адрес имеют пределы распространения в интерсети - они ограничены либо сетью, к которой принадлежит узел - источник пакета, либо сетью, номер которой указан в адресе назначения. Поэтому деление сети с помощью маршрутизаторов на части локализует широковещательный шторм пределами одной из составляющих общую сеть частей просто потому, что нет способа адресовать пакет одновременно всем узлам всех сетей составной сети.
Отображение физических адресов на IP-адреса: протоколы ARP и RARP
В протоколе IP-адрес узла, то есть адрес компьютера или порта маршрутизатора, назначается произвольно администратором сети и прямо не связан с его локальным адресом, как это сделано, например, в протоколе IPX. Подход, используемый в IP, удобно использовать в крупных сетях и по причине его независимости от формата локального адреса, и по причине стабильности, так как в противном случае, при смене на компьютере сетевого адаптера это изменение должны бы были учитывать все адресаты всемирной сети Internet (в том случае, конечно, если сеть подключена к Internet'у).
Локальный адрес используется в протоколе IP только в пределах локальной сети при обмене данными между маршрутизатором и узлом этой сети. Маршрутизатор, получив пакет для узла одной из сетей, непосредственно подключенных к его портам, должен для передачи пакета сформировать кадр в соответствии с требованиями принятой в этой сети технологии и указать в нем локальный адрес узла, например его МАС-адрес. В пришедшем пакете этот адрес не указан, поэтому перед маршрутизатором встает задача поиска его по известному IP-адресу, который указан в пакете в качестве адреса назначения. С аналогичной задачей сталкивается и конечный узел, когда он хочет отправить пакет в удаленную сеть через маршрутизатор, подключенный к той же локальной сети, что и данный узел.
Для определения локального адреса по IP-адресу используется протокол разрешения адреса Address Resolution Protocol, ARP. Протокол ARP работает различным образом в зависимости от того, какой протокол канального уровня работает в данной сети - протокол локальной сети (Ethernet, Token Ring, FDDI) с возможностью широковещательного доступа одновременно ко всем узлам сети, или же протокол глобальной сети (X.25, frame relay), как правило не поддерживающий широковещательный доступ. Существует также протокол, решающий обратную задачу - нахождение IP-адреса по известному локальному адресу. Он называется реверсивный ARP - RARP (Reverse Address Resolution Protocol) и используется при старте бездисковых станций, не знающих в начальный момент своего IP-адреса, но знающих адрес своего сетевого адаптера.
В локальных сетях протокол ARP использует широковещательные кадры протокола канального уровня для поиска в сети узла с заданным IP-адресом.
Узел, которому нужно выполнить отображение IP-адреса на локальный адрес, формирует ARP запрос, вкладывает его в кадр протокола канального уровня, указывая в нем известный IP-адрес, и рассылает запрос широковещательно. Все узлы локальной сети получают ARP запрос и сравнивают указанный там IP-адрес с собственным. В случае их совпадения узел формирует ARP-ответ, в котором указывает свой IP-адрес и свой локальный адрес и отправляет его уже направленно, так как в ARP запросе отправитель указывает свой локальный адрес. ARP-запросы и ответы используют один и тот же формат пакета. Так как локальные адреса могут в различных типах сетей иметь различную длину, то формат пакета протокола ARP зависит от типа сети.
В поле типа сети для сетей Ethernet указывается значение 1. Поле типа протокола позволяет использовать пакеты ARP не только для протокола IP, но и для других сетевых протоколов.
Длина локального адреса для протокола Ethernet равна 6 байтам, а длина IP-адреса - 4 байтам. В поле операции для ARP запросов указывается значение 1 для протокола ARP и 2 для протокола RARP.
Узел, отправляющий ARP-запрос, заполняет в пакете все поля, кроме поля искомого локального адреса (для RARP-запроса не указывается искомый IP-адрес). Значение этого поля заполняется узлом, опознавшим свой IP-адрес.
В глобальных сетях администратору сети чаще всего приходится вручную формировать ARP-таблицы, в которых он задает, например, соответствие IP-адреса адресу узла сети X.25, который имеет смысл локального адреса. В последнее время наметилась тенденция автоматизации работы протокола ARP и в глобальных сетях. Для этой цели среди всех маршрутизаторов, подключенных к какой-либо глобальной сети, выделяется специальный маршрутизатор, который ведет ARP-таблицу для всех остальных узлов и маршрутизаторов этой сети.
При таком централизованном подходе для всех узлов и маршрутизаторов вручную нужно задать только IP-адрес и локальный адрес выделенного маршрутизатора. Затем каждый узел и маршрутизатор регистрирует свои адреса в выделенном маршрутизаторе, а при необходимости установления соответствия между IP-адресом и локальным адресом узел обращается к выделенному маршрутизатору с запросом и автоматически получает ответ без участия администратора.
[pagebreak]
Отображение символьных адресов на IP-адреса: служба DNS
DNS (Domain Name System) - это распределенная база данных, поддерживающая иерархическую систему имен для идентификации узлов в сети Internet. Служба DNS предназначена для автоматического поиска IP-адреса по известному символьному имени узла. Спецификация DNS определяется стандартами RFC 1034 и 1035. DNS требует статической конфигурации своих таблиц, отображающих имена компьютеров в IP-адрес.
Протокол DNS является служебным протоколом прикладного уровня. Этот протокол несимметричен - в нем определены DNS-серверы и DNS-клиенты. DNS-серверы хранят часть распределенной базы данных о соответствии символьных имен и IP-адресов. Эта база данных распределена по административным доменам сети Internet. Клиенты сервера DNS знают IP-адрес сервера DNS своего административного домена и по протоколу IP передают запрос, в котором сообщают известное символьное имя и просят вернуть соответствующий ему IP-адрес.
Если данные о запрошенном соответствии хранятся в базе данного DNS-сервера, то он сразу посылает ответ клиенту, если же нет - то он посылает запрос DNS-серверу другого домена, который может сам обработать запрос, либо передать его другому DNS-серверу. Все DNS-серверы соединены иерархически, в соответствии с иерархией доменов сети Internet. Клиент опрашивает эти серверы имен, пока не найдет нужные отображения. Этот процесс ускоряется из-за того, что серверы имен постоянно кэшируют информацию, предоставляемую по запросам. Клиентские компьютеры могут использовать в своей работе IP-адреса нескольких DNS-серверов, для повышения надежности своей работы.
База данных DNS имеет структуру дерева, называемого доменным пространством имен, в котором каждый домен (узел дерева) имеет имя и может содержать поддомены. Имя домена идентифицирует его положение в этой базе данных по отношению к родительскому домену, причем точки в имени отделяют части, соответствующие узлам домена.
Корень базы данных DNS управляется центром Internet Network Information Center. Домены верхнего уровня назначаются для каждой страны, а также на организационной основе. Имена этих доменов должны следовать международному стандарту ISO 3166. Для обозначения стран используются трехбуквенные и двухбуквенные аббревиатуры, а для различных типов организаций используются следующие аббревиатуры:
* com - коммерческие организации (например, microsoft.com);
* edu - образовательные (например, mit.edu);
* gov - правительственные организации (например, nsf.gov);
* org - некоммерческие организации (например, fidonet.org);
* net - организации, поддерживающие сети (например, nsf.net).
Каждый домен DNS администрируется отдельной организацией, которая обычно разбивает свой домен на поддомены и передает функции администрирования этих поддоменов другим организациям. Каждый домен имеет уникальное имя, а каждый из поддоменов имеет уникальное имя внутри своего домена. Имя домена может содержать до 63 символов. Каждый хост в сети Internet однозначно определяется своим полным доменным именем (fully qualified domain name, FQDN), которое включает имена всех доменов по направлению от хоста к корню.
Автоматизация процесса назначения IP-адресов узлам сети - протокол DHCP
Как уже было сказано, IP-адреса могут назначаться администратором сети вручную. Это представляет для администратора утомительную процедуру. Ситуация усложняется еще тем, что многие пользователи не обладают достаточными знаниями для того, чтобы конфигурировать свои компьютеры для работы в интерсети и должны поэтому полагаться на администраторов.
Протокол Dynamic Host Configuration Protocol (DHCP) был разработан для того, чтобы освободить администратора от этих проблем. Основным назначением DHCP является динамическое назначение IP-адресов. Однако, кроме динамического, DHCP может поддерживать и более простые способы ручного и автоматического статического назначения адресов.
В ручной процедуре назначения адресов активное участие принимает администратор, который предоставляет DHCP-серверу информацию о соответствии IP-адресов физическим адресам или другим идентификаторам клиентов. Эти адреса сообщаются клиентам в ответ на их запросы к DHCP-серверу.
При автоматическом статическом способе DHCP-сервер присваивает IP-адрес (и, возможно, другие параметры конфигурации клиента) из пула наличных IP-адресов без вмешательства оператора. Границы пула назначаемых адресов задает администратор при конфигурировании DHCP-сервера. Между идентификатором клиента и его IP-адресом по-прежнему, как и при ручном назначении, существует постоянное соответствие. Оно устанавливается в момент первичного назначения сервером DHCP IP-адреса клиенту. При всех последующих запросах сервер возвращает тот же самый IP-адрес.
При динамическом распределении адресов DHCP-сервер выдает адрес клиенту на ограниченное время, что дает возможность впоследствии повторно использовать IP-адреса другими компьютерами. Динамическое разделение адресов позволяет строить IP-сеть, количество узлов в которой намного превышает количество имеющихся в распоряжении администратора IP-адресов.
DHCP обеспечивает надежный и простой способ конфигурации сети TCP/IP, гарантируя отсутствие конфликтов адресов за счет централизованного управления их распределением. Администратор управляет процессом назначения адресов с помощью параметра "продолжительности аренды" (lease duration), которая определяет, как долго компьютер может использовать назначенный IP-адрес, перед тем как снова запросить его от сервера DHCP в аренду.
Примером работы протокола DHCP может служить ситуация, когда компьютер, являющийся клиентом DHCP, удаляется из подсети. При этом назначенный ему IP-адрес автоматически освобождается. Когда компьютер подключается к другой подсети, то ему автоматически назначается новый адрес. Ни пользователь, ни сетевой администратор не вмешиваются в этот процесс. Это свойство очень важно для мобильных пользователей.
Протокол DHCP использует модель клиент-сервер. Во время старта системы компьютер-клиент DHCP, находящийся в состоянии "инициализация", посылает сообщение discover (исследовать), которое широковещательно распространяется по локальной сети и передается всем DHCP-серверам частной интерсети. Каждый DHCP-сервер, получивший это сообщение, отвечает на него сообщением offer (предложение), которое содержит IP-адрес и конфигурационную информацию.
Компьютер-клиент DHCP переходит в состояние "выбор" и собирает конфигурационные предложения от DHCP-серверов. Затем он выбирает одно из этих предложений, переходит в состояние "запрос" и отправляет сообщение request (запрос) тому DHCP-серверу, чье предложение было выбрано.
Выбранный DHCP-сервер посылает сообщение DHCP-acknowledgment (подтверждение), содержащее тот же IP-адрес, который уже был послан ранее на стадии исследования, а также параметр аренды для этого адреса. Кроме того, DHCP-сервер посылает параметры сетевой конфигурации. После того, как клиент получит это подтверждение, он переходит в состояние "связь", находясь в котором он может принимать участие в работе сети TCP/IP. Компьютеры-клиенты, которые имеют локальные диски, сохраняют полученный адрес для использования при последующих стартах системы. При приближении момента истечения срока аренды адреса компьютер пытается обновить параметры аренды у DHCP-сервера, а если этот IP-адрес не может быть выделен снова, то ему возвращается другой IP-адрес.
В протоколе DHCP описывается несколько типов сообщений, которые используются для обнаружения и выбора DHCP-серверов, для запросов информации о конфигурации, для продления и досрочного прекращения лицензии на IP-адрес. Все эти операции направлены на то, чтобы освободить администратора сети от утомительных рутинных операций по конфигурированию сети.
Однако использование DHCP несет в себе и некоторые проблемы. Во-первых, это проблема согласования информационной адресной базы в службах DHCP и DNS. Как известно, DNS служит для преобразования символьных имен в IP-адреса. Если IP-адреса будут динамически изменятся сервером DHCP, то эти изменения необходимо также динамически вносить в базу данных сервера DNS. Хотя протокол динамического взаимодействия между службами DNS и DHCP уже реализован некоторыми фирмами (так называемая служба Dynamic DNS), стандарт на него пока не принят.
Во-вторых, нестабильность IP-адресов усложняет процесс управления сетью. Системы управления, основанные на протоколе SNMP, разработаны с расчетом на статичность IP-адресов. Аналогичные проблемы возникают и при конфигурировании фильтров маршрутизаторов, которые оперируют с IP-адресами.
Наконец, централизация процедуры назначения адресов снижает надежность системы: при отказе DHCP-сервера все его клиенты оказываются не в состоянии получить IP-адрес и другую информацию о конфигурации. Последствия такого отказа могут быть уменьшены путем использовании в сети нескольких серверов DHCP, каждый из которых имеет свой пул IP-адресов.
|
|
Внимание! Если у вас не получилось найти нужную информацию, используйте рубрикатор или воспользуйтесь поиском
.
книги по программированию исходники компоненты шаблоны сайтов C++ PHP Delphi скачать
|
|