Эту операцию может выполнить пользователь, зарегистрированный с правами Administrator.
Следует запустить программу Regedit и перейти к разделу HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Command Processor. После щелчка правой клавишей мыши на параметре CompletionChar DWORD выберите из меню пункт .
Измените значение на 9. После перезагрузки проведите эксперимент с командной строкой. Введите команду cd, затем первый символ нужного вам каталога и нажмите клавишу TAB.
В строке появится первый каталог, начинающийся с этой буквы. Продолжайте нажимать на TAB, чтобы увидеть в строке поочередно все папки, названия которых начинаются с данной буквы.
Этот прием применим к папкам, файлам и различным командам, таким, как rd и copy.
Меню Start, приведенное в соответствие с вашими личными привычками, немного, но заметно облегчает работу.
Сначала выберите стандартное меню XP или классическое меню, напоминающее меню Start прежних версий Windows: щелкнув правой клавишей мыши на Панели задач, следует выбрать пункт Properties, затем закладку Start menu, после этого пункт Start menu или Classic Start menu.
Выбрав любое из этих меню, продолжайте работу и, щелкнув на кнопке Customize, поэкспериментируйте со всеми непонятными параметрами. Кроме того, познакомьтесь с рекомендациями по обустройству меню Start, приведенными в разделе Навигация по Windows.
Мы раскроем секрет, как удалить Windows Messenger или другие компоненты Windows, не показанные в разделе Add or Remove Programs. Список компонентов Windows хранится в файле Sysoc.inf в каталоге C:\Windows\Inf.
Некоторые его элементы под заголовком [Components], и среди них строка для Messenger, содержат слово hide. Чтобы увидеть их в списке утилиты Addor Remove Programs, а затем удалить, необходимо удалить команду hide (скрыть).
Во-первых, убедитесь, что в Windows Explorer установлен режим показа скрытых файлов: в Windows Explorer следует выбрать пункт Tools - Folder Options, а затем закладку View и установить флажок Show hidden files and folders.
Кроме того, нужно сбросить флажок режима скрытия защищенных файлов операционной системы: Hide protected operating system files (Recommended). Щелкнув на кнопке OK, можно перейти в папку C:\Windows\Inf. Откройте файл Sysoc.inf в окне Notepad и отыщите строку msmsgs=msgrocm.dll, OCEntry, msmsgs.inf, hide, 7.
Удалите слово hide, оставив запятые. Сохраните и закройте файл. Затем откройте Панель управления, выберите утилиту Add or Remove Programs и, когда она откроется, щелкните на закладке Add/Remove Windows Components. Теперь Windows Messenger должен быть в списке.
Повторив те же действия, можно добиться появления в списке и других скрытых компонентов.
В процессе первой инсталляции Windows XP вы не увидите на «рабочем столе» пиктограммы My Computer, My Documents, Network Places и Internet Explorer.
Чтобы добавить (или впоследствии удалить) любые из них, следует щелкнуть правой клавишей мыши на свободном пространстве «рабочего стола», выбрать из меню пункт Properties, закладку Desktop, а затем щелкнуть на кнопке Customize Desktop.
На экране появятся четыре флажка, которые можно «включить» или «выключить», чтобы добавить или удалить пиктограммы с «рабочего стола», а также варианты для изменения вида каждой пиктограммы.
В папке Valueadd на розничных инсталляционных компакт-дисках версий Home и Professional имеются полезные дополнительные программы. (На дисках, поставляемых с компьютерами, папка Valueadd часто отсутствует)
Например, вместе с обеими редакциями ОС поставляется клиент Citrix ICA для подключения к терминальным серверам семейства Citrix; программа Common Information Model, Version 2.5, фирмы Distributed Management Task Force для управления компьютерами и TTPC для проверки данных в пакетах IP.
Версия Home Edition дополнена протоколом NetBEUI, обеспечивающим совместимость со старыми операционными системами и программой резервного копирования и восстановления, входящей в стандартную инсталляцию Windows XP Professional.
Диск Windows XP Professional содержит в качестве дополнения модуль расширения для аутентификации пользователей домена, Windows NT 4.0 Internet Authentication Service, и программу администратора телефонной книги.
Некоторые программы инсталлируются, но по умолчанию не активизированы. Чтобы активизировать эти и другие компоненты Windows XP, нужно открыть Панель управления, щелкнуть на разделе установки и удаления программ Add or Remove Programs (этот и все другие советы относятся к классическому виду Панели управления), а затем щелкнуть на закладке Add/Remove Windows Components и отыскать флажки, которые не «включены».
Большинство «пузырьковых» подсказок, привязанных к области сообщений на Панели задач, практически бесполезны или вовсе не нужны опытным пользователям, они просто отвлекают внимание.
Чтобы отключить подсказки, нужно запустить программу редактирования Реестра и перейти к разделу HKEY_CURRENT_USER\Software\Microsoft\Windows\CurrentVersion\Explorer\Advanced. (При редактировании Реестра всегда нужно быть предельно осторожным. Любые ошибки могут привести к проблемам в системе и потере данных.)
Щелкнув правой клавишей мыши на правой панели, следует сформировать новый элемент типа DWORD и назвать его EnableBalloonTips. Затем дважды щелкнуть на новом элементе и присвоить ему значение 0 (ноль). После этого следует закрыть редактор Реестра и перезапустить Windows.
Данный метод отключает все «пузырьковые» подсказки, поэтому, возможно, вам придется изменить и некоторые другие параметры. Например, если установлен режим Automatic для оповещения о загрузке любых «заплат», то явных сообщений о важных обновлениях не будет. Чтобы исправить положение, следует изменить параметры Automatic или загружать файлы вручную.
Remote Desktop - хорошая программа дистанционного управления из состава Windows XP Professional, с помощью которой можно установить контроль над машиной Windows XP Pro с любого компьютера под управлением Windows.
Чтобы активизировать Remote Desktop, нужно перейти в раздел System Панели управления, щелкнуть на закладку Remote и выбрать режим Allow users to connect remotely to this computer (разрешить всем пользователям устанавливать удаленное соединение с компьютером).
Remote Desktop - очень быстродействующая программа, но для повышения скорости необходимо на компьютере, с которого вы будете управлять хост-машиной Remote Desktop, запустить клиентскую программу Remote Desktop Connection. Выберите пункт Options и щелкните на закладке Experience. Затем следует выбрать тип соединения, наиболее подходящий для связи с хост-машиной.
Предлагаю следующее решение (думаю 97% из прочитавших даже не знают того, что я сейчас напишу). Решение заключается в переустановке системы как только она становится "грязной". С помощью моего решения, перестановка системы занимает максимум пять минут. Welcome операционной системы Windows XP список учетных записей пользователей.
Что нам понадобится:
* Бумажка
* Ручка
* Windows StartUp Disk
* Norton Symantec Ghost (или другой аналогичный софт)
* Windows Installation Disk (та самая версия, которую Вы будете использовать)
Прежде всего, хотелось бы сказать, что работа будет намного облегчена, если у вас на компьютере более одного диска(не важно, физически или как Partition). Если это не так, но Вы очень хотите сделать из одной partition сразу две - не отчаивайтесь, Partition Magick разделит на две без потребности стирать что-либо.
Со всем ниже перечисленным предполагается что у вас есть второй диск или еще одна Partition. Свою версию Ghost мы устанавливаем и копируем главные файлы (ghost.exe, больше ничего не надобно вроде) на другой диск. Итак, берем бумажку и ручку.
И выписываем:
* Все программы, которые должны стоять на свежей установке(то есть все то, что Вы используете в повседневной жизни).
* Все самое главное что нужно сконфигурировать и настроить (dat файлы с icq, настройка Dial-Up, итд)
После этого, стираем все с главного диска (форматируем его) и начинаем устанавливать Windows систему. Устанавливаем внимательно и аккуратно, конфигурируя на пути все что можно и нужно. После установки первым делом устанавливаем все необходимые для работы драйверы ( например, для меня это: Graphics Card, Sound Card, TV Card, Modem, Printer drivers, Digital Camera drivers,), а затем устанавливаем патчи и обновления (советую накачать все самые главные патчи с микрософта и положить на второй дискpartition). После всех обновлений - перегружаемся, и смотрим - все ли нормально работает.
Если да, то продолжаем:
Теперь устанавливаем все программы, которые были выписаны на листочек. Думаем и вспоминаем еще раз (а вдруг забыли что-то?) Перегружаем опять и конфигурируем все что нужно.
Теперь делаем Windows98 StartUp disk (мой компьютер -> панель управления -> установка и удаление программ -> там будет Tab: Загрузочный диск. Вставляем чистый floppy и жмем -> Создать диск!) - почему именно 98? Да потому, что он простой и на нем есть драйверы для CD. Загружаемся с диска и загружаем тот самый Ghost Full (30mb), есть обрезанный Ghost - всего 900 кило ;) , что Вы положили на диск d: .
С помощью Ghost делаем Дамп вашего partition, на котором установлена Windows. Дамп нужно делать на диск d: или другой, на котором не стояла система(на диск, дамп которого ты делаешь, записать сам дамп нельзя, по-моему ясно почему). Как делать дамп partition'а, я объяснять не буду - для этого есть доки в Ghost, если этого не достаточно, то на сайте Bikkel есть доп. доки.
Теперь загружаемся опять в Windows и работаем с системой. Как только система стала загрязненной и плохо работает - опять загружаемся в DOS с дискетки и восстанавливаем с помощью того же Ghost Вашу систему! Операция восстановки обычной системы с перезагрузкой занимает у меня 4 минуты(!). Надеюсь, разница во времени ясна ;) .
Заметки:
1. Дамп можно скопировать на CD вместе с самим Ghost и делать все с самого CD.
2. Образы(дампы) можно переносить с компьютера на компьютер, но во всех Windows кроме 2000 всё hardware конфигурируется при установке, так что если машины не идентичные - восстановка системы не сработает.
3. Если дамп не уместится на CD, то Ghost сможет разделить его на несколько частей, чтоб уместился. Более того, Ghost сам умеет писать на CD.
4. Можно установить сервер, и при наличии сетевой карты - можно восстанавливать системы через сетку!
Рассказывал Вам это человек, который переустанавливает системы по 6 раз на день и больше.
Лучшего решения чем Ghost для восстановления системы вы не найдете. Удачи!
Данное тестирование позволяет использовать два типа объявлений AdSense, отображаемых на Вашей странице, с разными настройками, для того, чтобы Вы могли протестировать, какое из них наиболее эффективно для Вашего сайта.
Например, можно таким образом проверить, как работают объявления двух цветовых схем на одной и той же рекламной позиции, или как работают рекламные блоки разных размеров, скажем, квадрат 250х250 или полубаннер 234х60.
Первое, что необходимо сделать для запуска теста – это выбрать два канала, по одному на каждую единицу рекламы, для отслеживания Ваших результатов. Затем следует вставить в код страницы специальный код, указанный ниже, который чередует показ объявлений.
Причем, необходимо учитывать, что тестируемые объявления должны отображаться на равных условиях, т.е. на каждый из двух типов объявлений должно приходиться 50% просмотров.
Вот код JavaScript, который предлагает использовать Google AdSense, для чтобы Вы могли запустить в соответствии с такими условиями A/B тестинг Ваших рекламных объявлений AdSense:
Замените «//здесь код Вашего первого/второго рекламного объявления» на свой коды объявлений, расположенные между первым набором тегов . Помните о том, что сам код объявления в соответствии с правилами системы изменять нельзя. Однако в данном случае Google AdSense разрешает модифицировать его для использования со специальным, указанным выше скриптом, нацеленным на проведение A/B тестирования.
Это стоящий эксперимент, который позволяет удобно отследить эффективность использования тех или иных типов объявлений AdSense при сравнении на равных условиях. Приятно видеть, что AdSense делает это возможным.
Для многих вебмастеров SEO (search engine optimization, оптимизация для поисковой машины) - это не что иное, как просто набор трюков и методик, которые несомненно должны поднимать их сайт в рейтингах всех поисковиков. Такое отношение к SEO может и дает временные результаты, тем не менее, здесь содержится большой недостаток: правила постоянно меняются.
Алгоритмы поисковых машин постоянно меняются, как, например, антивирусное программное обеспечение. Ведь в мире постоянно появляются новые вирусы, поэтому они и должны постоянно совершенствовать и вносить коррективы в свои программы. Аналогично обстоит дело и с поисковиками: все в этом мире быстро меняется, а интернет-сфера еще быстрее.
Тем не менее, существует определенный набор правил, по которым поисковики ранжируют сайты, которых должен придерживаться каждый вебмастер в нелегком процессе поисковой оптимизации. Конечно, нет 100% гарантии, что все это работает сейчас или уже появились новые правила игры, но идея остается прежней. Меняются лишь детали, как говорится.
Но если мы не можем применить для оптимизации стандартный набор правил, то что же нам делать? Выход здесь в том, что не нужно всеми силами стараться разобраться в хитростях работы поисковой машины, а просто понять каким образом они работают. У этих самых хитростей есть своя логика работы, которую довольно просто вычислить, что и является их недостатком.
Так что же на самом деле необходимо?
Для достижения высоких позиций в рейтинге (да еще на долгое время) следует понимать, что поисковый робот - это в своем роде живое существо. Конечно, я при этом не имею ввиду, что у них есть мозги, пусть это останется для писателей-фантастов. Тем не менее их поведение и способы работы во многом похожи на работу этого самого мозга.
А теперь остановимся на рассмотрении некоторых функций их "мозга". В общем можно сказать, что им присуща такая специфика, как (если принять интернет за мир с множеством дорог) ходить различными путями, следуя указаниям установленных знаков и собирая всевозможную информация об этой дороге. Затем они направляют собранную информацию группе серверов, которые уже по своим специфическим алгоритмам определяют ее важность для внесения в свои базы.
По каким принципам работают эти алгоритмы? Для начала они создаются людьми, которые прекрасно разбираются в принципах работы интернета и информации, которая в нем содержится. А так как всемирная паутина постоянно изменяется, то эти самые люди и вносят необходимые коррективы в поисковые алгоритмы. По своей сути поисковую машину следует рассматривать, как существо, которое постоянно собирает информацию, сохраняет ее, а потом сортирует исходя из ее важности и с большим удовольствием отсеивает ненужную. Только вот как это она делает и исходя из каких принципов - толком не ясно.
Присмотримся поближе
Понимание того, что из себя представляет поисковая машина на самом деле, попытаемся выяснить в сравнении с анатомией человека. Пусть машина и не дышит, но она содержит много схожего, что необходимо ей для ее виртуальной жизни. А состоит она из следующего:
Легкие: Данный орган у поисковой машины, как и большинство жизненно важных органов, расположены внутри огромных data-центров (сервера, специально предназначенные для хранения информации). Как и организме человека, легкие мы не считаем очень важным органом, тем не менее понимаем, что без них не обойтись и нужно поддерживать их здоровыми.
Руки и ноги: Представим себе, что руки и ноги поисковой машины не что иное, как ссылки на ресурсы, которые она щедро выдает по запросу пользователя. С помощью этого органа мы можем найти все, что нам нужно и получить указатель в виде ссылки на необходимый ресурс. Также, как и тело человека изначально было создано для движения и исследования окружающего мира, аналогично и поисковые машины изначально запрограммированы исследовать всемирную паутину.
Глаза: Глазами поисковой машины являются так называемые пауки (еще их называют роботами или краулерами). Эти самые пауки постоянно просматривают интернет для поиска новых сайтов и следят за изменениями на уже проиндексированных. В данном случае пауки "ползают" по страничкам сайта по его внутренним ссылкам (как по путям), аналогично человеку, который на своем пути видит множество дорог для своего передвижения. К счастью для нас, поисковые роботы движутся по оптико-волоконным проводам, вот поэтому они могут путешествовать по интернету со скоростью света. Это-то и позволяет им посетить все интернет-странички, которые попадаются им на пути.
Мозг: Мозг поисковой машины выполняет те же функции, что и мозг человека: содержит целый набор функций для управления организмом своего хозяина. Также у мозга должен быть свой инстинкт, который должен знать о работе и постоянно контролировать все органы и системы. Вот поэтому поисковой машине никак не обойтись без этого самого мозга, который ей и помогает выжить в этом враждебном мире (пусть в чем-то и виртуальном).
Инстинкт: С помощью инстинкта поисковые машины имеют набор ключевых функций, таких как просматривание сайтов и фильтрация данных, которые нужно или не нужно индексировать. Они запрограммированы игнорировать некоторые типы файлов, не соответствующих определенным критериям. Как мне кажется, в инстинкте поисковой машины главное - это механизм или алгоритм, с помощью которого она индексирует сайты.
Знания: Поисковые машины прекрасно осведомлены о всех тонкостях индексации сайтов. Те знания, которыми они владеют, идут далеко впереди знаний всех пользователей, вебмастеров и оптимизаторов. Поисковая машина знает множество методов сортировки, представления данных, и, естественно, еще и имеет свой специфический набор хитростей и уловок.
Пока поисковый робот путешествует по интернету и индексирует веб-странички, параллельно он отсылает обратно в свой data-центр собранные им данные. Именно в этом центре данные обрабатываются согласно алгоритмов, а спам-фильтры отсеивают ненужное.
Подобно тому, как мы анализируем информацию из статьи в газете согласно своему видению мира, так и поисковики обрабатывает и ранжируют данные в строгом соответствии со своими законами и пониманием работы интернета.
Изучение: Так как поисковая машина ранжирует веб-странички согласно своему видению и пониманию законов функционирования интернета, а эти правила постоянно изменяются, то поисковые алгоритмы постоянно изменяются. Вот тут-то как раз и нужен механизм адаптации или самообучения поисковика.
В то же время, наряду в способностях просматривать странички, поисковые роботы должны уметь определять и наказывать попытки запрещенной раскрутки сайта. При этом благосклонно относится к честным вебмастерам и оптимизаторам.
Вот примеры тех областей, в которых поисковые машины так часто любят менять свои алгоритмы:
* Определения релевантности контента того сайта, на который она нашла ссылку;
* Способность обнаруживать информацию, которая содержится в новых типах данных, к примеру, базы данных, flash и т.п.
* Понимание нечестных методов раскрутки сайтов, таких как размещение "невидимого" текста, ссылок и т.п. Данные технологии рассматриваются поисковой машиной как спам, а пойманные на этом ресурсы попадают в так называемый "черный список";
* Изучение полученных данных, выявление недостатков в индексации, что приводит в действие механизм изменения алгоритма в сторону более эффективного определения релевантности сайта.
Способность к изучению и адаптации к окружающему интернет-пространству изначально закладывается при разработке алгоритмов работы поисковой машины. Ну и, само собой, остается актуальной до следующего обновления алгоритма.
От теории к практике
Все, о чем было сказано выше, касалось лишь аспектов работы поисковой машины. А вот как эти знания применить для раскрутки сайта? Все дело в том, что для правильного выбора стратегии раскрутки необходимо хорошо понимать, каким образом работает эта самая поисковая машина: собирает информацию, ранжирует сайты и т.д.
В свое время, когда одним из основных методов раскрутки было размещение большого количества ключевых слов на страницах сайта, многие вебмастера создавали целые сообщества из сайтов, дабы взаимным обменом ссылок достичь высоких позиций в рейтингах. А вот работает ли эта тактика сегодня? Работает, только результат скорее всего будет временным и краткосрочным.
Ведь поисковая машина, как и человек, хочет выжить в агрессивной окружающей среде. Поэтому, если результаты их работы будут плохими (а вот как раз нечестные методы раскрутки часто ведут к выдаче ненужной посетителю информации), то они медленно, но уверенно перестанут существовать. А ведь при постоянно растущей конкуренции эволюционировать крайне необходимо.
Для примера, пользователю значительно удобнее и проще найти сайт с множеством контента, который ему необходим. Как правило, на таких сайтах он часто обновляется, что позволяет сайту быть актуальным. Поэтому делайте выводы.
Немаловажным моментом остается и обмен ссылками. В данном вопросе намечается тенденция к снижению релевантности обратных ссылок, а обмен ссылками между сайтами разных тематик и вовсе малоэффективен. Но если же вы все же решите поставить обратные ссылки, то обязательно убедитесь, что они ведут на родственные по тематике сайты.
Данная стратегия хорошо работает как для привлечения посетителей, так и для повышения релевантности сайта. Ведь многие пользователи переходят из сайта на сайт по внутренним ссылкам. А если они еще и стоят на авторитетном и посещаемом ресурсе, то это только дополнительный плюс.
И напоследок...
Сам собою напрашивается вывод делать ставку на будущее. И отношение к поисковой машине как живому организму (пусть и в общих чертах) поможет выбрать правильную тактику. Вот когда она в очередной раз придет на ваш сайт, то "накормите" ее вкусным новым контентом, новыми разделами и она обязательно еще к вам вернется. А вот негостеприимных сайтов они не любят, как и быть обманутыми нечестными хозяевами. У роботов память отменная...
Это поисковые системы, что в конечном итоге приведет вашего сайта до сведения потенциальных клиентов. Поэтому лучше знать, как эти поисковые системы фактически, и как они представляют информацию для потребителя начать поиск. В данной статье я бы хотел рассмотреть и сравнить между собой несколько способов раскрутки сайтов.
Существуют два вида поисковых систем. Первый роботами называемых сканеров или пауков. Поисковые машины использовать пауков для индексирования веб-сайтов.
Когда Вы отправляете страницах вашего сайта для поисковых систем, выполнив их требуется представления страницы Поисковая система паук будет индексировать весь сайт. "Спайдер" является автоматизированной программой, что осуществляется с помощью поисковой системы, системы.
Круговой посетителей веб-сайта, прочесть его содержимое на фактических сайте сайт Мета-теги, а также по ссылкам, что место соединения. Паук затем возвращается все, что информацию в центральный депозитарий, где данные индексируются. Он посетит каждой ссылки вы на сайте и индексировать эти сайты, а. Некоторые пауки будет индексировать только определенное количество страниц на сайте, тем не создавать сайт с 500 страницы!
Паук будет периодически возвращаться к местам для проверки любой информации, которая изменилась. Частота, с которой это происходит, определяется модераторами поисковой системой. Паук почти как книгу, где он содержит оглавление, Фактическое содержание и ссылки на все сайты, найденные в ходе обыска, и она может индексировать до миллиона страниц в день.
Пример : Excite, Lycos и Google еффект. Когда вы поисковую систему найти информацию, это фактически поиск по индексу, которые он сам создал и не ищут в Интернете. Разные поисковые системы производят различные рейтинги, потому что не во всех поисковых системах используется один и тот же алгоритм поиска индексов.
Одним из событий, поисковая система сканирует алгоритм является частота и расположение ключевых слов на веб-страницу, но может также обнаружить искусственное наполнение ключевыми словами или Поисковый спам. Затем алгоритмы анализа образом, чтобы страницы со ссылками на другие страницы в Интернете.
Установив, как страниц, ссылающихся друг друга, оба двигателя можно определить, о чем эта страница, если ключевые слова связаны страницы похожие на ключевые слова, по оригинальную страницу.
Поисковые механизмы продолжают эволюционировать, становятся все более изощренными и усложненными, в то же время упрощаются их пользовательские интерфейсы, и размеры накопленных баз данных экспоненциально увеличиваются. Впрочем, постоянное развитие в этой области и неудивительно спрос на поиск нужной информации в Сети будет только расти, причем с каждым годом как пользователей, так и данных будет становиться все больше.
Поисковая индустрия также выглядит лакомым кусочком пирога для многочисленных стартапов, которые не прочь попробовать себя в этой области. Лидером здесь можно стать если не за считанные сутки, то за несколько месяцев, о чем свидетельствует история успеха Google. Два года назад о компании знали только энтузиасты, и еще недавно ссылались на данный поисковик как на "разработку студентов Стэнфордского университета", отмечая, что Google "имеет реальные шансы стать одной из самых авторитетных служб в своем классе".
Сегодня за место лидера рынка постоянно соревнуются две компании американская Google и норвежская FAST, и поэтому неудивительно, что в данном материале речь в основном пойдет именно о нововведениях этих фирм.
Файловые форматы
Признавая тот факт, что Internet постоянно пополняется большим количеством информации, которая не всегда выкладывается в формате HTML, Google сообщил о поддержке файловых форматов Microsoft Office. Таким образом, сегодня команда "Поиск" в Google, кроме HTML-документов, выдаст файлы форматов PostScript, Rich text Format, Lotus1-2-3, Lotus WordPro, MacWrite, Microsoft Word, Microsoft Excel и MicrosoftPowerPoint. До этого поисковик также успешно находил и PDF-документы.
Поддержка новых форматов вызвала немало проблем и даже курьезов. Сисадмины и специалисты по компьютерной безопасности наверняка не обрадуются поддержке форматов Microsoft Office. Теперь, щелкнув по ссылке, которая ведет на документ Word, пользователь имеет все шансы запустить у себя на машине макрос, и нет никакой гарантии, что он не причинит вреда. Именно для таких случаев Google предоставляет возможность ознакомления с HTML-версией документа, однако поддержка новых форматов влечет за собой новые проблемы для домашних пользователей теперь компьютерные вирусы можно будет получать прямо из поисковика.
Для более грамотных пользователей новые файловые форматы, несомненно, представляют ценность, так как в слайдах PowerPoint в Internet часто выкладывается учебная и деловая информация, а Excel является общепринятым способом распространения прайс-листов.
Специализация поиска
Норвежские разработчики также предпочли не просто наблюдать за рынком, а развивать специализированные услуги своего поисковика.
FAST запустила поиск новостей, являющийся, как утверждают разработчики, обладателем "желтой майки лидера", если вести речь о скорости. Ежедневно FAST News Search обрабатывает около 3 тыс. ресурсов, которые обновляются в режиме реального времени, как и положено новостийно-информационным изданиям. "Паук" от FAST индексирует около 800 статей каждую минуту.
В данном направлении ведут разработки и отечественные компании. Как сообщил нашему изданию Алексей Чуксин, директор по маркетингу компании"МЕТА", в рамках украинского поисковика создан "динамический индекс", который позволяет вносить обновленные страницы в базу данных"на лету", не замедляя таким образом скорость работы поиска.
Потенциально данная технология может быть использована для организации поиска новостей и обновлений, а также в качестве внутреннего поисковика для крупных сайтов. Разработчики "META" сегодня переводят на динамический поиск сайты своих клиентов, среди которых финансовый сервер Finance.com.ua, банковский Ukrsibbank.com и портал Volia.com.
FAST также предложила весьма интересную концепцию кластеризации результатов поиска. За основу технологии FAST Topics взят открытый каталог Dmoz.org, на его базе сделаны тематические подборки сайтов, которые затем объединяются в кластеры с общей тематикой. Введите "ukraine" в поисковике FAST, и всписке папок будет представлено девять категорий для возможного сужения поиска.
Релевантность
Даже самые громогласные тирады о всемогуществе современных поисковиков зачастую прекращаются, когда их создатели говорят о релевантности. Алгоритмы определения релевантности для ранжирования документов постоянно находятся в стадии разработки. Спаммеры поисковиков, с одной стороны, и добросовестные маркетологи сайтов, с другой, ведут борьбу за право оказаться в списке первых на странице с результатами поиска.
С ноября 2001 г. "МЕТА" для определения релевантности украинских сайтов начала использовать алгоритмы PageRank, где место в списке результатов зависит и от количества ссылок на документ. Google, которая возникла фактически благодаря технологии PageRank, на этот раз решила еще более усложнить путь для недобросовестных "раскрутчиков".
Разработчики Google тестируют технологию, которая позволит пользователям самостоятельно определять релевантность сайта, таким образом голосуя за более информативные ресурсы и исключая из списка результатов поиска сайты, не имеющие никакого отношения к запросу. Теоретически это может даже развязать руки спаммерам, голосующим за свой сайт с различных компьютеров, однако Google рассчитывает на то, что многомиллионная аудитория, ежедневно пользующаяся поисковиком, в целом будет рационально относиться к "избираемым" сайтам.
Быстрее, выше, сильнее?
Как оказалось, олимпийские лозунги не всегда обеспечивают позитивное отношение к поисковикам со стороны пользователей. По мере расширения своей базы данных и увеличения кэша на жестких дисках компании Google пришлось столкнуться с противодействием со стороны Web-мастеров. Google индексирует документы, не предназначенные для публичного использования, Google сохраняет на своем жестком диске копии документов, которые по каким-то причинам должны быть уничтожены, Google ставит под удар платные сайты, требующие денежной мзды за доступ к архивам с более старыми статьями.
На все эти обвинения компания реагирует весьма корректно. Что касается индексирования документов, которые выкладываются на серверы, однако не предназначены для посторонних глаз, представители Google утверждают, что их робот никогда не проиндексирует информацию, доступ к которой запрещен. Не будучи взломщиком, робот, тем не менее, индексирует все, что находит, и тот факт, что конфиденциальные документы попали в око "паука",свидетельствует о том, что неправильно был оформлен файл robots.txt или же администратор не принял должные меры защиты.
Для желающих уничтожить копии своих файлов на дисках Google (а туда, напомним, сейчас попадают и документы PDF, и Microsoft Word), Google представляет такую возможность на сайте для Web-мастеров.
Что касается расширения баз данных поисковиков, то здесь решили не останавливаться на достигнутом и разработчики "МЕТА" робот, по словам Алексея Чуксина, теперь поддерживает настройку полей для поиска структурированной информации (а проще говоря, может получить доступ и проиндексировать базу данных).
С миру по нитке
Что еще произошло в мире поиска за последнее время? Портал Yahoo! согласился сотрудничать с платным поиском Overture (ранее известным как Goto.com), и таким образом на Yahoo! теперь будут появляться платные ссылки, которые будут четко обозначены как коммерческие результаты. Overture, готовясь выйти на прибыль уже в ближайшее время, сумела доказать большинству пользователей, что продажа ссылок за деньги не есть что-то неприличное, а наоборот весьма прибыльный бизнес при условии, что посетитель четко осознает ангажированность результатов.
FAST внедрила свои поисковые технологии в Lycos. Две компании издавна являются партнерами, однако долгое время поиск в Lycos занимал последние места по части объема базы данных и релевантности ссылок. Новая версия поискового ядра от FAST способствует укреплению имиджа Lycos как поисковой машины для Web. На обновленное ядро перешла и российская версия портала, расположенная по адресу www.lycos.ru. Как сообщил"Компьютерному Обозрению" генеральный продюсер российской Lycos Андрей Себрант, основной задачей для разработчиков компании в ближайшее время станет ускорение индексации русскоязычных новостей и интеграция данного сервиса в Lycos.ru. Также одной из ключевых задач сегодняшнего дня является наращивание мультимедийной базы для поисковой машины.
Немного странно не видеть в данном обзоре Inktomi, которая обычно шествовала в колонне лидеров данного рынка. Компания в последнее время направляет свои усилия на корпоративный сектор, хотя игнорировать такого крупного игрока на рынке Internet-услуг пока что нельзя вряд ли Inktomi согласится стать побежденной в гонке лидеров, и вполне возможно, что скоро FAST и Google получат в ее лице достойного конкурента.
Итак вы решили создать сайт. Ну что же, давно пора :) Однако прежде чем создавать его сядьте и немного подумайте. Многие начинающие веб мастера думают, что все размышления о раскрутке интернет проекта будут уместны уже потом, после того как сам проект будет создан. Это в корне не верно. Начинать нужно заранее. Во первых продумайте контент, т.е. ту информацию, которая будет у вас на сайте, зайдите в поисковые системы и оцените, есть ли конкуренция по данной тематике и насколько она велика.
Затем подготовьте материалы. Продумайте, какая информация будет выложена у вас на сайте. Подбирая материал, подумайте о том, чтобы его не было слишком мало. Интернет проект, претендующий на то, чтобы стать популярным, должен состоять как минимум из нескольких сотен страниц. С меньшим объемом контента сложно рассчитывать на серьезные успехи в поисковых машинах. Да и пользователь случайно забредший к вам на сайт, вряд ли будет находиться там долго, если все, что вы сможете ему предложить - это десяток страниц текста. Итак начать нужно с того, что продумайте качество и количество контента.
Далее необходимо продумать по каким ключевым словам пользователь будет находить ваш сайт? На яндексе есть сервис предоставляющий возможность веб мастеру оценить популярность поисковых запросов. Например, когда я перед созданием своего портала Портал InternetCity ввел запрос на популярность ключевого слова культуризм, то получил, что за прошедший месяц это слово запрашивалось в Яндексе около 1500 раз. А вот словосочетания "культуризм грудь" спрашивалось только 6 раз. Догадываетесь куда я клоню, к необходимости оптимизировать текст на ваших страницах, так, чтобы пользователь мог вас найти. Например я счел, оптимизировать страницы моего портала под словосочетание "культуризм грудь" смысла не имеет, так как дополнительные 6 посетителей в месяц мне погоду не сделают, а вот оптимизировать под слово культуризм страницы нужно. Кстати по этому слову мой портал будет где то в первой тройке.
Старайтесь продумать все основные ключевые слова, по которым ваш сайт будут находить в поисковых запросах. В последствии это сбережет вам массу времени. Чтобы вы лучше поняли о чем идет речь приведу еще такой пример: Как я уже писал, я оптимизировал свой сайт под ряд ключевых запросов, одним из которых был культуризм, а вот оптимизировать под слово бодибилдинг (надеюсь ни кому не нужно объяснять что это такое) не догадался и уже после создания сайта проверив популярность этого слова, выяснил, что оно ищется пользователями поисковиков в 4 раза чаще, чем слово культуризм.
Следовательно мне сейчас придется думать о том, как оптимизировать еще свои страницы и по этому слову, значит нужно расширить портал, внести исправления в уже существующий текст, закачать все исправленное и переделанное на сервер и т.д. Одним словом потратить кучу времени. А все это по тому, что я вовремя не подумал о том, что ключевое слово бодибилдинг популярно в рунете.
Привык все время говорить культуризм да культуристы, а заморское словечко бодибилдинг в моем лексиконе не прижилось, а зря, мог бы себе немало времени сэкономить.
Итак контент подобран, ключевые слова тоже, дизайн сайта продуман, пора приступать непосредственно к его созданию. Я не буду здесь писать о том как вам создать дизайн сайта, это тема отдельной статьи. Здесь мы поговорим только об оптимизации страниц для поисковых систем. Прежде чем начинать сайтотворчество не забудьте зайти на Рамблер, Яндекс и Апорт и почитать что нужно сделать, а чего не надо делать для того, чтобы поисковый робот вас смог найти.
Итак, что нужно сделать для того, чтобы вашу страницу легко можно найти.
Заходим в Яндекс и читаем: Необходимо задавать уникальные заголовке в теге title, но не более 20-25 слов. К слову сказать на моем портале каждый заголовок уникален. Не стремитесь писать в заголовках название своего сайта, в заголовке вы должны отразить краткое содержание каждой страницы. Например: Индексация сайта в поисковых машинах. Что нужно знать для поисковой индексации. Давайте каждому документу описание в тэге description Собственно говоря не все поисковые машины учитывают этот тег, но тем не менее некоторые выводят его как краткое описание сайта при выдачи поискового запроса. Само собой описание в этом теге также должно быть уникальным для каждой странички.
Не забывайте о ключевых словах, по возможности уникальных для каждой страницы в теге Keywords. Однако используйте в этом теге только те слова, которые встречаются в тексте страницы. Делайте подписи к картинкам в тэге alt. Поисковым системам важно: есть ли искомое слово на странице документа, насколько часто оно в нем повторяется, промежутки между ключевыми словами, вес каждого слова.
О весе слова нужно поговорить особо, слово набранное в теге alt будет иметь меньший вес по сравнению со словами в тексте документа, а вот слово набранное в теге title или используемое в гиперссылках будет иметь больший вес. Также некоторый приоритет имеют слова, заключенные тегами H, B. Наличие искомого слова в теге Keywords также повышает его значимость, но лишь в том случае если это же слово присутствует и в тексте документа. Если же такого слова в тексте документа нет, а присутствует только в мета теге, то поисковая система эту страницу в результате поиска скорее всего вообще не покажет. Играет также значение месторасположение слова, чем ближе оно к вершине документа, тем больший вес будет иметь. К примеру слово культуризм расположенное в начале странице на моем портале имеет гораздо больший вес, чем слово культуризм расположенное всередине страницы.
Конечно поисковая оптимизация страниц вашего сайта сильно замедлит работу по его созданию, но не оптимизировав страницы практически невозможно будет добиться каких-нибудь серьезных результатов в поисковиках и следовательно раскрутить ваш ресурс, а раз так, то возникает вопрос, зачем его вообще создавать.
Услуги по предоставлению хостинга бывают следующих видов:
Бесплатный хостинг (Free web hosting service)
Полностью бесплатен для пользователя. Как правило, дается доменное в поддомене хостера, на хостинге часто висит баннерная реклама, которая мешает дизайну, список поддерживаемых технологий ограничен, часто нет поддержки скриптовых языков (php, asp.net и java). Подобный хостинг на большее, чем под домашняя страничка, не подходит.
Виртуальный хостинг (Shared web hosting service)
Ваш веб-сайт находится на том же сервере, как и многие другие сайты, в диапазоне от нескольких до сотен или тысяч. Как правило, все домены могут разделить общий пул серверных ресурсов, таких как память и процессор. Управление работой всех сайтов идет через виртуальные хосты средствами веб-сервера apache.
Реселлеры хостинга (Reseller web hosting)
Когда провайдер хостинга позволяет клиентам стать самостоятельными провайдерами хостинга. Дилеры могут самостоятельно настраивать свой сервер, создавать отдельные домены. Реселлеры затем перепродают свой хостинг по более высокой цене своим клиентам, зарабатывая на разнице. Дилеры могут сильно отличаться по размерам: они могут иметь свои собственные сервера или же арендовать их у хостера.
Аренда части сервера. Отличается от виртуального тем, что каждый пользователь считает, что у него как бы свой собственной выделенный сервер, но он фактически лишь делит его с другими пользователями. Как правило, пользователи имеют доступ к настройкам конфигурации той части сервера, которая ими арендована, также регулировать размеры трафика, количество баз данных, электронных почтовых ящиков и ftp-аккаунтов.
Выделенный сервер (Dedicated hosting service)
Пользователь получает в аренду или ставит свой сервер на площадке хостера. Предоставляется полный контроль над сервером (корневой доступ для Linux / администратора для Windows). Выделенный хостинг делится на самообслуживание клиентов или на обслуживании администраторов хостера (за дополнительную плату). Если пользователь имеет полный административный доступ, то это означает, что он несет ответственность за обеспечение безопасности и поддержание своего сервера.
Управляемые службы хостинга (Managed hosting service)
Пользователь получает свой собственный Web сервер, но не имеет полного контроля над ним (корневой доступ Linux / администратора для Windows). Однако он может управлять своими данными через FTP или другие средства удаленного управления. Пользователям запрещается полный контроль по той причине, что провайдер должен гарантировать качество обслуживания, не позволяя пользователю изменять конфигурацию сервера или создавать потенциально опасных проблем конфигурации. Пользователь, как правило, не владеет сервером, а лишь арендует его.
Колокейшен (Collocation web hosting service)
Предоставляются услуги, аналогичные выделенному серверу, но пользователь владеет размещенным сервером. Хостинговая компания обеспечивает физическое пространство и обеспечивает работоспособность сервера (питание, охрану, защиту от перегрева, пыли и влаги).
Это самый мощный и дорогостоящий вид услуг веб-хостинга. В большинстве случаев колокейшен провайдер почти не оказывает поддержки непосредственно для своих клиентов, а предоставляет только электричество, доступ в Интернет и стойку для сервера.
В большинстве случаев для колокейшена, клиент имеет собственного системного администратора, который может в любое время посещать дата-центр хостера для настройки и конфигурирования сервера (программное обеспечение, замена оборудования сервера).
Технология стека TCP/IP сложилась в основном в конце 1970-х годов и с тех пор основные принципы работы базовых протоколов, таких как IP, TCP, UDP и ICMP, практически не изменились. Однако, сам компьютерный мир за эти годы значительно изменился, поэтому долго назревавшие усовершенствования в технологии стека TCP/IP сейчас стали необходимостью.
Основными обстоятельствами, из-за которых требуется модификация базовых протоколов стека TCP/IP, являются следующие.
* Повышение производительности компьютеров и коммуникационного оборудования. За время существования стека производительность компьютеров возросла на два порядка, объемы оперативной памяти выросли более чем в 30 раз, пропускная способность магистрали Internet в Соединенных Штатах выросла в 800 раз.
* Появление новых приложений. Коммерческий бум вокруг Internet и использование ее технологий при создании intranet привели к появлению в сетях TCP/IP, ранее использовавшихся в основном в научных целях, большого количества приложений нового типа, работающих с мультимедийной информацией. Эти приложения чувствительны к задержкам передачи пакетов, так как такие задержки приводят к искажению передаваемых в реальном времени речевых сообщений и видеоизображений. Особенностью мультимедийных приложений является также передача очень больших объемов информации. Некоторые технологии вычислительных сетей, например, frame relay и ATM, уже имеют в своем арсенале механизмы для резервирования полосы пропускания для определенных приложений. Однако эти технологии еще не скоро вытеснят традиционные технологии локальных сетей, не поддерживающие мультимедийные приложения (например, Ethernet). Следовательно, необходимо компенсировать такой недостаток средствами сетевого уровня, то есть средствами протокола IP.
* Бурное расширение сети Internet. В начале 90-х годов сеть Internet расширялась очень быстро, новый узел появлялся в ней каждые 30 секунд, но 95-й год стал переломным - перспективы коммерческого использования Internet стали отчетливыми и сделали ее развитие просто бурным. Первым следствием такого развития стало почти полное истощение адресного пространства Internet, определяемого полем адреса IP в четыре байта.
* Новые стратегии администрирования. Расширение Internet связано с его проникновением в новые страны и новые отрасли промышленности. При этом в сети появляются новые органы администрирования, которые начинают использовать новые методы администрирования. Эти методы требуют появления новых средств в базовых протоколах стека TCP/IP.
Сообщество Internet уже несколько лет работает над разработкой новой спецификации для базового протокола стека - протокола IP. Выработано уже достаточно много предложений, от простых, предусматривающих только расширения адресного пространства IP, до очень сложных, приводящих к существенному увеличению стоимости реализации IP в высокопроизводительных (и так недешевых) маршрутизаторах.
Основным предложением по модернизации протокола IP является предложение, разработанное группой IETF. Сейчас принято называть ее предложение версией 6 - IPv6, а все остальные предложения группируются под названием IP Next Generation, IPng.
В предложении IETF протокол IPv6 оставляет основные принципы IPv4 неизменными. К ним относятся дейтаграммный метод работы, фрагментация пакетов, разрешение отправителю задавать максимальное число хопов для своих пакетов. Однако, в деталях реализации протокола IPv6 имеются существенные отличия от IPv4. Эти отличия коротко можно описать следующим образом.
* Использование более длинных адресов. Новый размер адреса - наиболее заметное отличие IPv6 от IPv4. Версия 6 использует 128-битные адреса.
* Гибкий формат заголовка. Вместо заголовка с фиксированными полями фиксированного размера (за исключением поля Резерв), IPv6 использует базовый заголовок фиксированного формата плюс набор необязательных заголовков различного формата.
* Поддержка резервирования пропускной способности. В IPv6 механизм резервирования пропускной способности заменяет механизм классов сервиса версии IPv4.
* Поддержка расширяемости протокола. Это одно из наиболее значительных изменений в подходе к построению протокола - от полностью детализированного описания протокола к протоколу, который разрешает поддержку дополнительных функций.
Адресация в IPv6
Адреса назначения и источника в IPv6 имеют длину 128 бит или 16 байт. Версия 6 обобщает специальные типы адресов версии 4 в следующих типах адресов:
* Unicast - индивидуальный адрес. Определяет отдельный узел - компьютер или порт маршрутизатора. Пакет должен быть доставлен узлу по кратчайшему маршруту.
* Cluster - адрес кластера. Обозначает группу узлов, которые имеют общий адресный префикс (например, присоединенных к одной физической сети). Пакет должен быть маршрутизирован группе узлов по кратчайшему пути, а затем доставлен только одному из членов группы (например, ближайшему узлу).
* Multicast - адрес набора узлов, возможно в различных физических сетях. Копии пакета должны быть доставлены каждому узлу набора, используя аппаратные возможности групповой или широковещательной доставки, если это возможно.
Как и в версии IPv4, адреса в версии IPv6 делятся на классы, в зависимости от значения нескольких старших бит адреса.
Большая часть классов зарезервирована для будущего применения. Наиболее интересным для практического использования является класс, предназначенный для провайдеров услуг Internet, названный Provider-Assigned Unicast.
Каждому провайдеру услуг Internet назначается уникальный идентификатор, которым помечаются все поддерживаемые им сети. Далее провайдер назначает своим абонентам уникальные идентификаторы, и использует оба идентификатора при назначении блока адресов абонента. Абонент сам назначает уникальные идентификаторы своим подсетям и узлам этих сетей.
Абонент может использовать технику подсетей, применяемую в версии IPv4, для дальнейшего деления поля идентификатора подсети на более мелкие поля.
Описанная схема приближает схему адресации IPv6 к схемам, используемым в территориальных сетях, таких как телефонные сети или сети Х.25. Иерархия адресных полей позволит магистральным маршрутизаторам работать только со старшими частями адреса, оставляя обработку менее значимых полей маршрутизаторам абонентов.
Под поле идентификатора узла требуется выделения не менее 6 байт, для того чтобы можно было использовать в IP-адресах МАС-адреса локальных сетей непосредственно.
Для обеспечения совместимости со схемой адресации версии IPv4, в версии IPv6 имеется класс адресов, имеющих 0000 0000 в старших битах адреса. Младшие 4 байта адреса этого класса должны содержать адрес IPv4. Маршрутизаторы, поддерживающие обе версии адресов, должны обеспечивать трансляцию при передаче пакета из сети, поддерживающей адресацию IPv4, в сеть, поддерживающую адресацию IPv6, и наоборот.