Добро пожаловать,
|
|
|
|
|
|
Поиск
|
Пакет компонентов для создания ICQ клиента. Включает в себя:
* ICQ клиент
* AIM клиент
* msn клиент
* Yahoo клиент
В архиве с компонентом есть простенькое Demo.
Установка: Тестировалось на 7 версии delphi. Возникли небольшие проблемы. Ругался на BSIMD7. После чего файлы компонента были скопированы из папки source\d7\ в папки Delphi7\Projects\Bpl\ и в папку Delphi7\Lib\. Все ровно продолажет ругаться при нажатии на кнопку Compile. После не долгова раздумья нажал на Instal, компонент установился все нормально. Юзаю 3 дня пока все ОК.
|
|
|
Semonitor - это программа для раскрутки сайта. Она состоит из набора утилит, охватывающих различные стороны процесса оптимизации. Предлагаемые решения просты в использовании и успешно применяются как профессионалами, так и начинающими оптимизаторами. Модуль "Определение позиций" - программа, позволяющая узнать, какие позиции ваш сайт занимает в поисковиках по выбранным ключевым словам. Поддерживаются все российские поисковые системы. Кроме традиционной "большой тройки" - Яндекс, Рамблер, Апорт - Semonitor поддерживает также Google.ru и, ставшие популярными в последнее время, Mail.ru и Km.ru. Из международных поисковых систем представлены Google, Yahoo, MSN, AltaVista и другие (всего более 30).
Модуль "Внешние ссылки" - программа для анализа внешних ссылок на ваш ресурс. Большое количество внешних ссылок является одним из определяющих факторов успешной раскрутки в поисковых системах. Semonitor позволяет составить наиболее полный список ссылок на ваш проект, отслеживать их динамику (выявлять новые и устаревшие), а также анализировать конкурентов и искать тематические ресурсы для обмена ссылками. Модуль "Индексация сайта" - программа для проверки индексации сайта поисковыми системами. Прежде чем страница сможет попасть в результаты поиска по ключевым словам, она должна быть проиндексирована поисковыми системами. Semonitor позволяет определить все страницы вашего сайта, присутствующие в индексе того или иного поисковика. Модуль "Лог анализатор" - предназначен для анализа лог-файлов. Позволяет оценить посещаемость ресурса, поисковые запросы, рефереры, географию посетителей и многое другое. Модуль "Page Rank анализатор" - позволяет автоматически определять Google PageRank, тематический индекс цитирования Яндекс (ТИЦ), число внешних ссылок и присутствие в каталогах Яндекс, DMOZ и Yahoo для заданного списка веб-адресов (УРЛ). Модуль "Подбор ключевых слов" - используя различные источники, подбирает релевантные ключевые слова, а также оценивает уровень конкуренции по ним. Модуль "HTML анализатор" - программа для анализа содержимого html страниц. Позволяет определять вес и плотность ключевых слов на странице, искать ключевые фразы и словосочетания. Может быть использована как для предварительного анализа собственного проекта, так и для анализа конкурентов. Модуль "Google дата-центры" - программа для проверки позиций на всех дата-центрах Google, будет полезна при плотной работе с этой поисковой системой. Модуль "Работа со сниппетами" - описания (сниппеты), выдаваемые поисковыми системами для вашего ресурса также очень важны. Привлекательное описание заставит посетителей выбрать именно вашу ссылку среди прочих, предложенных поисковой системой. Программа позволяет вести историю и анализ таких описаний. Использование программы Semonitor позволяет автоматизировать процесс раскрутки сайта, что дает значительную экономию времени при работе над проектом, а также позволяет добиться лучших результатов.
|
|
|
При помощи утилиты Site-Auditor Вы сможете быстро собрать данные, необходимые для оценки видимости сайта в Рунете.
Одним кликом Вы получите все необходимые данные из основных поисковых сервисов, используемых в российском сегменте Интернета, а именно: Яндекс, Рамблер, Апорт, а также в наиболее популярных международных сервисах Google и Yahoo.
Кроме того, в случае, если на анализируемом сайте будет обнаружен счетчик Рамблер ТОП100, утилита соберет данные о количестве посетителей и просмотренных страниц за последние 7 дней. Если будут обнаружены счетчики иных статистических систем, то на них будут даны ссылки.
В данный момент система определяет наличие следующих, наиболее популярных счетчиков статистики:
Рамблер Top100,
Mail.ru,
LiveInternet (RAX),
SpyLog,
HotLog.
Утилита позволяет получить позиции сайта в выдаче Яндекс, Рамблер и Google по выбранному списку запросов (семантическому ядру).
Все собираемые данные сохраняются на вашем компьютере и позволяют Вам отслеживать историю изменений.
В нижней части окна утилиты находиться информационное поле, в котором отображаются объявления и новости по SEO тематике. Это позволит Вам всегда быть в курсе последних новостей и событий, происходящих на рынке SEO услуг.
Экспресс-анализ
В разделе "Экспресс-Анализ" Вы можете собрать основные данные о текущем уровне оптимизации сайта.
Проведение исследования выполняется следующим образом. В верхней части окна программы находится поле http://, в которе Вам нужно ввести адрес исследуемого сайта. По нажатию кнопки Проверить программа производит сбор данных.
С помощью программы Вы можете получить следующую информацию об анализируемом сайте:
Индексы цитирования Яндекса - ТИЦ и Google - PageRank;
Количество страниц, проиндексированных поисковыми системами Яндекс, Рамблер, Google, Апорт и Yahoo.
Количество ссылок на сайт, обнаруженных поисковыми системами Google, Яндекс, Yahoo.
Данные о наличии сайта в каталогах Яндекс, Рамблер Top100, Апорт и DMOZ.
Если на сайте будут обнаружены счетчик Рамблер Top100, утилита соберет данные о количестве посетителей и просмотренных страниц за последние 7 дней.
Если будут обнаружены счетчики статистических систем Top.Mail.ru, LiveInternet (Rax), SpyLog, HotLog, то будут даны ссылки на страницы этих поисковых систем.
Одновременно со сбором данных производится анализ титульной страницы сайта на наличие на странице следующих тегов и блоков информации:
HEADER — содержит заголовок ответа сервера. В случае, если в процессе получения ответа произошло перенаправление сайта (HTTP Redirect), на кнопке HEADER появится признак R. При клике на кнопку в информационном окне будут показаны заголовки, выданные web-сервером при перенаправлении и выдаче страницы. Для получения дополнительной информации по заголовку можно воспользоваться внешним сервисом HTTP Header.
TITLE — показывает содержимое тега <title>. На кнопке в скобках отображается кол-во символов содержимого тега.
KEYWORDS — показывает содержимое тега <meta keywords>. На кнопке в скобках отображается кол-во символов содержимого тега.
DESCRIPTION — показывает содержимое тега < meta description>. На кнопке в скобках отображается кол-во символов содержимого тега.
ROBOTS.TXT — показывает содержимое файла robots.txt. В случае, если в файле обнаружено правило, полностью запрещающее индексацию сайта (Disallow: /), на кнопке выводится предупреждение в виде восклицательного знака.
A — показывает содержимое тегов <a>. На кнопке в скобках отображается общее количество обнаруженных ссылок и количество ссылок, на внешние сайты. Домены третьего уровня, за исключением www, считаются внешним.
H — показывает содержимое найденных тегов c <h1> по <h6>. На кнопке отображаются только найденные номера тегов. Так текст кнопки H 146 означает, что на титульной странице обнаружены теги <h1>, <h4> и <h6>. При клике на кнопку содержимое тегов будет показано в информационном окне в порядке возрастания номера тега.
NOINDEX — показывает содержимое тега <noindex>. В тексте кнопки в скобках показывается количество обнаруженных тегов.
STRONG, B - показывает содержимое тегов <strong> и <b>. При клике на кнопку в информационном окне будет показано, сначало содержимое тегов <strong>, затем <b>.
EM, I — показывает содержимое тегов <em> и <i>. При клике на кнопку в информационном окне будет показано, скачало содержимое тегов <em>, затем <i>.
Текстовое окно, в которое производится выдача информации по кнопке, при необходимости может быть увеличено с помощью кнопки
Выпадающее меню Внешние сервисы позволяет провести дополнительный анализ сайта:
WHOIS — позволяет получить информацию о владельце домена и времени регистрации (возрасте) сайта.
Traceroute (RU) и Traceroute (COM) — позволяет дать оценку времени прохождения IP-пакета до анализируемого сайта в российском сегменте Интернета и для зарубежных посетителей.
WayBack Machine — уникальный сервис, позволяющий увидеть историю развития сайта.
HTTP Header — позволяет детально изучить заголовоки http-ответа сервера с дополнительной информацией: что означает та или иная строка в заголовке.
График загрузки — предоставляет детальную информацию по времени загрузки всех элементов титульной страницы сайта. Позволяет выявить узкие места и повысить скорость ответа сайта.
Поиск дубликатов — позволяет обнаружить в сети сайты, похожие на анализируемый.
В левой части экрана находятся список проанализированных сайтов и история прошедших проверок. При выборе из списка сайта, в соответсвующих полях показываются данные, полученные в ходе последней проверки. При выборе даты отображаются данные, полученные на момент выбранной даты.
Настройки
В окне настроек на вкладке Данные перечислено, какие виды данных требуется собирать при анализе сайта. Если какие-то данные собирать не требуется, то их можно исключить из обработки и тем самым ускорить сбор информации. Для этого требуется снять пометку с соответствующих чекбоксов.
На вкладке Копирование Вы можете указать, какие именно данные требуется копировать в буфер обмена при нажатии кнопки копировать в буфер.
Кроме того, можно выбрать тип разделителя строк для удобства копирования в документы разных форматов. Так для копирования в MS Excel следует выбирать "\n", а для копирования таблицы, находящейся в MS Word в качестве разделителя строк следует выбирать "\t".
Подбор запросов
Данный сервис позволяет составить список целевых запросов (семантическое ядро) для исследуемых сайтов.
Для этого в поле "Проверить запросы" нужно указать список слов или фраз, близких к тематике сайта.
После нажатия кнопки Проверить утилита получит список поисковых запросов, которые пользователи задавали в поисковом сервисе Рамблер в течение прошедшего месяца и которые содержат слова, указанные в поле "Проверить запросы". Частота запросов обозначает, сколько раз их задавали в течение последних 30 дней.
После того, как список запросов будет загружен в поле "Варианты запросов", Вы можете отметить интересующие Вас запросы и скопировать их в список "Выбранные запросы" нажатием кнопки Выбрать или двойным щелчком мыши.
Если в список "Выбранные запросы" попал ненужный вариант запроса, его можно удалить, выбрав его и нажав кнопку , которая появляется в правом нижнем углу списка в момент выбора запроса. Так же удалить ненужный запрос можно двойным щелчком мыши.
Удерживая клавиши Ctrl или Shift, в списке можно одновременно выбирать сразу несколько строк.
После того, как список "Выбранные запросы" окончательно сформирован, его можно скопировать нажатием кнопки Перенести в раздел "Видимость сайта". При этом также происходит переход в раздел "Видимость сайта".
Если Вам необходимо проверить видимость сайта для уже существующего семантического ядра, частоту которого повторно проверять не требуется, список запросов можно перенести напрямую из поля «Проверить запросы» в раздел «Видимость сайт», нажав кнопку «Скопировать запросы», находящуюся справа от поля.
Видимость сайта
Сервис "Видимость сайта" позволяет получить сводный отчет о положении анализируемого сайта в результатах поиска Яндекса, Рамблера и Google по выбранным поисковым запросам.
Для сбора информации о позициях необходимо нажатием кнопки Перенести скопировать список выбранных запросов, сформированный в разделе "Подбор запросов", указать URL анализируемого сайта и нажать кнопку Проверить.
После окончания сбора данных в списке отобранных запросов будут указаны позиции сайта в результатах поиска поисковых систем.
Если рядом с числом, обозначающим номер позиции, находиться точка, это означает, что ссылка из результатов поиска введет на титульную страницу анализируемого сайта.
При щелчке мышью на номер найденной позиции открывается окно браузера, в которое загружается страница, ссылка на которую была найдена в результатах поиска.
В левой части экрана находятся список проанализированных сайтов и история прошедших проверок. При выборе одного из сайтов в соответствующих полях показываются данные, полученные в ходе последней проверки. При выборе даты, показываются данные, полученные на момент выбранной даты.
Если возникла необходимость отредактировать список запросов, необходимо нажать кнопку Редактировать список запросов. При этом текущий список будет скопирован в поле "Выбранные запросы" в раздел "Подбор запросов". Там его можно редактировать, как это описано в разделе "Подбор запросов
|
|
|
Данная электронная книга является источником исчерпывающих сведений обо всех аспектах разработки компьютерных игр. Поскольку она написана в виде сборника интервью от первого лица, то читатель получает достоверную информацию, не искаженную через призму мнения автора.В приложении к книге приведены биографические справки большинства знаменитых программистов, художников, звукоинженеров - тех, кто раскрыл секреты своего мастерства на страницах описываемой книги.
По заявлению издателей, это - единственная книга на русском языке, описывающая создание компьютерных игр и увлекательно смакующая все детали этого процесса. Автор книги, Марк Зальцман, известный американский журналист. Его публикации, посвященные компьютерным играм, печатаются в авторитетнейших изданиях США, таких как USA Today, Playboy magazine, Yahoo! Internet Life.
"Компьютерные игры" - собрание опыта специалистов-разработчиков известных компьютерных игр: дизайнеров, программистов, продюсеров, музыкантов, звукоинженеров и других специалистов в этой области. Книга объединяет более ста миниинтервью, знакомясь с которыми, читатель получает представление об основных этапах разработки игр.
В книги подробно описаны этапы создания игр. Она поможет начинающим авторам правильно составить документацию и выбрать жанр будущей игры, раскрывает тонкости технической поддержки, способы тестирования новых продуктов. Книга рассказывает об особенностях игровых жанров, принципах создания различных типов игр, их уровней, персонажей и миссий. Специалисты делятся опытом практической работы над созданием проекта: от программирования до музыкального оформления программы.
Но игру мало создать - ее еще нужно уметь продать. Книга содержит советы по организации сбыта игр, маркетингу, продвижению продукта на рынок и способам развития проектов. Кроме того, "Компьютерные игры" - отличное практическое руководство для тех, кто поставил себе целью добиться успеха в области создания компьютерных игр. Секретами карьерного роста делятся самые успешные разработчики, рассказывая, как можно зарабатывать деньги, занимаясь любимым делом. В книге содержатся сведения о том, где и каким образом можно получить специальное образование и даются ссылки на отраслевые интернет-ресурсы.
|
|
|
Ваш сайт доходчиво объясняет посетителям, что заказывать нужно именно у вас, а не у ваших конкурентов? На нем хорошо видны контакты, а сделать заказ легко? Есть ли у вас возможность отслеживания активности посетителей и коэффициента конверсии? И последнее: вы знаете, сколько стоит ваш посетитель? Если вы смело можете ответить "да" на эти воспросы - ваш сайт готов к приему посетителей. Если нет - проработайте их, иначе много денег будут уходить впустую.
Все хотят "бесплатный" (поисковый) трафик, но находиться в топе поисковых систем - очень трудоемкое занятие. Однако, если вы создадите богатый контентом сайт и последуете советам из этого списка, ваш трафик будет увеличиваться сам собой и PR будет расти.
*Pay-Per-Click (PPC) - оплата за клики. Трафик с PPC-систем можно получить почти мгновенно! Google и Overture (теперь еще и Yahoo) - вот основные источники PPC-трафика, но можно попробовать и FindWhat.com. На что следует обратить внимание: Держите в голове цену своего посетителя, ставьте объявления по сотням неконкурентным ключевым словам и фразам, и отслеживайте статистику по каждому слову или фразе отдельно.
*Распространяйте свой контент в сети - пишите полезные статьи, интересные целевой аудитории. Распространяйте их среди веб-мастеров, разрешите им перепечатывать ваши тексты в обмен на размещение ссылки на ваш ресурс вида "источник: " или "по материалам сайта: ". Распространяйте ваши статьи и через каталоги статей, электронные журналы и ваш блог. На что следует обратить внимание: полезное, по возможности уникальное, содержание статей.
*Публикуйте свои пресс-релизы - периодически публикуйте пресс-релизы с новостями, которые будут интересны вашей целевой аудитории и вашим потенциальным покупателям. Поскольку пресс релизы это, фактически, новости, они публикуются быстро, и вы можете так же быстро заполучить сотни ссылок на свой сайт. На что следует обратить внимание: желательно писать пресс-релиз из 300-500 слов, и включить в него ссылку на свой ресурс. Желательно доверить распространение релизов профессионалам, которые смогут оптимизировать их по ключевым словам.
*Сделайте блог с RSS - чтобы приносить пользу, блог должен часто пополняться новыми материалами. Пусть ваш блог содержит информацию, полезную для ваших покупателей, но не заостренную на продажах и специальных предложениях. Последнее нужно делать очень аккуратно, мы советуем вообще заострять на продажах внимание, если не можете посвятить этому достаточное количество времени. Seth Godin говорит, что составляющие успешного блога это: (1) Беспристрастность, (2) Мгновенное реагирование, (3) Своевременность, (4) Тематичность - коротко и "в кассу", и (5) Дискуссия, полемика. На что следует обратить внимание: блог должен быть интересен посетителям, добавьте его во все каталоги блогов, проверяйте ваши блоговые посты в поисковиках, распространяйте свой контент через RSS.
*Набирайте односторонние входящие ссылки - все вышеперечисленное создаст хорошие входящие односторонние ссылки на ваш сайт, хотя Вы можете дополнительно покупать ссылки на других сайтах, напрямую и через биржи ссылок. Не занимайтесь обменом ссылками - от этого уже никакого толка. Убедитесь, что ссылки на ваш сайт ведут со страниц, PR которых выше 0. Если у страницы PR0, возможно Google пессимизировал ее по каким-либо причинам, в результате ссылка может нести в себе отрицательную силу. На что следует обратить внимание: удостоверьтесь, что в текстах входящих ссылок есть ключевые слова, и что ссылки текстовые. Ссылки должны быть с тематических и околотематических сайтов, а не с линкопомоек или немодерируемых каталогов. Лучшие ссылки - со страниц, количество ссылок на которых невелико.
*Разрешите другим сайтам использовать ваши материалы. Разрешайте им делать это до тех пор, пока они будут ссылаться на вас. Это позволит вам получить одностороннюю ссылку с сайтов, который бы не согласились поставить ее в других случаях. На что следует обратить внимание: старайтесь вести диалог с вебмастерами кратко, и по делу.
*Реклама через E-mail - Рекламируйтесь в электронных журналах, размещайте рекламу в почтовых рассылках, если среди получателей есть ваша целевая аудитория. На что следует обратить внимание: внимательно отслеживайте эффективность рассылок.
*Используйте возможности партнеров по бизнесу. Рекламируйтесь, используя базу клиентов ваших партнеров. John Reese продал информационный товара на $1 млн. за 24 часа, используя только базу клиентов своих партнеров, рассылая им свои предложения. Он платил партнерам 50% с продаж. На что обратить внимание: нужно знать цену своего посетителя, и хорошо проверить в действии точку продаж перед тем, как обращаться к партнерам с предложениями.
*Заведите партнерскую программу. Если Вы продаете что-нибудь, предложите партнерам комиссию за каждого привлеченного покупателя. Ссылки с сайтов партнеров будут приводить на сайт посетителей, а также увеличивать вес сайта в глазах поисковиков. На что следует обратить внимание: предложение должно быть привлекательным, обеспечьте партнеров всеми рекламными и сопуствующими материалами, дайте им доступ к статистике, чтобы они могли отслеживать переходы и активность посетителей самостоятельно, сделайте регистрацию в партнерской программе легкой. Дайте им проверенные баннеры, рекламные письма и другой инструментарий, облегчающий их задачу.
*Покупайте готовые, хорошо раскрученные сайты. Найдите сайты, которые занимают высокие позиции по вашим запросам в поисковиках, проверьте качество трафика через владельцев этих сайтов и принимайте решение о покупке. Позаботьтесь о том, чтобы права собственности на домен полностью принадлежали Вам. Вы можете разрешить бывшим владельцам использовать контент сайта, если хотите. Проверьте deleteddomains.com на предмет доменов, брошенных владельцами, которые можно зарегистрировать всего за несколько долларов. На что обратить внимание: проверьте Google PR, Alexa rank, и бэклинки сайтов до их покупки. (Я знал одного продавца, который поспорил с профессиональными оптимизаторами на предмет того, кто займет самое высокое место в поисковике за 24 часа. Он выиграл спор, просто купив сайт, который занимал первое место).
И напоследок то, с чего начинается большинство статей...
*Поисковая оптимизация (SEO). Здесь есть много технических моментов, которые следует изучить, если Вы собираетесь оптимизировать сайт самостоятельно, поэтому я советую нанять профессионала, который все сделает за вас. Не доверяйте тем, кто гарантирует вам первые места, потому что нельзя гарантировать высокие позиции в Google или Yahoo, потому что алгоритмы постоянно меняются. (Они могут гарантировать места в топе по словосочетаниям типа названия вашей компании, но это не конкурентная фраза, и она не принесет особого толка). Дизайн и структура вашего сайта - также обратите на это внимание.
3 кита поисковой оптимизации это:
*Контент
*Тематические внешние ссылки с хорошим PR
*Правильный дизайн сайта
Все перечисленное в этих 10 пунктах помогает и с контентом, и с односторонними входящими ссылками, поэтому остается только хороший дизайн. На что следует обратить внимание: не думайте о сайте как об одной странице, думайте о сайте как о сотне оптимизированных страниц, с определенной тематикой и интересных целевой аудитории.
|
|
|
Хочется немного осветить вопрос индексации сайта основными поисковиками (к которым относятся грозный и страшный Яндекс, рвущийся к лидерству уже и на просторах русскоязычного поиска Google, скатывающийся назад Рамблер, “всемирный” соперник Гугла Yahoo, ну и непонятно зачем все еще существующий Апорт ).
Проще всего рассмотреть скорость индексации на примере данного сайта. Сайту нет еще даже месяца, поэтому интересна динамика попадания страниц сайта в индекс (выдачу) поисковиков. Немного удивило то, что уже в день появления сайта на просторах всемирной сети (именно физического появления, т.е. момента, когда данные сайта стали доступны) Google каким-то образом успел проиндексировать несколько десятков страниц, и это при том, что сайт в “Google для вебмастеров” не вносился, вручную в Google не добавлялся, на сайт вообще была всего одна ссылка, правда на главной странице более-менее посещаемого (в том числе роботами) мини-портала .
Также в тот же день этот сайт был добавлен в Яндекс.вебмастер - якобы это ускоряет индексацию Яндексом. Как выяснилось - не ускоряет… вообще, складывается впечатление, что хоть какие-то обновления в базе Яндекса происходят раз в неделю, обычно в выходные, при том робот шарит по сайту стабильно - но почему-то на выдачу это никак не влияет.
Следом за Гугле, буквально через день, сайт заметил Яху, примерно столько же страниц - около 60. Несмотря на отстутствие в первые дни sitemap.xml (сейчас в нем чуть более 1600 страниц), Гугле уже за первую неделю проиндексировал более 500 страниц, а через 2.5 недели в базе было 1.5 тысячи страниц, то есть почти весь сайт. Примерно в это же время первые несколько страниц (а именно 4) появились в выдаче Яндекса - впечатляющая скорость. Да, сайт в первый же день был зарегистрирован в каталоге-рейтинге Рамблера, и через пару дней там появился, а вот в выдаче Рамблера до сих пор нет ни одной страницы (код счетчика стоит на каждой странице), Рамблер в этом плане отстает даже от Апорта, в котором уже есть несколько десятков страниц.
Яху меня несколько раз впечатлял скоростью индексации ссылок на сайт - показывал некоторые бэклинки буквально через час-два после их появления, просмотр бэклинков на Яндекс.вебмастер тоже немного порадовал - несмотря на то, что Яндекс знает всего 4 страницы сайта, но тем не менее он уже знает около 20 ссылок на сайт - то есть примерно 70% на данный момент… что не так уж плохо.
Ну вот собственно пока и все, надеюсь из этого коротенького обзора можно сделать кое-какие выводы о скорости попадания сайта в индекс (выдачу) основных поисковиков.
|
|
|
Утром, днем и вечером я пользуюсь различными free seo сервисами. В закладках им уже просто тесно. В один прекрасный день я выложил их на эту страницу. Возможно они будут полезны и другим.
Определение позиций. Анализ страниц.
* Анализ страниц сайта
* Определение Google Page Rank, Яндекс CY, индекса Апорт и индекса Alexa.com
* Определение позиции сайта в различных поисковых системах
* Множественная регистрация сайтов и страниц в поисковых системах Google, Рамблер и Яндекс.
* Определение позиций сайта в нескольких поисковых системах.
* контроль позиций по запросам в поисковых системах.
* Определение позиций сайта по запросам в Google и Yahoo.
* SEO tools - небольшой но функциональный набор инструментов.
* Анализ страницы на предмет видимости поисковой машиной, ключевых слов и заголовков.
* Быстрый анализ продвижения сайта
* SEO LinkTracker - Подсчет ссылок на странице
* Анализатор страниц, беклинков, PR и тИЦ + проверка присутствия в Яндекс.Каталоге, Рамблер-TOP-100 и DMOZ (очень рекомедую!)
* Анализатор вебсайта
* еще один анализатор вебсайта
* Анализ метатегов, заголовка, частоты ключевых слов.
* Visual PageRank
Google. Анализ беклинков
* Анализ обратных ссылок по Page Rank или CY ссылающихся страниц.
* просмотр беклинков по Google. Показывается исходящий PR по каждому линку.
* проверка PageRank по дата центрам.
Google. Индексация. Кеш. Датацентры.
* Google cache tool - проиндексированные Google страницы по различным датацентрам.
* удобное представление проиндексированных Google страницы по различным датацентрам.
* Google Datacenters Checker Tool - индексированые страницы, бекварды и PR. Статистика по разным датацентрам.
* проверка количества страниц проиндексированных поисковыми системами: AllTheWeb, AltaVista, Google, MSN Search, Yahoo.
Сервисы для работы с ДМОЗ (dmoz.org)
* DMOZ Listing Checker Tool - проверка наличия ресурса в каталоге DMOZ.
Google PR предсказатели
* Google PageRank Prediction (еще один предсказатель)
* Предсказание Google PageRank
* очередной предсказатель PageRank
|
|
|
Эта статья посвящена всем вебмастерам, которые занимаются не только созданием сайтов, но и их продвижением в сети интернет. Под продвижением подразумевается получение посетителей на сайт (так называемого трафика).
На эту тему уже написано большое количество статей как русскоязычных оптимизаторов, так и зарубежных. Но до сих пор так и не выработано единого способа раскрутки, который бы 100% действовал для всех сайтов. Ведь у каждого сайта не только разная тематика, но и на него ведут разные ссылки опять-таки с разных сайтов, в немалой мере влияет название домена, html-код веб-страницы и даже грамотность текста.
В последнее время комплекс мероприятий по раскрутке сайтов называется seo (search engine optimization - оптимизация под поисковые машины). Почему именно под поисковые машины - потому что они дают целевой трафик и ими пользуется 60-80% (по разным оценкам) пользователей интернета. В мире очень много поисковых машин, толком даже никто не знает точного их количества, но главные известны - для рунета это Яндекс и Рамблер (недавно возник поисковик Вебальта, но пока от него заходит лишь индексирующий бот, а не посетители), для мирового инета - это Гугл (Google), Yahoo! и MSN. Последний, кстати, разработка компании Майкрософт, скорее всего и был бы неизвестным поисковиком, если бы не маркетологи компании, которые интегрировали его в ОС Windows - вот такой хитрый ход
Теперь о самой раскрутке. В первую очередь следует ориентироваться на два поисковика - Яндекс и Гугл (плюс Яху, если сайт англоязычный). Как показывает практика seo, только от этих поисковых машин можно получить какой-нибудь приличный трафик, который уже можно сконвертировать в вечнозеленые денежные знаки. Поэтому на форумах и блогах о поисковых машинах и поисковой оптимизации следует следить за новостями и методикой раскрутки именно для этих машин.
Спросите любого вебмастера, который уже не первый год занимается сайтами и он вам скажет, что создать сайт - это самое простое, а вот раскрутить его и получить стабильный трафик - это труд не одной недели и даже не одного месяца. Это самый настоящий труд, а не виртуальный, как может многим показаться - сидишь себе дома, серфишь по инету и ходишь в банкомат снимать деньги. Так думают только новички интернет-коммерции, те же, кто в этом бизнесе уже много лет скажут, что зарабатывать в инете гараздо труднее, чем в рельной жизни.
Проблема раскрутки может быть не такой острой, если на раскрутку вы можете выделить определенное количество финансов, но еще не все можно купить. Так, можно купить ссылки, но они могут быть не совсем тематическими или по ним не будет переходов на ваш сайт, можно заказать раскрутку через САР (системы автоматической раскрутки - я смотрю ваш сайт, вы - мой), получить первые места в топах, но иметь заказав на сайте. А все потому, что нет целевого, заинтресованного посетителя, которого может дать или поисковик или контекстная реклама (по поводу последней - можно долго спорить, но все же лучше САР и баннеров).
Но главное - не впадать в депрессию, тут действует единый принцип, на котором устроен мир - раз у кого-то получилось, получится и у меня. Главное не пасовать и сидеть сложа руки, расстраиваясь, что на ваш мега-сайт вот уже несколько месяцев нет посетителей. Для примера можно пройтись по нескольким сайтам, на которые вы сами попадали через поисковики при поиске софта или реферата - этим сайтам уже по 3 и более лет, на них уже собрано тысячи статей и обзоров программ.
Думаете, что человек взял да набрал все эти тысячи статей за ночь или какую софтину написал, чтобы она за него их сочиняла? Ну в первом случае все ограничено возможностями человека, а во втором - ну кому был бы интересен не текст, а бессмысленный набор слов? Все дело в постоянном добавлении новых статей, разделов, рубрик - вот со временем и вырастают такие монстры, не страдающие от нехватки трафика.
Естественно, что раскрутка домашней странички, информационного проекта и интернет-магазина - это разные виды раскруток, разные тактики и методы. Так, для домашних страничек важен ее главный герой, для информационного проекта (онлайн-журнал, газета) важно уделять внимание оптимизации текста, соблюдать частоту употребления ключевых слов, а для интернет-магазина нужно больше мультимедийной рекламы (баннеры, флеш, промоакции, покупка рекламных блоков, партнерские программы) чтобы сделать магазин узнаваемым.
Ясное дело, что при раскрутке любого ресурса нельзя ограничиться только одним, или двумя способами, большое значение имеет комплексный подход. Применение любого способа “в отрыве” от остальных даст слишком слабый, либо кратковременный результат. Ни первое ни второе неприемлемо для вашего сайта.
Результаты мероприятий по раскрутке требуется как-то измерять. Обычно это делается с помощью систем статистики, или счётчиков. Речь о них пойдёт в следующей статье.
|
|
|
Поисковые механизмы продолжают эволюционировать, становятся все более изощренными и усложненными, в то же время упрощаются их пользовательские интерфейсы, и размеры накопленных баз данных экспоненциально увеличиваются. Впрочем, постоянное развитие в этой области и неудивительно спрос на поиск нужной информации в Сети будет только расти, причем с каждым годом как пользователей, так и данных будет становиться все больше.
Поисковая индустрия также выглядит лакомым кусочком пирога для многочисленных стартапов, которые не прочь попробовать себя в этой области. Лидером здесь можно стать если не за считанные сутки, то за несколько месяцев, о чем свидетельствует история успеха Google. Два года назад о компании знали только энтузиасты, и еще недавно ссылались на данный поисковик как на "разработку студентов Стэнфордского университета", отмечая, что Google "имеет реальные шансы стать одной из самых авторитетных служб в своем классе".
Сегодня за место лидера рынка постоянно соревнуются две компании американская Google и норвежская FAST, и поэтому неудивительно, что в данном материале речь в основном пойдет именно о нововведениях этих фирм.
Файловые форматы
Признавая тот факт, что Internet постоянно пополняется большим количеством информации, которая не всегда выкладывается в формате HTML, Google сообщил о поддержке файловых форматов Microsoft Office. Таким образом, сегодня команда "Поиск" в Google, кроме HTML-документов, выдаст файлы форматов PostScript, Rich text Format, Lotus1-2-3, Lotus WordPro, MacWrite, Microsoft Word, Microsoft Excel и MicrosoftPowerPoint. До этого поисковик также успешно находил и PDF-документы.
Поддержка новых форматов вызвала немало проблем и даже курьезов. Сисадмины и специалисты по компьютерной безопасности наверняка не обрадуются поддержке форматов Microsoft Office. Теперь, щелкнув по ссылке, которая ведет на документ Word, пользователь имеет все шансы запустить у себя на машине макрос, и нет никакой гарантии, что он не причинит вреда. Именно для таких случаев Google предоставляет возможность ознакомления с HTML-версией документа, однако поддержка новых форматов влечет за собой новые проблемы для домашних пользователей теперь компьютерные вирусы можно будет получать прямо из поисковика.
Для более грамотных пользователей новые файловые форматы, несомненно, представляют ценность, так как в слайдах PowerPoint в Internet часто выкладывается учебная и деловая информация, а Excel является общепринятым способом распространения прайс-листов.
Специализация поиска
Норвежские разработчики также предпочли не просто наблюдать за рынком, а развивать специализированные услуги своего поисковика.
FAST запустила поиск новостей, являющийся, как утверждают разработчики, обладателем "желтой майки лидера", если вести речь о скорости. Ежедневно FAST News Search обрабатывает около 3 тыс. ресурсов, которые обновляются в режиме реального времени, как и положено новостийно-информационным изданиям. "Паук" от FAST индексирует около 800 статей каждую минуту.
В данном направлении ведут разработки и отечественные компании. Как сообщил нашему изданию Алексей Чуксин, директор по маркетингу компании"МЕТА", в рамках украинского поисковика создан "динамический индекс", который позволяет вносить обновленные страницы в базу данных"на лету", не замедляя таким образом скорость работы поиска.
Потенциально данная технология может быть использована для организации поиска новостей и обновлений, а также в качестве внутреннего поисковика для крупных сайтов. Разработчики "META" сегодня переводят на динамический поиск сайты своих клиентов, среди которых финансовый сервер Finance.com.ua, банковский Ukrsibbank.com и портал Volia.com.
FAST также предложила весьма интересную концепцию кластеризации результатов поиска. За основу технологии FAST Topics взят открытый каталог Dmoz.org, на его базе сделаны тематические подборки сайтов, которые затем объединяются в кластеры с общей тематикой. Введите "ukraine" в поисковике FAST, и всписке папок будет представлено девять категорий для возможного сужения поиска.
Релевантность
Даже самые громогласные тирады о всемогуществе современных поисковиков зачастую прекращаются, когда их создатели говорят о релевантности. Алгоритмы определения релевантности для ранжирования документов постоянно находятся в стадии разработки. Спаммеры поисковиков, с одной стороны, и добросовестные маркетологи сайтов, с другой, ведут борьбу за право оказаться в списке первых на странице с результатами поиска.
С ноября 2001 г. "МЕТА" для определения релевантности украинских сайтов начала использовать алгоритмы PageRank, где место в списке результатов зависит и от количества ссылок на документ. Google, которая возникла фактически благодаря технологии PageRank, на этот раз решила еще более усложнить путь для недобросовестных "раскрутчиков".
Разработчики Google тестируют технологию, которая позволит пользователям самостоятельно определять релевантность сайта, таким образом голосуя за более информативные ресурсы и исключая из списка результатов поиска сайты, не имеющие никакого отношения к запросу. Теоретически это может даже развязать руки спаммерам, голосующим за свой сайт с различных компьютеров, однако Google рассчитывает на то, что многомиллионная аудитория, ежедневно пользующаяся поисковиком, в целом будет рационально относиться к "избираемым" сайтам.
Быстрее, выше, сильнее?
Как оказалось, олимпийские лозунги не всегда обеспечивают позитивное отношение к поисковикам со стороны пользователей. По мере расширения своей базы данных и увеличения кэша на жестких дисках компании Google пришлось столкнуться с противодействием со стороны Web-мастеров. Google индексирует документы, не предназначенные для публичного использования, Google сохраняет на своем жестком диске копии документов, которые по каким-то причинам должны быть уничтожены, Google ставит под удар платные сайты, требующие денежной мзды за доступ к архивам с более старыми статьями.
На все эти обвинения компания реагирует весьма корректно. Что касается индексирования документов, которые выкладываются на серверы, однако не предназначены для посторонних глаз, представители Google утверждают, что их робот никогда не проиндексирует информацию, доступ к которой запрещен. Не будучи взломщиком, робот, тем не менее, индексирует все, что находит, и тот факт, что конфиденциальные документы попали в око "паука",свидетельствует о том, что неправильно был оформлен файл robots.txt или же администратор не принял должные меры защиты.
Для желающих уничтожить копии своих файлов на дисках Google (а туда, напомним, сейчас попадают и документы PDF, и Microsoft Word), Google представляет такую возможность на сайте для Web-мастеров.
Что касается расширения баз данных поисковиков, то здесь решили не останавливаться на достигнутом и разработчики "МЕТА" робот, по словам Алексея Чуксина, теперь поддерживает настройку полей для поиска структурированной информации (а проще говоря, может получить доступ и проиндексировать базу данных).
С миру по нитке
Что еще произошло в мире поиска за последнее время? Портал Yahoo! согласился сотрудничать с платным поиском Overture (ранее известным как Goto.com), и таким образом на Yahoo! теперь будут появляться платные ссылки, которые будут четко обозначены как коммерческие результаты. Overture, готовясь выйти на прибыль уже в ближайшее время, сумела доказать большинству пользователей, что продажа ссылок за деньги не есть что-то неприличное, а наоборот весьма прибыльный бизнес при условии, что посетитель четко осознает ангажированность результатов.
FAST внедрила свои поисковые технологии в Lycos. Две компании издавна являются партнерами, однако долгое время поиск в Lycos занимал последние места по части объема базы данных и релевантности ссылок. Новая версия поискового ядра от FAST способствует укреплению имиджа Lycos как поисковой машины для Web. На обновленное ядро перешла и российская версия портала, расположенная по адресу www.lycos.ru. Как сообщил"Компьютерному Обозрению" генеральный продюсер российской Lycos Андрей Себрант, основной задачей для разработчиков компании в ближайшее время станет ускорение индексации русскоязычных новостей и интеграция данного сервиса в Lycos.ru. Также одной из ключевых задач сегодняшнего дня является наращивание мультимедийной базы для поисковой машины.
Немного странно не видеть в данном обзоре Inktomi, которая обычно шествовала в колонне лидеров данного рынка. Компания в последнее время направляет свои усилия на корпоративный сектор, хотя игнорировать такого крупного игрока на рынке Internet-услуг пока что нельзя вряд ли Inktomi согласится стать побежденной в гонке лидеров, и вполне возможно, что скоро FAST и Google получат в ее лице достойного конкурента.
|
|
|
Дата: 18.01.2025
Модуль:
Категория: Хостинг
В мире информационных технологий такое понятие, как доступность сайта - это одна из самых важных составляющих. В Сети уже есть достаточное количество сервисов, с помощью которых можно проследить “доступность” (uptime - время работы). В данной статье рассмотрим три таких сервиса, один из которых работает на русском языке.
Бинoкль (http://www.binokl.info/) - изначально сервис разработан для хостинг-компаний, веб-мастеров и интернет-провайдеров. В зависимости от выбранного тарифного пакета проверка доступности (uptime'а) вашего сервера происходит через 15, 20 или 30 минут.
Если вам лень каждый раз заходить в раздел статистики и смотреть показатели работы хостинга, то можно настроить автоматическое уведомление на e-mail, когда ваш сервер будет недоступен. Предусмотрена и отправка отчетов за определенны интервал времени - раз в неделю, месяц.
Есть возможность установить у себя на сайте графическую кнопку, которая будет информировать о том, что ваш сайт находится под наблюдением сервиса "Бинокль". Единственный недостаток такой кнопки - это ее информативность лишь в популяризации сервиса, потому как числовых данных она не выдает.
mon.itor.us (http://mon.itor.us/) - uptime сервис от американской компании. Очень информативен и предлагает возможность контроля множества параметров. Информация может выводиться в виде графика, таблицы или диаграммы - это кому как удобнее и понятнее воспринимать. Также можно организовать получение уведомлений через e-mail. Среди недостатков - это удаленность сервера от просторов рунета, что, естественно, замедляет проверку хостинга на доступность.
Montastic (http://montastic.com/) - простой (можно сказать, что даже очень простой), но, тем не менее, удобный сервис для определения uptima'а. Здесь статистика отсутствует как таковая, и вообще есть только два состояния - работает и не работает. Но изюминка в способах того, как вы узнаете статус сайта - это и рассылка по электронной почте, подписка на RSS и даже Yahoo Widget.
Интерфейс, как и функциональность весьма прост, просто вводите адрес сайта, e-mail и все! В принципе если вы не заморачиваетесь подсчетом денег, которые вы потеряли пока ваш сайт не работает или у вас нет желания высылать подробные жалобные письма в адрес своего хостера, то этот сервис то, что вам надо.
Сделаем выводы:
mon.itor.us - следует использовать только в том случае, если ваш сайт (а желательно и вы тоже) живет близко к этому сервису, то он просто идеально подходит для вас, только следите чтобы ваш сайт работал всегда.
Montastic - этот сервис для тех, кому нужен ответ - работает/не работает сайт
Бинoкль - подробный, надежный и главное что на русском языке.
|
|
Внимание! Если у вас не получилось найти нужную информацию, используйте рубрикатор или воспользуйтесь поиском
.
книги по программированию исходники компоненты шаблоны сайтов C++ PHP Delphi скачать
|
|