Semonitor - это программа для раскрутки сайта. Она состоит из набора утилит, охватывающих различные стороны процесса оптимизации. Предлагаемые решения просты в использовании и успешно применяются как профессионалами, так и начинающими оптимизаторами. Модуль "Определение позиций" - программа, позволяющая узнать, какие позиции ваш сайт занимает в поисковиках по выбранным ключевым словам. Поддерживаются все российские поисковые системы. Кроме традиционной "большой тройки" - Яндекс, Рамблер, Апорт - Semonitor поддерживает также Google.ru и, ставшие популярными в последнее время, Mail.ru и Km.ru. Из международных поисковых систем представлены Google, Yahoo, MSN, AltaVista и другие (всего более 30).
Модуль "Внешние ссылки" - программа для анализа внешних ссылок на ваш ресурс. Большое количество внешних ссылок является одним из определяющих факторов успешной раскрутки в поисковых системах. Semonitor позволяет составить наиболее полный список ссылок на ваш проект, отслеживать их динамику (выявлять новые и устаревшие), а также анализировать конкурентов и искать тематические ресурсы для обмена ссылками. Модуль "Индексация сайта" - программа для проверки индексации сайта поисковыми системами. Прежде чем страница сможет попасть в результаты поиска по ключевым словам, она должна быть проиндексирована поисковыми системами. Semonitor позволяет определить все страницы вашего сайта, присутствующие в индексе того или иного поисковика. Модуль "Лог анализатор" - предназначен для анализа лог-файлов. Позволяет оценить посещаемость ресурса, поисковые запросы, рефереры, географию посетителей и многое другое. Модуль "Page Rank анализатор" - позволяет автоматически определять Google PageRank, тематический индекс цитирования Яндекс (ТИЦ), число внешних ссылок и присутствие в каталогах Яндекс, DMOZ и Yahoo для заданного списка веб-адресов (УРЛ). Модуль "Подбор ключевых слов" - используя различные источники, подбирает релевантные ключевые слова, а также оценивает уровень конкуренции по ним. Модуль "HTML анализатор" - программа для анализа содержимого html страниц. Позволяет определять вес и плотность ключевых слов на странице, искать ключевые фразы и словосочетания. Может быть использована как для предварительного анализа собственного проекта, так и для анализа конкурентов. Модуль "Google дата-центры" - программа для проверки позиций на всех дата-центрах Google, будет полезна при плотной работе с этой поисковой системой. Модуль "Работа со сниппетами" - описания (сниппеты), выдаваемые поисковыми системами для вашего ресурса также очень важны. Привлекательное описание заставит посетителей выбрать именно вашу ссылку среди прочих, предложенных поисковой системой. Программа позволяет вести историю и анализ таких описаний. Использование программы Semonitor позволяет автоматизировать процесс раскрутки сайта, что дает значительную экономию времени при работе над проектом, а также позволяет добиться лучших результатов.
При помощи утилиты Site-Auditor Вы сможете быстро собрать данные, необходимые для оценки видимости сайта в Рунете.
Одним кликом Вы получите все необходимые данные из основных поисковых сервисов, используемых в российском сегменте Интернета, а именно: Яндекс, Рамблер, Апорт, а также в наиболее популярных международных сервисах Google и Yahoo.
Кроме того, в случае, если на анализируемом сайте будет обнаружен счетчик Рамблер ТОП100, утилита соберет данные о количестве посетителей и просмотренных страниц за последние 7 дней. Если будут обнаружены счетчики иных статистических систем, то на них будут даны ссылки.
В данный момент система определяет наличие следующих, наиболее популярных счетчиков статистики:
Рамблер Top100,
Mail.ru,
LiveInternet (RAX),
SpyLog,
HotLog.
Утилита позволяет получить позиции сайта в выдаче Яндекс, Рамблер и Google по выбранному списку запросов (семантическому ядру).
Все собираемые данные сохраняются на вашем компьютере и позволяют Вам отслеживать историю изменений.
В нижней части окна утилиты находиться информационное поле, в котором отображаются объявления и новости по SEO тематике. Это позволит Вам всегда быть в курсе последних новостей и событий, происходящих на рынке SEO услуг.
Экспресс-анализ
В разделе "Экспресс-Анализ" Вы можете собрать основные данные о текущем уровне оптимизации сайта.
Проведение исследования выполняется следующим образом. В верхней части окна программы находится поле http://, в которе Вам нужно ввести адрес исследуемого сайта. По нажатию кнопки Проверить программа производит сбор данных.
С помощью программы Вы можете получить следующую информацию об анализируемом сайте:
Индексы цитирования Яндекса - ТИЦ и Google - PageRank;
Количество страниц, проиндексированных поисковыми системами Яндекс, Рамблер, Google, Апорт и Yahoo.
Количество ссылок на сайт, обнаруженных поисковыми системами Google, Яндекс, Yahoo.
Данные о наличии сайта в каталогах Яндекс, Рамблер Top100, Апорт и DMOZ.
Если на сайте будут обнаружены счетчик Рамблер Top100, утилита соберет данные о количестве посетителей и просмотренных страниц за последние 7 дней.
Если будут обнаружены счетчики статистических систем Top.Mail.ru, LiveInternet (Rax), SpyLog, HotLog, то будут даны ссылки на страницы этих поисковых систем.
Одновременно со сбором данных производится анализ титульной страницы сайта на наличие на странице следующих тегов и блоков информации:
HEADER — содержит заголовок ответа сервера. В случае, если в процессе получения ответа произошло перенаправление сайта (HTTP Redirect), на кнопке HEADER появится признак R. При клике на кнопку в информационном окне будут показаны заголовки, выданные web-сервером при перенаправлении и выдаче страницы. Для получения дополнительной информации по заголовку можно воспользоваться внешним сервисом HTTP Header.
TITLE — показывает содержимое тега <title>. На кнопке в скобках отображается кол-во символов содержимого тега.
KEYWORDS — показывает содержимое тега <meta keywords>. На кнопке в скобках отображается кол-во символов содержимого тега.
DESCRIPTION — показывает содержимое тега < meta description>. На кнопке в скобках отображается кол-во символов содержимого тега.
ROBOTS.TXT — показывает содержимое файла robots.txt. В случае, если в файле обнаружено правило, полностью запрещающее индексацию сайта (Disallow: /), на кнопке выводится предупреждение в виде восклицательного знака.
A — показывает содержимое тегов <a>. На кнопке в скобках отображается общее количество обнаруженных ссылок и количество ссылок, на внешние сайты. Домены третьего уровня, за исключением www, считаются внешним.
H — показывает содержимое найденных тегов c <h1> по <h6>. На кнопке отображаются только найденные номера тегов. Так текст кнопки H 146 означает, что на титульной странице обнаружены теги <h1>, <h4> и <h6>. При клике на кнопку содержимое тегов будет показано в информационном окне в порядке возрастания номера тега.
NOINDEX — показывает содержимое тега <noindex>. В тексте кнопки в скобках показывается количество обнаруженных тегов.
STRONG, B - показывает содержимое тегов <strong> и <b>. При клике на кнопку в информационном окне будет показано, сначало содержимое тегов <strong>, затем <b>.
EM, I — показывает содержимое тегов <em> и <i>. При клике на кнопку в информационном окне будет показано, скачало содержимое тегов <em>, затем <i>.
Текстовое окно, в которое производится выдача информации по кнопке, при необходимости может быть увеличено с помощью кнопки
Выпадающее меню Внешние сервисы позволяет провести дополнительный анализ сайта:
WHOIS — позволяет получить информацию о владельце домена и времени регистрации (возрасте) сайта.
Traceroute (RU) и Traceroute (COM) — позволяет дать оценку времени прохождения IP-пакета до анализируемого сайта в российском сегменте Интернета и для зарубежных посетителей.
WayBack Machine — уникальный сервис, позволяющий увидеть историю развития сайта.
HTTP Header — позволяет детально изучить заголовоки http-ответа сервера с дополнительной информацией: что означает та или иная строка в заголовке.
График загрузки — предоставляет детальную информацию по времени загрузки всех элементов титульной страницы сайта. Позволяет выявить узкие места и повысить скорость ответа сайта.
Поиск дубликатов — позволяет обнаружить в сети сайты, похожие на анализируемый.
В левой части экрана находятся список проанализированных сайтов и история прошедших проверок. При выборе из списка сайта, в соответсвующих полях показываются данные, полученные в ходе последней проверки. При выборе даты отображаются данные, полученные на момент выбранной даты.
Настройки
В окне настроек на вкладке Данные перечислено, какие виды данных требуется собирать при анализе сайта. Если какие-то данные собирать не требуется, то их можно исключить из обработки и тем самым ускорить сбор информации. Для этого требуется снять пометку с соответствующих чекбоксов.
На вкладке Копирование Вы можете указать, какие именно данные требуется копировать в буфер обмена при нажатии кнопки копировать в буфер.
Кроме того, можно выбрать тип разделителя строк для удобства копирования в документы разных форматов. Так для копирования в MS Excel следует выбирать "\n", а для копирования таблицы, находящейся в MS Word в качестве разделителя строк следует выбирать "\t".
Подбор запросов
Данный сервис позволяет составить список целевых запросов (семантическое ядро) для исследуемых сайтов.
Для этого в поле "Проверить запросы" нужно указать список слов или фраз, близких к тематике сайта.
После нажатия кнопки Проверить утилита получит список поисковых запросов, которые пользователи задавали в поисковом сервисе Рамблер в течение прошедшего месяца и которые содержат слова, указанные в поле "Проверить запросы". Частота запросов обозначает, сколько раз их задавали в течение последних 30 дней.
После того, как список запросов будет загружен в поле "Варианты запросов", Вы можете отметить интересующие Вас запросы и скопировать их в список "Выбранные запросы" нажатием кнопки Выбрать или двойным щелчком мыши.
Если в список "Выбранные запросы" попал ненужный вариант запроса, его можно удалить, выбрав его и нажав кнопку , которая появляется в правом нижнем углу списка в момент выбора запроса. Так же удалить ненужный запрос можно двойным щелчком мыши.
Удерживая клавиши Ctrl или Shift, в списке можно одновременно выбирать сразу несколько строк.
После того, как список "Выбранные запросы" окончательно сформирован, его можно скопировать нажатием кнопки Перенести в раздел "Видимость сайта". При этом также происходит переход в раздел "Видимость сайта".
Если Вам необходимо проверить видимость сайта для уже существующего семантического ядра, частоту которого повторно проверять не требуется, список запросов можно перенести напрямую из поля «Проверить запросы» в раздел «Видимость сайт», нажав кнопку «Скопировать запросы», находящуюся справа от поля.
Видимость сайта
Сервис "Видимость сайта" позволяет получить сводный отчет о положении анализируемого сайта в результатах поиска Яндекса, Рамблера и Google по выбранным поисковым запросам.
Для сбора информации о позициях необходимо нажатием кнопки Перенести скопировать список выбранных запросов, сформированный в разделе "Подбор запросов", указать URL анализируемого сайта и нажать кнопку Проверить.
После окончания сбора данных в списке отобранных запросов будут указаны позиции сайта в результатах поиска поисковых систем.
Если рядом с числом, обозначающим номер позиции, находиться точка, это означает, что ссылка из результатов поиска введет на титульную страницу анализируемого сайта.
При щелчке мышью на номер найденной позиции открывается окно браузера, в которое загружается страница, ссылка на которую была найдена в результатах поиска.
В левой части экрана находятся список проанализированных сайтов и история прошедших проверок. При выборе одного из сайтов в соответствующих полях показываются данные, полученные в ходе последней проверки. При выборе даты, показываются данные, полученные на момент выбранной даты.
Если возникла необходимость отредактировать список запросов, необходимо нажать кнопку Редактировать список запросов. При этом текущий список будет скопирован в поле "Выбранные запросы" в раздел "Подбор запросов". Там его можно редактировать, как это описано в разделе "Подбор запросов
Firefox - Завоевавший множество наград веб-браузер стал ещё быстрее, безопасней и проще в настройке при работе в Интернете. В Firefox 3 добавлено множество новых полезных возможностей, улучшающих ваше путешествие по Сети. К существующим в Firefox защитам от программ-шпионов, вирусов и всплывающих окон теперь добавлена защита от мошеннических (фишинговых) сайтов. Firefox 3 имеет огромное количество дополнений расширяющих возможности веб-браузера.
Яндекс-версия - это специальная версия браузера со встроеным Яндекс Баром, который предоставляет ряд полезных возможностей (поиск по Яндексу, перевод текста, уведомления о новой почте, прогноз погоды, лента новостей и т.д.).
Формат PDF был разработан фирмой Adobe Systems, чтобы решить проблему единства отображения и обработки полиграфической продукции в различных информационных средах (его кроссплатформенность) и довольно успешно справляется с этой задачей и по сегодняшний день. Однако со временем у этого формата появилось и иное предназначение. Универсальность этого формата спровоцировала рост его популярности, а, следовательно, увеличилось и количество публикаций, доступных в этом формате в электронном виде в Интернете.
Изначально файлы формата PDF в сознании многих людей ассоциировались именно с качественным уникальным контентом, т. к. с его помощью часто публиковались и публикуются различные отчёты, доклады, статьи, руководства и другая полезная информация. Конечно, было бы глупо упускать такой источник полезной информации. Со временем все популярные поисковые системы научились индексировать файлы PDF и ранжировать их, что автоматически поставило их наравне с привычными для нас файлами в формате HTML (веб-страницами).
Нам же важно не упустить возможную выгоду и научиться правильно оптимизировать файлы подобного рода для поисковых систем, чтобы обеспечить их лучшую видимость в результатах поиска. Долгое время файлы PDF воспринимались исключительно как файлы-архивы, для открытия которых необходимо было их загружать на компьютер и читать в сторонней программе (Например, в Adobe Reader – программе для просмотра формата PDF). Так было раньше, сейчас же многое меняется: значительно увеличиваются скорости Интернета, появляются встроенные в браузер плагины для чтения формата PDF, позволяющие просматривать файлы сразу же в браузере. Например, уже сегодня в браузере Opera можно читать файлы PDF прямо на сайте онлайн. А это всё прямое свидетельство того, что популярность этого формата в обозримом будущем будет только расти. Это теперь не только универсальный формат для хранения и редактирования полиграфии, но также и способ передачи информации в Интернете (выполняющий функции обычной веб-страницы).
В этой статье я старался систематизировать информацию, осветив как можно больше фактов, влияющих на индексацию поисковыми системами документов этого формата в Интернете, а также ответив на самые распространённые вопросы, которые возникают у веб-мастеров, использующих эти файлы на своих сайтах.
Любой веб-мастер и seo-оптимизатор должен понимать, что файл PDF - это такая же страница сайта, как и файл в формате HTML. Как правило, на этот файл ссылаются так, что он является тупиковым для поисковой системы, т. к. в нём почти никогда не содержатся ссылки на другие страницы сайта, а зря. Каждый PDF-файл (как и страница HTML) находится в индексе поисковых систем, следовательно, имеет и свой поисковый вес, передаваемый по ссылкам (вИЦ или PR, если хотите). Я настоятельно рекомендую вам в любом файле PDF, выложенным на сайте, делать ссылки на обычные HTML-страницы сайта и на другие страницы PDF (можно даже продублировать навигацию основного сайта). В данном случае вы будете только в выигрышном положении, т. к. помимо передачи поискового веса по ссылке, посетитель, скачав файл PDF с вашего сайта и ознакомившись с информацией в нём, может к вам вернуться, щёлкнув по ссылке, ведущей на ваш сайт из скачанного документа. К тому же файл PDF редко редактируется, поэтому часто сохраняется в первоначальном виде, а также как файловый архив может стремительно распространяться через различные файловые хостинги, а это, опять же, новые пользователи для вашего сайта (тот редкий случай, когда поисковая оптимизация напрямую влияет на непоисковое продвижение).
ПРОГРАММЫ ДЛЯ РАБОТЫ С ФАЙЛАМИ PDF
Для создания файлов PDF используйте программу Adobe Acrobat, т. к. она имеет целый арсенал средств, которые способны максимально качественно оптимизировать наши файлы. Несмотря на это, можно (но не рекомендуется) использовать и другие программы. Например, для создания файлов PDF вы можете использовать связку программ Adobe Pagemaker и Adobe InDesign или текстовые редакторы наподобие Word из пакета Microsoft Office или Write - из OpenOffice. Когда будете использовать текстовый редактор Word для создания документа формата PDF, то используйте теги H1, H2, H3 и другие подобные для оптимизации текста документа. Вы должны сделать полученный текст базирующимся на языке HTML, чтобы поисковые системы эффективно его индексировали.
Не используйте программы типа Photoshop и Illustrator, т. к. после обработки документа на выходе информация превращается в одно большое изображение, текст на котором не распознать поисковым системам. Однако часто случается и то, что у веб-мастера уже есть большое количество PDF-файлов, полученных от заказчика, или же специфика темы на сайте такая, что по ней есть информация в электронном виде только в этом формате. Если у вас именно такой случай, то не отчаивайтесь. Сейчас активно разрабатываются программы, способные распознавать текст на изображениях, что позволяет модифицировать текст на изображениях в обычный текст, который индексируется поисковыми системами. В России довольно успешно распознаванием текстов занимается компания ABYY. К примеру, вы можете воспользоваться их конвертером Abbyy PDF Transformer. Хочу сразу заметить, что это довольно уникальный продукт, аналогов которому почти нет. В его возможности входит конвертирование текста на картинках PDF в текст, способный индексироваться поисковыми системами.
Несколько слов, я думаю, можно сказать и про программы конвертеры. Если же вы решили, что по каким-то причинам формат PDF на сайте вас не очень устраивает, а контент вашего сайта состоит, в основном, из файлов PDF, то у вас есть возможность переконвертировать эти файлы в формат HTML, используя различные бесплатные и платные PDF конвертеры.
Вот небольшой список таких конвертеров:
* Advanced PDF to HTML
* Comfortable PDF to HTML
* Easy PDF to HTML
* Adobe Acrobat Pro Extended – это конвертер компании Adobe, но известно, что оптимизаторы испытывают сложности с этой программой.
Теперь, я думаю, самое время поделиться с вами секретами оптимизации файла PDF для поисковых систем.
ИЗОБРАЖЕНИЯ
Не используйте слишком много изображений или изображения большого размера. Картинки хоть и улучшают внешний вид, однако также увеличивается размер файла и время его загрузки. Как и на HTML-странице, если вы поставите много изображений (особенно неоптимизированных), то это потребует больше времени для их загрузки в браузер. Но помимо оптимизации размера изображений PDF-документа, необходимо также оптимизировать и подписи (альтернативный текст) к ним. У каждого изображения документа должна быть своя подпись, как к картинкам обычной HTML-страницы.
РАЗМЕР ФАЙЛА
Нужно всегда помнить, что поисковые системы не индексируют файлы, которые слишком много весят. Например, поисковая система "Яндекс" не будет индексировать файлы весом больше, чем 10 Мб, отсюда следует правило, что файл PDF не может быть больше 10 Мб.
Если говорить про оптимальный размер PDF-файла, то многие seo-оптимизаторы считают его величину в пределах 500 - 1000 Кб, т. к. с файлами именно таких размеров происходит меньше всего ошибок, связанных с индексацией файлов.
Для оптимизации размера в программе Adobe Acrobat есть специальная функция: Advanced > PDF Optimizer.
Внимание! При создании PDF-документа в любом редакторе обращайте внимание на версию получаемого файла. Рекомендуемая версия – 1.5 и ниже, т. к. такой файл гарантированно будет читаться всеми программами для просмотра PDF и роботами поисковых систем. Формат PDF позволяет оптимизировать также и копию документа, поэтому по возможности оптимизируйте и её.
ТЕКСТ ФАЙЛА
Старайтесь избегать большого количества текста в одном файле PDF, дробите один файл на несколько файлов, причём, линкуйте их ссылками внутри каждого такого документа (так, как бы вы это делали с обычными HTML-документами).
Оптимизируйте текст файла PDF под конкретные ключевые запросы, а здесь надо уделять внимание таким же показателям, как и на обычной веб-странице (плотность ключевых слов не выше 5% и прочим). Если вы хотите получить хорошо индексируемый и релевантный поисковым запросам контент PDF-документа, вы должны стараться избегать нагромождения страниц в нём. При внутренней оптимизации текста, а именно: заголовков и подзаголовков, ключевых слов и фраз, необходимых для вашего документа, - будьте очень осторожны, чтобы файл не выглядел заспамленным и не вылетел, в итоге, из индекса поисковых систем.
Если ваш файл PDF разбит на несколько частей, то настройте порядок отображения этих частей. От порядка чтения документа зависит то, какая информация будет предоставлена поисковому роботу сначала, а какая - потом. Помните, что наибольшую поисковую значимость имеют ключевые слова, находящиеся ближе к началу документа, поэтому если в документе обратное, то вам стоит перестроить логическую последовательность частей вашего PDF документа, чтобы выделить наиболее важные части и улучшить их поисковую видимость в Интернете.
Сделайте оглавление (поисковую карту документа), каждый пункт этого оглавления оформите ссылкой (закладкой) внутри PDF документа, для каждой ссылки пропишите ключевые слова в описании ссылки. Этот приём наиболее эффективен для документов, состоящих из нескольких логический частей и с большим количеством страниц – он обеспечивает качественную внутреннюю перелинковку документа, позволяющую эффективно индексировать документ поисковым роботам.
Если вы хотите создать справочник, руководство или другой документ, предполагающий большой объём информации в одном файле, то я рекомендую создавать подобные документы в формате DjVu. Страницы документов (контент) в этом формате не индексируются поисковыми системами. Но если по каким-то причинам у вас не получается уменьшить размер PDF-файлов и разбить их на несколько отдельных файлов, то можно воспользоваться очень удобной функцией в программе Adobe Reader - Optimize for Fast Web View, позволяющей просматривать уже загрузившиеся страницы документа, не дожидаясь его окончательной загрузки. Это удобно для тех пользователей, кто будет просматривать ваш PDF-файл непосредственно на вашем сайте в режиме онлайн.
ДОПОЛНИТЕЛЬНАЯ ИНФОРМАЦИЯ (МЕТАПОЛЯ)
Очень важно заполнить всю дополнительную информацию о вашем файле PDF. Уделите особое внимание таким тегам как: Title (заголовок), Author (автор материала), Subject (тема), Keywords (ключевые слова документа), Descriptions (описание PDF-документа) и Copyright (авторские права). Все эти настройки можно найти в программе Adobe Acrobat в меню File > Document Properties. Метаданные файла PDF имеют схожее происхождение с метатегами файлов HTML, так что уделяйте им особое внимание при оптимизации.
КОДИРОВКА, ШРИФТЫ И РАСПОЛОЖЕНИЕ ФАЙЛА
Несколько слов нужно сказать и про оптимизацию шрифтов. Не забывайте включать в сам файл все необходимые (нестандартные) шрифты. Довольно часто для декоративных целей используются самые разнообразные и редкие полиграфические шрифты, которые могут плохо восприниматься поисковыми системами, поэтому, по возможности, старайтесь пользоваться стандартными шрифтами (Arial, Helvetica, Sans-Serif, Times New Roman и другими), которые хорошо индексируются поисковыми системами. Их плюс в том, что они присутствуют по умолчанию в любой операционной системе, поэтому из документа PDF их можно спокойно исключить, уменьшив тем самым размер файла.
Шрифты, которые не были добавлены в PDF-документ или отсутствуют в операционной системе, будут отображаться тем шрифтом, который имеется (самым близким по значению), что может привести к нежелательным последствиям, а именно к увеличению или уменьшению числа страниц, количества символов в строках, межстрочного интервала и других проблем метрики.
Довольно болезненный параметр для поисковых систем - кодировка файла. Если поисковая система не сумеет определить кодировку вашего PDF файла самостоятельно, то документ вообще не будет проиндексирован, поэтому всегда проверяйте, указана ли она. Желательно использовать самые известные и популярные кодировки.
Ваш файл PDF, как и обычная страница файла, должен быть максимально близок к корню сайта. Ссылайтесь на них ближе к главной странице, не пытайтесь засунуть его глубоко в структуру сайта, чтобы не понизить поисковую значимость вашего PDF документа.
Не давайте вашим документам в формате PDF слишком сложные имена. Упрощайте их. Несколько слов в названии самого файла разделяйте символом "_". Например: imya_documenta.pdf. Также для разделителя можно использовать и символ "-", но я рекомендую использовать первый вариант.
После всех проделанных операций по оптимизации можете выкладывать файл на сайт. Поисковые системы найдут файл, проиндексируют его и начнут выводить в результатах поиска, и если материал интересен, начнётся самораскрутка его среди посетителей - на файл начнут ссылаться, скачивать и публиковать его в других местах (а сам файл будет с ссылками на ваш сайт). Неплохо, не правда ли?
Напоследок, предоставлю вам пару ссылок, которые могут быть полезны в связи с опубликованным материалом:
http://ru.wikipedia.org/wiki/PDF - общая информация о файле PDF
http://get.adobe.com/reader/ - последняя версия Adobe Reader
http://www.adobe.com/products/acrobat/ - последняя версия Adobe Acrobat
http://www.abbyy.ru/pdftransformer/ - последняя версия Abbyy PDF Transformer
http://www.taurion.ru/acrobat - самоучитель работы в программе Adobe Acrobat
В этом обзоре я постарался ответить на наиболее распространённые вопросы по оптимизации файла PDF, которые задают люди, занимающиеся раскруткой сайтов. Но если у вас появились вопросы или что-то осталось непонятным, то, пожалуйста, сообщайте об этом! Буду рад любым отзывам от вас! Спасибо!
Создавая свой php движок для нового сайта, я, как и всегда не захотел выполнять нудную работу сам и поэтому такое задание как подбор ключевых слов к каждой странице сайта доверил php скрипту, который написал меньше чем за полчаса.
Конечно, многие могут сказать, что поисковики не учитывают мета теги keywords и description, и вовсе незачем голову морочить проблемой подбора ключевых слов, но учитывают или нет, это известно только администраторам поисковых машин. В частности, я недавно проводил эксперимент, в котором участвовало три пары сайтов, на каждой паре сайтов был один и тот же контент, но на одном из сайтов каждой пары были прописаны keywords и description. И что вы думаете, через месяц, все три сайта с keywords и description были выше в выдаче Яндекса, чем их двойники без этих мета тегов. (Примечание: сайты были оптимизированы под абсолютно не конкурентные запросы и не имели бэклинков).
Принцип работы php скрипта, основной задачей которого является “на лету” подбирать к тексту ключевые слова (keywords), заключается в разделении всего текста на слова и занесение их в массив. Из исходного текста сначала удаляются все знаки препинания, затем слова помещаются в массив и каждому слову присваивается число его повторений в тексте. После заполнения массива слова упорядочиваются по количеству повторений, и в качестве результатов берется верхушка массива – 15-25 самых часто употребляемых слов.
А вот и сам исходный код этого php-скрипта для подбора ключевых слов:
Пользоваться данным php классом очень просто, создаете экземпляр класса функцией new а потом вызываете внутреннюю функцию get_keywords(), класса Counter. Вот наглядный пример использования этого класса:
В переменной $content должен содержатся основной текст страницы, для которой создаются ключевые слова. И еще, полученная строка содержит только ключевые слова, без мета тегов. Скачать данный php класс для подбора ключевых слов в zip архиве вы можете здесь.
Добавление сайта в каталоги уже давно и прочно вошло в список наиболее важных инструментов раскрутки и продвижения сайта в сети интернет. Сегодня мы расскажем о том, как с наилучшим результатом добавить свой сайт в каталоги. Есть два пути, при котором регистрация в каталогах влияет на посещаемость Интернет-ресурса:
Во-первых, каталоги предназначены для людей – в них человек может найти сайты по интересующей тематике. Среди таких посетителей каталогов есть и Ваши потенциальные клиенты. Таким образом, это Ваша реклама в каталоге. Примерами таких, приводящих посетителей, каталогов, является Яндекс.Каталог, рейтинг Рамблер.Top100, MAIL.ru и много других. Эти каталоги посещают миллионы пользователей ежедневно.
Во-вторых, любая поисковая система при ранжировании сайтов в выдаче по поисковому запросу учитывает количество и качество ссылок на ресурс, это так называемые индексы цитирования. У каждой поисковой системы он свой. У Яндекса - тИЦ (тематический индекс цитирования, применяется для ранжирования сайтов в Яндекс.Каталоге; можно увидеть на "денежке") и вИЦ (внутренний индекс цитирования, применяется для ранжирования сайтов в поисковой выдаче; не разглашается), у Google - PR (PageRank), у Апорта - ИЦ.
PageRank (PR) – рассчитывается для каждой веб-страницы отдельно, и определяется PageRank’ом (цитируемостью) ссылающихся на нее страниц. Своего рода замкнутый круг. Главная задача заключается в том, чтобы найти критерий, выражающий важность страницы. В случае с PageRank таким критерием была выбрана теоретическая посещаемость страницы.
тИЦ – тематический индекс цитирования – рассчитывается для сайта в целом и показывает авторитетность ресурса относительно других, тематически близких ресурсов (а не всех сайтов Интернета в целом). ТИЦ используется для ранжирования сайтов в каталоге Яндекса.
вИЦ – взвешенный индекс цитирования – аналог PageRank, применяемый поисковой системой Яндекс. Значения ВИЦ нигде не публикуются и известны только Яндексу. Поскольку узнать ВИЦ нельзя, следует просто помнить, что у Яндекса есть собственный алгоритм оценки «важности» страниц.
Добавляя свой сайт в каталог, Вы создаете дополнительную ссылку на него и повышаете таким образом свой индекс цитирования.
Стоит помнить, что просто повышая ИЦ, тИЦ, PR Вы мало чего добьетесь . Думаю, многие наблюдали ситуацию, когда на первой странице выдачи Яндекса вперед выходят сайты, имеющие меньший тИЦ, да и PR, чем у тех, кто занимает более низкие позиции. Для того чтобы использовать регистрацию в каталогах максимально эффективно, необходимо принять во вниманию ссылочное ранжирование. Дело в том, что этот фактор зачастую перевешивает многие другие, влияющие на место в поисковой выдаче.
Каким же образом действует ссылочное ранжирование? Формат гипертекста позволяет «на гиперссылке» ставить произвольный текст. Совпадение текста ссылок со словами поискового запроса (а особо точного вхождения) повышает Ваши позиции в выдаче.
Заметим также, что по низкочастотным запросам поисковики иногда выдают проиндексированные ими страницы каталогов со ссылкой на Ваш ресурс.
Таким образом, перед тем как регистрировать сайт в каталогах, составьте список запросов, по которым Вы хотели бы, чтобы Вас находили в поисковых системах. Для этого можно воспользоваться службами Подбора слов Яндекс.Директа и Статистикой поисковых запросов Рамблера.
Затем составьте несколько названий для Вашего сайта с использованием выбранных Вами ключевых слов. При этом учтите, что оптимальным будет использование словосочетаний, а не только отдельных слов, найденных Вами в статистике. Эти названия будут размещены на ссылке из каталога на Ваш сайт! Использование при регистрации в каталогах несколько названий позволит Вам использовать разные ключевые слова и избежать «превышения лимита» ссылок с одинаковым текстом, которые не учитываются поисковиками.
Названия должны быть осмысленными. Это обусловлено двумя причинами: во-первых, в последнее время поисковые системы очень плохо учитывают ссылки с перечислением ключевых слов через запятые. Во-вторых, большинство каталогов размещают ссылки после предварительной модерации. Те каталоги, которые следят за своим содержанием, с большой вероятностью откажут в размещении такой ссылки либо скорректируют ее на свое усмотрение, а как правило, ссылки именно с этих, серьезно модерируемых каталогов, имеют наибольший вес.
Адрес сайта указывать не обязательно, однако его присутствие в названии повышает Вашу узнаваемость среди многих других конкурентов. Еще раз повторю: не стоит перечислять ключевые слова через запятую, большое количество альтернативных названий позволит Вам использовать все выбранные Вами ключевые слова и даст значительно больше эффекта.
Выбирая рубрики, выбирайте наиболее подходящие. Зачем? Страница из подходящего раздела каталога получается самой подходящей с точки зрения «тематического» цитирования – это раз. Если раздел не подходит, модератор каталога (который тоже человек), может, не вдаваясь в подробности, просто отклонить сайт. Это два.
Для увеличения скорости выбора рубрик используйте Поиск. Обратите внимание на следующее: расставляйте слова в списке, начиная с наиболее подходящих, а затем по убыванию соответствия. В некоторых случаях, когда сложно предугадать, в каком склонении стоит слово в названии рубрики, используйте слова без окончаний. Иногда одно и то же слово может писаться по-разному. Учитывайте и это.
На заметку:
Обязательное условие успешной регистрации в каталогах и поисковиках - правильное описание ресурса и подбор ключевых слов. Иначе эффективность регистрации будет чрезвычайно мала.
Подача заявки на регистрацию еще вовсе не означает, что ресурс будет обязательно зарегистрирован. На это существует масса причин: неподходящая специализация каталога, некорректно составленное описание сайта, выбор неправильной категории, "заморочки" модераторов и проч. В среднем при хорошей предрегистрационной подготовке сайта, ресурс в течение месяца проходит регистрацию в 70-80% каталогов, куда была подана заявка.
Хочется немного осветить вопрос индексации сайта основными поисковиками (к которым относятся грозный и страшный Яндекс, рвущийся к лидерству уже и на просторах русскоязычного поиска Google, скатывающийся назад Рамблер, “всемирный” соперник Гугла Yahoo, ну и непонятно зачем все еще существующий Апорт ).
Проще всего рассмотреть скорость индексации на примере данного сайта. Сайту нет еще даже месяца, поэтому интересна динамика попадания страниц сайта в индекс (выдачу) поисковиков. Немного удивило то, что уже в день появления сайта на просторах всемирной сети (именно физического появления, т.е. момента, когда данные сайта стали доступны) Google каким-то образом успел проиндексировать несколько десятков страниц, и это при том, что сайт в “Google для вебмастеров” не вносился, вручную в Google не добавлялся, на сайт вообще была всего одна ссылка, правда на главной странице более-менее посещаемого (в том числе роботами) мини-портала .
Также в тот же день этот сайт был добавлен в Яндекс.вебмастер - якобы это ускоряет индексацию Яндексом. Как выяснилось - не ускоряет… вообще, складывается впечатление, что хоть какие-то обновления в базе Яндекса происходят раз в неделю, обычно в выходные, при том робот шарит по сайту стабильно - но почему-то на выдачу это никак не влияет.
Следом за Гугле, буквально через день, сайт заметил Яху, примерно столько же страниц - около 60. Несмотря на отстутствие в первые дни sitemap.xml (сейчас в нем чуть более 1600 страниц), Гугле уже за первую неделю проиндексировал более 500 страниц, а через 2.5 недели в базе было 1.5 тысячи страниц, то есть почти весь сайт. Примерно в это же время первые несколько страниц (а именно 4) появились в выдаче Яндекса - впечатляющая скорость. Да, сайт в первый же день был зарегистрирован в каталоге-рейтинге Рамблера, и через пару дней там появился, а вот в выдаче Рамблера до сих пор нет ни одной страницы (код счетчика стоит на каждой странице), Рамблер в этом плане отстает даже от Апорта, в котором уже есть несколько десятков страниц.
Яху меня несколько раз впечатлял скоростью индексации ссылок на сайт - показывал некоторые бэклинки буквально через час-два после их появления, просмотр бэклинков на Яндекс.вебмастер тоже немного порадовал - несмотря на то, что Яндекс знает всего 4 страницы сайта, но тем не менее он уже знает около 20 ссылок на сайт - то есть примерно 70% на данный момент… что не так уж плохо.
Ну вот собственно пока и все, надеюсь из этого коротенького обзора можно сделать кое-какие выводы о скорости попадания сайта в индекс (выдачу) основных поисковиков.
я знал о борьбе Яндекса с белыми каталогами, но если честно - не подозревал о масштабах этой борьбы… А столкнулся я с этой проблемой (а именно “проблемой белых каталогов”) в связи с созданием нескольких новых сайтов и желанием на старте “нахаляву” немного им поднять ТИЦ. Нахаляву - то есть просто регистрируя новый сайт в белых каталогах, работа конечно крайне скучная и нудная, но простая и не требует затрат.
Для чего существуют белые каталоги? Думаю, не открою секрета, если скажу - для поднятия ТИЦ (то есть для поисковиков, а не для людей как бы, вот поэтому Яндекс и банит белые каталоги, особенно те, которые уж очень явно сделаны не для людей).
А чтоб белый каталог был полезен для этого самого поднятия, прямую ссылку с него должен увидеть Яндекс. А если каталог отсутствует в индексе Яндекса, зачем в нем регистрироваться? Есть, конечно, еще и другие поисковики, тот же Гугле, Рамблер, но все-таки большинство усилий SEO направлено именно на Яндекс.
С учетом всего этого я внимательно проверял каждый каталог или рейтинг перед регистрацией, чтобы не выполнять напрасную работу. И вот к какому тоскливому выводу я пришел - большинство подборок и списков белых каталогов оказались абсолютно бесполезны! Беру из списка первые 10-15 каталогов и проверяю такие параметры - ТИЦ, Google PR, наличие в индексе Яндекса и Гугла (кол-во страниц в выдаче).
Итог множества проверок такой: примерно 10-20% каталогов вообще мертвы, то есть просто давно заброшены и не работают, 70-80% имеют ТИЦ, какой-то PR и проиндексированы Google, но! в выдаче Яндекса либо 0 страниц, либо 1-2 - вот и приплыли… и только в среднем 1 из 10 каталогов жив и здравствует… Но это тоже зависит от подборки - в некоторых списках из первых 30-40 каталогов я не находил ни одного рабочего и полезного каталога (не “нулевки”).
Совершенно забавные данные я получил по одному из каталогов (видно, что ранее он был довольно продвинут) - каталог фигурировал под названием “Самый большой интернет каталог”, так вот в индексе Google оказалось 237000 страниц этого каталога! А в Яндексе - 0 (ноль), но Яндекс ТИЦ равен 375 - не так уж плохо, зато Google PR - ноль! вот с таким я столкнулся первый раз, но это уже за торговлю ссылками.
Попадались каталоги с ТИЦ более 1000, но отсутствующие в выдаче Яндекса.
Буквально сегодня видел (и не раз) рекламу в Бегуне - “Регистрируем в 4500 каталогов! Быстрая раскрутка, недорого! Вы сразу получите PR3 и ТИЦ +30?. Вдумываясь в текст, понимаешь истинный смысл - их 4.5 тыщи каталогов дадут вам прирост ТИЦ всего 30! ну а PR3 вообще никак не связано с регистрацией в каталогах - это достигается просто грамотной внутренней перелинковкой сайта, к примеру два наших сайта, запущенные в 2007 году, при первом же апе Google получили PR3, бэклинков к этому времени почти не было, ТИЦ тоже был почти нулевой. Хотя сейчас вроде Google ужесточает раздачу PR, теперь возможно получить “тройку” сразу будет непросто, по крайней мере многие сайты во время прошлого апдейта Google PR получили падение ПР, но опять-таки - большинство из них имели продажные ссылки.
В общем, делаем выводы - стоит ли регистрироваться в белых каталогах, стоит ли пользоваться услугами “оптовых регистраторов”, и как выбирать каталоги для регистрации. Регистрироваться вслепую - напрасно тратить время.
Выбор ключевых слов является одним из важнейших этапов оптимизации сайта под поисковые системы. Так как поисковики являются основным источником целевых посетителей, то этому вопросу надо уделять особое внимание. Правильно подобранные ключевые слова помогут пользователям легко находить страницы сайта, а также повысят их позицию в результатах выдачи по запросу.
Итак, для начала необходимо проанализировать тематику сайта и постараться взглянуть на него глазами посетителя. Цель такого упражнения-разминки – подбор слов и выражений, по которым, на ваш взгляд, производится поиск подобных сайтов.
Теперь можно приступить к детализации задачи, а именно, подбору ключевых слов для каждой страницы сайта отдельно. Большинство начинающих разработчиков при оптимизации допускают одну критическую ошибку, а именно, оптимизируют все страницы под одни и те же запросы. Они не учитывают тот факт, что машины поиска каждую страницу рассматривают независимо от остальных, поэтому необходимо оптимизировать страницы по отдельности, тщательно подбирая для них ключевые слова.
При анализе страницы необходимо написать около двух десятков ключевых слов, из которых попробовать сформировать фразы с учетом возможностей морфологического поиска и расположить слова и выражения в порядке их соответствия тематике страницы.
Например, ваша компания занимается продажей бытовой техники. Вместо использования в тегах HTML-кода и содержимом страниц ключевой фразы “продажа бытовой техники”, нужно уточнить эту фразу в зависимости от содержимого каждой страницы. Если на данной странице внимание сфокусировано, например, на кухонных комбайнах, то теги и текст необходимо оптимизировать именно под это выражение.
Сейчас идет тенденция к оптимизации страниц больше под ключевые выражения, чем под отдельные слова. Это связано с повышением уровня интернет-пользователей, которые для уточнения поисковых запросов из ключевых слов с помощью служебных символов строят ключевые фразы, значительно повышающие релевантность результатов поиска.
Следующий этап - это анализ частоты запросов по пунктам списка, составленного на этапе обдумывания тематики сайта. Здесь уже придется излагать не свое видение сайта, а вооружиться поисковой системой. Желательно брать тот поисковик, в трафике которого вы больше всего заинтересованы.
Составленный список предполагаемых ключевых слов можно проверить, например, с помощью сервиса «Яндекс.Директ» и выделить в нем фразы, сходные с заданными изначально. Далее необходимо посмотреть количество запросов для каждого выражения, выбранного на первом этапе, и попробовать найти фразы-синонимы. Если для них количество запросов будет больше, есть смысл заменить первоначальный вариант.
Чтобы выявить близкие по значению выражения, можно использовать сервис «Рамблер-Ассоциации», который представляет статистику поисковых запросов и работает по принципу «Те, кто ищут [запрос пользователя], ищут также». Сервис предназначен в помощь пользователю, совершившему поиск по какому-либо запросу и не получившему нужной информации. Статистика “ассоциаций” помогает выяснить интересы пользователей, путем анализа списка запросов, схожих с основным. Для выявления англоязычных запросов можно использовать сервис Wordtracker, который в бесплатной версии выдает ограниченные отчеты по поисковым запросам.
Теперь необходимо проанализировать полученную статистику запросов по списку ключевых слов. Если по некоторым из них результаты зашкаливают за десятки тысяч, их однозначно можно убрать из дальнейшего рассмотрения т.к. эти слова используются многими конкурентами. Здесь надо учесть тот факт, что если для оптимизации будет выбрана слишком распространенная ключевая фраза, то потребуется много времени и сил, чтобы взобраться на вершину ранжированного списка результатов. Кроме того, привлеченный таким образом сетевой трафик будет плохо сфокусирован, т.е. процент целевых покупателей будет невелик. С другой стороны, если для ключевой фразы будет получено малое число результатов, то эффективность такой оптимизации также буде невысока.
Чтобы добиться компромисса в этом сложном вопросе, надо брать ключевую фразу, которая является оптимальной для тематики страницы и высоко конкурентной, и добавлять в нее описательные слова или, например, конкретные модели и торговые марки, т.е. конкретизировать представленную на странице информацию.
Часто многие сайты для привлечения большего числа посетителей используют для ключевых слов практически на всех страницах выражения типа “все модели”, “весь модельный ряд”, “огромный выбор” и т.д. Если на вашем сайте в самом деле представлены все модели некоторой торговой марки или же подавляющее большинство их, то лучшим вариантом будет оптимизация под такой запрос какой-то одной страницы, например с самой популярной моделью. При этом на этой странице обязательно должны быть ссылки на другие модели или на страницу с кратким представлением всех моделей в удобном для сравнения виде. Если в ключевой фразе перечисляются конкретные модели, то необходимо располагать их в порядке убывания популярности.
Очень часто при вводе поискового запроса пользователи не пишут прописные буквы в названиях компаний, торговых марок, городов и т.п. Т.к. некоторые системы поиска чувствительны к регистру символов, т.е. поиск по вариантам фразы с символами, преобразованными в нижний регистр, и с символами в верхнем регистре приводит к разным результатам. Поэтому, чтобы улучшить результаты поиска своего сайта, надо добавлять на страницы все варианты написания ключевой фразы. Если во фразе используются слова, которые по правилам языка пишутся с прописной буквы, то можно использовать ее версию со строчными буквами там, где она не будет видна для посетителей.
В зависимости от того, под какую систему поиска оптимизируется сайт, необходимо узнать поддерживается ли ей морфологический поиск, т.е. поиск по слову во всех его морфологических формах. Это значит, что поиск по фразе «оптовая покупка скидка» может быть интерпретирован, как “при оптовой покупке скидки” и т.д. Чтобы определить, выполняет ли данный поисковик морфологическую функцию, можно проработать поиск по различным версиям ключевой фразы и проанализировать результаты.
Необходимо не только постоянно проводить мониторинг частоты использования вашей ключевой фразы пользователями, но и отслеживать, как много других страниц также оптимизированы под нее. Т.е. надо постоянно следить за конкурирующими ресурсами, которые стоят первыми в рейтинге при запросе по данной тематике.
Таким образом, выбор наиболее эффективных ключевых фраз может буквально поставить на ноги ваш онлайновый бизнес, а неудачный, наоборот, разрушить его. Главное не забывать, что каждая страница оптимизируется под одну-две ключевые фразы, которые четко соответствуют ее тематике.
“Яндекс” предупреждает: покупные ссылки перестанут оказывать влияние на положение сайта в списке выдачи поисковика, а продавцов ожидают вполне реальные наказания - в том числе, понижение в выдаче.
Не секрет, что многие сайты находятся на высоких местах в списке выдачи именно из-за большого объема проплаченной “ссылочной массы”. Ранее, разработчики поисковика говорили о негативном отношении к проплаченным ссылкам, да и “страшилок” про падения в выдаче хватало. Однако теперь сотрудники “Яндекса” предупредили официально: “Покупка ссылок опасна для вашей рекламной кампании”, - и конкретизировали, к кому эти предупреждения относятся.
Как пишут разработчики поиска в разделе “Яндекс.Вебмастер”, “мы приняли меры для уменьшения влияния SEO-ссылок с наиболее популярных сайтов Рунета. Мы планируем и далее выявлять подобные ссылки, а также принимать все меры к тому, чтобы сайты, продающие ссылки, потеряли способность влиять таким способом на ранжирование”. Сотрудники “Яндекса” намерены предпринять все усилия, чтобы в ближайшем будущем покупка ссылок с сайтов не влияла на повышение ранга сайта-покупателя. Продавцам придется несладко - как говорят разработчики, “мы не гарантируем, что ранг сайтов, продающих ссылки, не понизится”.
Судя по тому, что тема удостоилась отдельного упоминания, в ближайшее время большинству тех, кто пользуется услугами оптимизаторов, стоит готовиться к уменьшению количества клиентов. И начинать постепенно использовать иные способы продвижения сайта в Интернете, помимо покупки ссылок.
На данный момент интернет - это огромная сеть, которая содержит в себе бесконечное множество различной информации. Пользователи получают ее путем серфинга веб-браузеров - программ, предназначенных для просмотра сайтов. Ну а каждый сайт непременно должен содержать контент - то, за чем и приходит на его страницы посетитель.
Как правило, при создании новых сайтов у веб-мастера появляется потребность в его информационном наполнении. Многие из них знают, что лучше всего ценится именно уникальный и качественный контент. Но, то ли в силу своей лености или ограниченности авторских способностей, не все создают его самостоятельно.
Да, зачем сидеть сутками за экраном монитора и сочинять какие-то тексты, которые потом еще будет кто-то читать. Можно просто скопировать этот самый контент с других сайтов.
Остановлюсь на причинах, почему так не стоит делать.
Первая - Престиж сайта, особенно, если он корпоративный. Тут можно провести аналогии с рекламой компании на шариковых ручках, чашках и прочих недорогих, но столь нужных вещей. Почему-то на них логотипы и название компании не копируются, а стараются создать свой, уникальный стиль.
Вторая - Незаконность. Множество статей и обзоров являются собственность их авторов. Поэтому публикация без их разрешения является незаконной и охраняется законом об авторском праве. К сожалению, наше несовершенное законодательство не позволяет в полной мере защитить интеллектуальную собственность.
Третья - поисковые машины уже давно научились находить настоящий источник статьи. Это уже проверено на своем сайте. Еще поисковики очень ценят уникальный контент, а не его дубликаты.
Автору данной статьи на одном из форумов о seo доводилось видеть приблизительные алгоритмы определения оригинальности контента. Благо, 5 лет университета не прошли даром - через мрак матриц, векторов и теории вероятности стало ясно, что на самом деле это не так и сложно. Для ЭВМ, конечно. А уж поверьте, что у того же Яндекса или Гугла вычислительные мощности уже исчисляются десятками тысяч(!) машин.
Думаю, этих доводов пока будет достаточно. Тут главное - понять саму суть проблемы, а не все ее мелочи. Еще в последнее время получили распространение сервисы, которые предлагают бесплатный контент. Это как нельзя кстати для новых и малобюджетных проектов. Единственным условием использования такого контента является наличие ссылки на первоисточник.
Но тут есть и обратная сторона медали - от этого выигрывает лишь сайт, предоставляющий контент. Ведь, по сути дела - это просто ссылка на его ресурс. Такие ссылки расползаются по всему инету, создавая для первоисточника просто сказочное количество бек-линков.
Бесплатный сыр, как говорится, может оказаться вовсе не бесплатным. Так и вышло, когда поисковики научились находить дубликаты и убирать содержащие их сайты из результатов выдачи.
К сожалению, на данный момент ситуация такова, что процент оригинального количества контента к общему так и остается на уровне 10-15% . И это только то, что смогли подсчитать поисковые машины, а ведь они по всему инету не ходят (на индексацию всего инета нужно от 300 до 400 лет).
Но все же есть люди, которые стараются создавать уникальный контент, а не копируя уже напечатанное. К некоторым понимание значимости оригинального контента приходит лишь со временем.
Помните, что оригинальный и свежий контент - это курица, которая несет золотые яйца. Не верите - попрактикуйтесь на реальных сайтах.
Данная статья полностью посвящена такому аспекту раскрутки сайта, как регистрация в каталогах. На примерах рассмотрим регистрацию в наиболее популярных каталогах: Top.Mail.ru, Yandex, Rambler's TOP100.
В процессе размещения сайта в каталогах нет ничего сложного. Благо, эти системы становятся более совершенными и простыми в использовании для владельцев сайтов. Как правило, для добавления сайта в каталог нужно выбрать соответствующий раздел каталога (или подкаталог в нем). Потом вам необходимо будет вручную заполнить регистрационную форму. Нажимаем "Разместить", "OK", "Submit" (в разных каталогах по-разному, но суть одна) - и все, ваш сайт в каталоге. Правда, его еще проверят модераторы на соответствие тематики сайта выбранному каталогу. И не нарушает ли ваш ресурс законов страны, в которой расположен каталог. Как правило, это относиться лишь к сайтам, размещенным на бесплатном хостинге. Это еще один из доводов в пользу платного хостинга - бесплатный сыр может оказаться вовсе не бесплатным.
Модератор всегда прав
Когда размещаете свой сайт в каталоге, не забывайте о пользователях. Ведь именно для них он и предназначен, поэтому постарайтесь наиболее точно составить его описание. В лучшем случае модератор каталога просто изменит его описание, или перенесет сайт в другую рубрику. В худшем... Будем стараться, чтобы такого не случилось. Советую также внимательно читать правила размещения ресурса в каталоге. И, само собой, придерживаться его требований и правил. Как и в любом деле, здесь нужно быть очень аккуратным и следовать правилам предоставления данной услуги.
По поводу выбора каталога, хочу заметить еще кое-что. Как правило, пользователи не случайно заходят в тот или иной каталог (рубрику) - хотя бывают и исключения :) Получается, что человек заинтересован именно в сайтах данной тематики, он ищет информацию в определенной области (наука, новости, автомобили и т.д.). Я думаю, он вряд ли зайдет на сайт, который не соответствует интересующей его тематике. А, случайно попав не него, долго на нем не пробудет. Но это, как правило, а в реальной жизни все может быть.
Шаги к успеху
А теперь о размещении в каталоге более детально. При регистрации вам предлагают внести название вашего сайта и его краткое описание. В названии, как правило, необходимо разместить название вашей организации (если сайт о ней) или же просто официальное название вашего сайта. Пусть это будет "Интернет-магазин "Все для кошек", "Домашняя страничка кота Мурчика", "Молокозавод "Лакомства для кошек" и т.п.
Можно, конечно, попробовать разместить в названии несколько ключевых слов. Можно, но в данном случае все на ваш страх и риск. Тут главное не перестараться, дабы не снискать немилость у владельцев каталога. И чем ресурс-владелец каталога популярнее, тем с ключевыми словами ситуация сложнее.
Теперь остановимся на описании сайта. Оно располагается сразу же после URL'а вашего сайта. Как и название, описание сайта является не менее важным. Тут главное еще до регистрации придумать описание, сбалансированное как по краткости, так и по соответствию тематике. Я думаю, что не стоит в нем использовать какие-либо жаргонные слова и делать его слишком длинным. Скорее всего модератору это понравиться, и будьте уверены, что он его заменит на свой лад. Вот чтобы не проверять судьбу, лучше этого не делать.
Ну а если составить описание вам все же сложно, то посмотрите описания сайтов с похожей тематикой. Гляди и появится идейка-вторая. Только вот копировать описание точь-в-точь я бы не советовал - проявите смекалку, пофантазируйте, переберите кучу вариантов. И у вас обязательно получится - не сомневайтесь. "Зато такого описания ни у кого нет" - разве это не может не радовать?
Еще можно использовать свой meta-description тег (если он удачно подобран). А почему бы и нет? Смело вносите его в описание сайта для каталога, не забывая при этом о вышеперечисленных советах.
Еще посоветую использовать те слова, которые часто встречаются на страницах вашего сайта. Если таковых вы не находите, или их совсем маловато, то тут следует призадуматься. Сайт у вас один, регистрировать вы его будете один раз, а его содержание будете часто менять (в идеале). Так почему бы сразу не оптимизировать текст под несколько ключевых слов? Я думаю, намек вам понятен...
Поэтому постарайтесь максимально придерживаться моих рекомендаций и у вас все непременно получиться. Конечно, у каждого каталога свои правила и требования к размещению ресурса. Тем не менее, главными остаются правильно выбрать раздел и составить понятное/точное описание.
Поменьше слов - побольше дела!
Ну а теперь рассмотрим наиболее популярные каталоги РУнета.
1) Яндекс
Тут ничего сложного нет. У Яндекса самая простая (по крайней мере из всех, что мне попадались) регистрация. Итак, заходим на Яндекс, на сайте находим ссылочку добавить сайт. А далее все просто - в строку постредине страницы вносим URL вашего сайта и жмем "Добавить".
Не лишним будет заметить, что Яндекс регистрирует только русскоязычные сайты или же представляющие интерес для русскоязычной аудитории.
2) Рамблер
У Рамблера каталог называется Rambler's TOP100. Вот на него-то мы и заходим Rambler's TOP100. Нажимаем на ссылочку "добавить ресурс" и переходим к соглашению о регистрации в каталоге. Прочитав его, жмем на кнопку "зарегистрировать". Ну а дальше все должно быть понятно, как-никак русским же языком все написано :)
Советую при выборе цвета счетчика подумать, как он будет сочетаться с цветовой гаммой вашего сайта. И не жмите дважды кнопку "зарегистрировать" :)
3) Рейтинг@Mail.ru
С регистрацией в данном каталоге у вас тоже не должно возникунть проблем. Сверху есть ссылка "зарегистрироваться в рейтинге@mail.ru" (так вот у них каталог своеобразно называется - как их почта).
Одно замечание - так как тематических каталогов и подкаталогов у них довольно много, то советую выбрать тот из них, который максимально соответствует тематике вашего сайта (можете просто зайти в заинтересовавший вас каталог и посмотореть на сайты, которые в нем размещены).
За годы существования интернета такие понятия "вес" или "популярность" ссылки, технология Google PageRank, прочно укрепились среди пользователей интернета. В особенности среди вебмастеров и владельцев сайтов. Но часто возникает путаница между этими двумя терминами, а ведь для поисковой машины это не одно и тоже. Попытаюсь внести ясность в данный вопрос.
Что такое "вес" ссылки?
Теоретически это выглядит так: поисковый робот решает, что если другие сайты ссылаются на ваш сайт, то значит его (ваш сайт) нужно повысить в рейтинге. Т.е. при прочих равных условиях рейтинг будет выше у того сайта, на который ссылается большее число сайтов (желательно еще и с собственным "большим весом"). Ведь, исходя из элементарной логики, вебмастера ставят ссылки на дружественные сайты, которые заслуживают на внимание посетителей.
PageRank и "вес" ссылки - не одно и тоже
Да, эти два термина кое в чем между собой отличаются. PR - это скорее одна из составляющих "веса" ссылки. Поскольку PR больше сфокусирована на количестве ссылок (как прямых, так и обратных на сайт), то под термином "вес ссылки" скрывается качественная составляющая этих ссылок. Тем не менее, множество пользователей интернета неправильно понимают эти два термина, а зачастую и просто воспринимают их как синонимы.
На сегодняшний день все главные поисковые машины уделяют популярности ссылок большое внимание. В первую очередь это затрагивает алгоритмы, по которым составляются рейтинги проиндексированных сайтов. А что же полезного можно извлечь из этого для раскрутки собственного сайта? Оказывается, что существует 2 основных типа ссылок, которые наиболее важны в поисковой оптимизации:
1. Ссылки с других сайтов, которые содержат тот же набор ключевых слов, что и ваш ресурс
2. Ссылки с релевантных (с похожей тематикой) рубрик в популярных каталогах
А вот ссылки с каталогов типа "Free-for-all" (FFA) не дают весомых ссылок, поэтому нет необходимости тратить деньги и время на размещение в них. Уж лучше разместить сайт в десятке наиболее известных каталогов (таких, как например Яндекс. Каталог), чем в сотне малоизвестных. А еще, как показывает практика, размещение сайта в каталоге вместе с сайтами неродственных категорий (как и в непопулярных каталогах) дает только временный рост PR.
Алгоритмы поисковых машин постоянно меняются, как и эффективность методик раскрутки. Хочу заметить, что в последнее время наметилась общемировая тенденция в seo - повышать рейтинг только тех ресурсов, на которые ссылаются сайты с большим собственным рейтингом. Может это связано с ростом количества сайтов, а может проблема в чем-то другом. Возможно, что места под солнцем становиться все меньше, а желающих - все больше.
Как работает механизм "рейтинг ссылки"
Хочу привести вам пример того, каким образом работают ссылки на популяризацию сайта.
Предположим, что у дяди Васи есть пиццерия. Естественно, она у него имеет и свой сайт в интернете (люди заходят и заказывают пиццу). Далее представим, что на этом сайте дядя Вася решил разместить ссылочку на сайт свого соседа по дому дяди Вани. А вот он занимается продажей мужской одежды, у него сайт с низкой посещаемостью, вот и решил он помочь ему в раскрутке.
Итак, на сайте дяди Васи появилась ссылка на сайт продаже мужской одежды дяди Вани. Пусть она будет выглядеть как "лучший магазин мужской одежды". Если посмотреть на название ссылки, то все ок - ключевые слова тут как тут. Только вот эффект для дяди Вани от этого будет минимальным: ведь пицца и мужская одежда - это совсем не одно и то же.
Лучшим вариантом для дяди Вани было бы разместить ссылочку на сайте с похожей тематикой. Пусть лучше это был бы сайт тети Клавы о продаже женской одежды, сайт дяди Миши о продаже мужской обуви или любой другой, но уже тематически связанный с одеждой / обувью.
А вот просто идеальным было бы иметь для дяди Вани ссылочку в "Каталоге магазинов одежды Сан Саныча", в котором содержаться ссылки на наиболее популярные магазины одежды. Вот именно это и есть тот случай, когда поисковый робот непременно повысит рейтинг вашего сайта.
Нужно ли ставить обратные ссылки?
Вокруг этой тематики уже не один год ведутся споры, в которых было сломано немало копий. Но ситуация яснее не стала: достаточно как приверженцев, так и противников наличия обратных ссылок. А все началось с тех пор, когда вебмастера решили, что взаимный обмен ссылками - это самый простой способ привлечения посетителей (хотя это и не всегда верно). Сейчас же большинство вебмастеров обмениваются ссылками по принципу "ты-ставишь-ссылку-на-мой-сайт-я-ставлю-ссылку-на-твой". Но есть и противники такой методики, которые ее считают неэффективной для повышения рейтинга сайта.
Так кто же прав? Да неправы обе стороны одновременно. Я считаю, что нет необходимости ставить обратную ссылку, но если все же хочется, то можно и поставить. Необходимо помнить, что являются полезными лишь ссылки, которые указывают НА ваш сайт. А те ссылки, которые ведут ОТ вашего сайта, полезны лишь в том случае, если тот сайт является родственный по тематике. Ведь посетитель вашего сайт заинтересован, как правило, в посещении и других сайтов с похожей тематикой.
Необходимо ли заботиться о "популярности" ссылки?
Не только необходимо, а и жизненно важно для вашего сайта. Тем не менее, необходимо помнить, что (вопреки распространенному мнению) вес ссылки является только частью работы алгоритма поисковой машины. Но тут особенно выделяется Google, которая больше остальных поисковиков уделяет внимание качеству и количеству ссылающихся сайтов. А вот насколько реально это повышает рейтинг сайта и каким образом - это спорный вопрос, точного ответа на который не знает никто (кроме разработчиков поискового алгоритма).
Хочу также заметить, что не последнюю роль в рейтинге сайта играет и то, какие слова содержатся в ссылке на него. Как показывает практика, несколько ссылок с высокой релевантностью и удачным описанием - это едва ли не единственный быстрый и простой путь к повышению рейтинга сайта.
Но тут главное не переусердствовать. Не нужно сразу же бросаться рассылать сотни писем владельцам сайтов с предложением разместить на вас ссылочку. Думаю, что большинство вебмастеров не будут в восторге от излишней настойчивости, если вообще не примут ваши письма за спам. Необходимо понять, что каждая ссылка на "вес золота" - только благодаря ей можно получить посетителей больше, чем со всех поисковиков, вместе взятых.
Способ получить ссылки ничего не делая
Хочу с вами поделиться одним способом получения ссылок на свой сайт. Пусть он и более затратный по времени, но зато очень эффективный. Необходимо просто создать лучший (ну или один из лучших) сайтов в своей тематической нише. Для этого будет вполне достаточно, чтобы он был грамотно и красиво сделан, содержал множество статей (желательно еще и уникальных) и постоянно бы обновлялся (в идеале - каждый день). Пройдет некоторое время и сайты с похожей тематикой начнут сами ставить ссылки на ваш ресурс.
Пусть кто-то добавит ваш сайт в "рекомендованные сайты", кто-то в "друзья" или "каталог ссылок", но ведь главное, что ссылка будет. Могут также взять статью с вашего сайта, главное, чтобы ссылочку на источник поставили :)
Да, может быть этот метод в чем-то и утопичен. Но уж лучше сразу потратить месяц-другой на создание хорошего ресурса, чем потом просить поставить ссылку на ваш сайт. Хотя, не буду спорить, может этот метод и не самый лучший.
Поэтому советую вам не пожалеть времени и подумать над тем, как создать супер-сайт. Вот тогда вам уже не придется беспокоиться о каких-то "рейтингах" ссылки, обратных ссылках и непонятной аббревиатуре PR!
Утром, днем и вечером я пользуюсь различными free seo сервисами. В закладках им уже просто тесно. В один прекрасный день я выложил их на эту страницу. Возможно они будут полезны и другим.
Определение позиций. Анализ страниц.
* Анализ страниц сайта
* Определение Google Page Rank, Яндекс CY, индекса Апорт и индекса Alexa.com
* Определение позиции сайта в различных поисковых системах
* Множественная регистрация сайтов и страниц в поисковых системах Google, Рамблер и Яндекс.
* Определение позиций сайта в нескольких поисковых системах.
* контроль позиций по запросам в поисковых системах.
* Определение позиций сайта по запросам в Google и Yahoo.
* SEO tools - небольшой но функциональный набор инструментов.
* Анализ страницы на предмет видимости поисковой машиной, ключевых слов и заголовков.
* Быстрый анализ продвижения сайта
* SEO LinkTracker - Подсчет ссылок на странице
* Анализатор страниц, беклинков, PR и тИЦ + проверка присутствия в Яндекс.Каталоге, Рамблер-TOP-100 и DMOZ (очень рекомедую!)
* Анализатор вебсайта
* еще один анализатор вебсайта
* Анализ метатегов, заголовка, частоты ключевых слов.
* Visual PageRank
Google. Анализ беклинков
* Анализ обратных ссылок по Page Rank или CY ссылающихся страниц.
* просмотр беклинков по Google. Показывается исходящий PR по каждому линку.
* проверка PageRank по дата центрам.
Google. Индексация. Кеш. Датацентры.
* Google cache tool - проиндексированные Google страницы по различным датацентрам.
* удобное представление проиндексированных Google страницы по различным датацентрам.
* Google Datacenters Checker Tool - индексированые страницы, бекварды и PR. Статистика по разным датацентрам.
* проверка количества страниц проиндексированных поисковыми системами: AllTheWeb, AltaVista, Google, MSN Search, Yahoo.
Эта статья посвящена всем вебмастерам, которые занимаются не только созданием сайтов, но и их продвижением в сети интернет. Под продвижением подразумевается получение посетителей на сайт (так называемого трафика).
На эту тему уже написано большое количество статей как русскоязычных оптимизаторов, так и зарубежных. Но до сих пор так и не выработано единого способа раскрутки, который бы 100% действовал для всех сайтов. Ведь у каждого сайта не только разная тематика, но и на него ведут разные ссылки опять-таки с разных сайтов, в немалой мере влияет название домена, html-код веб-страницы и даже грамотность текста.
В последнее время комплекс мероприятий по раскрутке сайтов называется seo (search engine optimization - оптимизация под поисковые машины). Почему именно под поисковые машины - потому что они дают целевой трафик и ими пользуется 60-80% (по разным оценкам) пользователей интернета. В мире очень много поисковых машин, толком даже никто не знает точного их количества, но главные известны - для рунета это Яндекс и Рамблер (недавно возник поисковик Вебальта, но пока от него заходит лишь индексирующий бот, а не посетители), для мирового инета - это Гугл (Google), Yahoo! и MSN. Последний, кстати, разработка компании Майкрософт, скорее всего и был бы неизвестным поисковиком, если бы не маркетологи компании, которые интегрировали его в ОС Windows - вот такой хитрый ход
Теперь о самой раскрутке. В первую очередь следует ориентироваться на два поисковика - Яндекс и Гугл (плюс Яху, если сайт англоязычный). Как показывает практика seo, только от этих поисковых машин можно получить какой-нибудь приличный трафик, который уже можно сконвертировать в вечнозеленые денежные знаки. Поэтому на форумах и блогах о поисковых машинах и поисковой оптимизации следует следить за новостями и методикой раскрутки именно для этих машин.
Спросите любого вебмастера, который уже не первый год занимается сайтами и он вам скажет, что создать сайт - это самое простое, а вот раскрутить его и получить стабильный трафик - это труд не одной недели и даже не одного месяца. Это самый настоящий труд, а не виртуальный, как может многим показаться - сидишь себе дома, серфишь по инету и ходишь в банкомат снимать деньги. Так думают только новички интернет-коммерции, те же, кто в этом бизнесе уже много лет скажут, что зарабатывать в инете гараздо труднее, чем в рельной жизни.
Проблема раскрутки может быть не такой острой, если на раскрутку вы можете выделить определенное количество финансов, но еще не все можно купить. Так, можно купить ссылки, но они могут быть не совсем тематическими или по ним не будет переходов на ваш сайт, можно заказать раскрутку через САР (системы автоматической раскрутки - я смотрю ваш сайт, вы - мой), получить первые места в топах, но иметь заказав на сайте. А все потому, что нет целевого, заинтресованного посетителя, которого может дать или поисковик или контекстная реклама (по поводу последней - можно долго спорить, но все же лучше САР и баннеров).
Но главное - не впадать в депрессию, тут действует единый принцип, на котором устроен мир - раз у кого-то получилось, получится и у меня. Главное не пасовать и сидеть сложа руки, расстраиваясь, что на ваш мега-сайт вот уже несколько месяцев нет посетителей. Для примера можно пройтись по нескольким сайтам, на которые вы сами попадали через поисковики при поиске софта или реферата - этим сайтам уже по 3 и более лет, на них уже собрано тысячи статей и обзоров программ.
Думаете, что человек взял да набрал все эти тысячи статей за ночь или какую софтину написал, чтобы она за него их сочиняла? Ну в первом случае все ограничено возможностями человека, а во втором - ну кому был бы интересен не текст, а бессмысленный набор слов? Все дело в постоянном добавлении новых статей, разделов, рубрик - вот со временем и вырастают такие монстры, не страдающие от нехватки трафика.
Естественно, что раскрутка домашней странички, информационного проекта и интернет-магазина - это разные виды раскруток, разные тактики и методы. Так, для домашних страничек важен ее главный герой, для информационного проекта (онлайн-журнал, газета) важно уделять внимание оптимизации текста, соблюдать частоту употребления ключевых слов, а для интернет-магазина нужно больше мультимедийной рекламы (баннеры, флеш, промоакции, покупка рекламных блоков, партнерские программы) чтобы сделать магазин узнаваемым.
Ясное дело, что при раскрутке любого ресурса нельзя ограничиться только одним, или двумя способами, большое значение имеет комплексный подход. Применение любого способа “в отрыве” от остальных даст слишком слабый, либо кратковременный результат. Ни первое ни второе неприемлемо для вашего сайта.
Результаты мероприятий по раскрутке требуется как-то измерять. Обычно это делается с помощью систем статистики, или счётчиков. Речь о них пойдёт в следующей статье.