Добро пожаловать,
|
|
|
|
|
|
Поиск
|
Дата: 18.01.2025
Модуль:
Категория: Delphi
Исходный код программы, позволяющей искать информацию во всех известных поисковиках.
|
|
|
Добавление сайта в каталоги уже давно и прочно вошло в список наиболее важных инструментов раскрутки и продвижения сайта в сети интернет. Сегодня мы расскажем о том, как с наилучшим результатом добавить свой сайт в каталоги. Есть два пути, при котором регистрация в каталогах влияет на посещаемость Интернет-ресурса:
Во-первых, каталоги предназначены для людей – в них человек может найти сайты по интересующей тематике. Среди таких посетителей каталогов есть и Ваши потенциальные клиенты. Таким образом, это Ваша реклама в каталоге. Примерами таких, приводящих посетителей, каталогов, является Яндекс.Каталог, рейтинг Рамблер.Top100, MAIL.ru и много других. Эти каталоги посещают миллионы пользователей ежедневно.
Во-вторых, любая поисковая система при ранжировании сайтов в выдаче по поисковому запросу учитывает количество и качество ссылок на ресурс, это так называемые индексы цитирования. У каждой поисковой системы он свой. У Яндекса - тИЦ (тематический индекс цитирования, применяется для ранжирования сайтов в Яндекс.Каталоге; можно увидеть на "денежке") и вИЦ (внутренний индекс цитирования, применяется для ранжирования сайтов в поисковой выдаче; не разглашается), у Google - PR (PageRank), у Апорта - ИЦ.
PageRank (PR) – рассчитывается для каждой веб-страницы отдельно, и определяется PageRank’ом (цитируемостью) ссылающихся на нее страниц. Своего рода замкнутый круг. Главная задача заключается в том, чтобы найти критерий, выражающий важность страницы. В случае с PageRank таким критерием была выбрана теоретическая посещаемость страницы.
тИЦ – тематический индекс цитирования – рассчитывается для сайта в целом и показывает авторитетность ресурса относительно других, тематически близких ресурсов (а не всех сайтов Интернета в целом). ТИЦ используется для ранжирования сайтов в каталоге Яндекса.
вИЦ – взвешенный индекс цитирования – аналог PageRank, применяемый поисковой системой Яндекс. Значения ВИЦ нигде не публикуются и известны только Яндексу. Поскольку узнать ВИЦ нельзя, следует просто помнить, что у Яндекса есть собственный алгоритм оценки «важности» страниц.
Добавляя свой сайт в каталог, Вы создаете дополнительную ссылку на него и повышаете таким образом свой индекс цитирования.
Стоит помнить, что просто повышая ИЦ, тИЦ, PR Вы мало чего добьетесь . Думаю, многие наблюдали ситуацию, когда на первой странице выдачи Яндекса вперед выходят сайты, имеющие меньший тИЦ, да и PR, чем у тех, кто занимает более низкие позиции. Для того чтобы использовать регистрацию в каталогах максимально эффективно, необходимо принять во вниманию ссылочное ранжирование. Дело в том, что этот фактор зачастую перевешивает многие другие, влияющие на место в поисковой выдаче.
Каким же образом действует ссылочное ранжирование? Формат гипертекста позволяет «на гиперссылке» ставить произвольный текст. Совпадение текста ссылок со словами поискового запроса (а особо точного вхождения) повышает Ваши позиции в выдаче.
Заметим также, что по низкочастотным запросам поисковики иногда выдают проиндексированные ими страницы каталогов со ссылкой на Ваш ресурс.
Таким образом, перед тем как регистрировать сайт в каталогах, составьте список запросов, по которым Вы хотели бы, чтобы Вас находили в поисковых системах. Для этого можно воспользоваться службами Подбора слов Яндекс.Директа и Статистикой поисковых запросов Рамблера.
Затем составьте несколько названий для Вашего сайта с использованием выбранных Вами ключевых слов. При этом учтите, что оптимальным будет использование словосочетаний, а не только отдельных слов, найденных Вами в статистике. Эти названия будут размещены на ссылке из каталога на Ваш сайт! Использование при регистрации в каталогах несколько названий позволит Вам использовать разные ключевые слова и избежать «превышения лимита» ссылок с одинаковым текстом, которые не учитываются поисковиками.
Названия должны быть осмысленными. Это обусловлено двумя причинами: во-первых, в последнее время поисковые системы очень плохо учитывают ссылки с перечислением ключевых слов через запятые. Во-вторых, большинство каталогов размещают ссылки после предварительной модерации. Те каталоги, которые следят за своим содержанием, с большой вероятностью откажут в размещении такой ссылки либо скорректируют ее на свое усмотрение, а как правило, ссылки именно с этих, серьезно модерируемых каталогов, имеют наибольший вес.
Адрес сайта указывать не обязательно, однако его присутствие в названии повышает Вашу узнаваемость среди многих других конкурентов. Еще раз повторю: не стоит перечислять ключевые слова через запятую, большое количество альтернативных названий позволит Вам использовать все выбранные Вами ключевые слова и даст значительно больше эффекта.
Выбирая рубрики, выбирайте наиболее подходящие. Зачем? Страница из подходящего раздела каталога получается самой подходящей с точки зрения «тематического» цитирования – это раз. Если раздел не подходит, модератор каталога (который тоже человек), может, не вдаваясь в подробности, просто отклонить сайт. Это два.
Для увеличения скорости выбора рубрик используйте Поиск. Обратите внимание на следующее: расставляйте слова в списке, начиная с наиболее подходящих, а затем по убыванию соответствия. В некоторых случаях, когда сложно предугадать, в каком склонении стоит слово в названии рубрики, используйте слова без окончаний. Иногда одно и то же слово может писаться по-разному. Учитывайте и это.
На заметку:
Обязательное условие успешной регистрации в каталогах и поисковиках - правильное описание ресурса и подбор ключевых слов. Иначе эффективность регистрации будет чрезвычайно мала.
Подача заявки на регистрацию еще вовсе не означает, что ресурс будет обязательно зарегистрирован. На это существует масса причин: неподходящая специализация каталога, некорректно составленное описание сайта, выбор неправильной категории, "заморочки" модераторов и проч. В среднем при хорошей предрегистрационной подготовке сайта, ресурс в течение месяца проходит регистрацию в 70-80% каталогов, куда была подана заявка.
|
|
|
Хочется немного осветить вопрос индексации сайта основными поисковиками (к которым относятся грозный и страшный Яндекс, рвущийся к лидерству уже и на просторах русскоязычного поиска Google, скатывающийся назад Рамблер, “всемирный” соперник Гугла Yahoo, ну и непонятно зачем все еще существующий Апорт ).
Проще всего рассмотреть скорость индексации на примере данного сайта. Сайту нет еще даже месяца, поэтому интересна динамика попадания страниц сайта в индекс (выдачу) поисковиков. Немного удивило то, что уже в день появления сайта на просторах всемирной сети (именно физического появления, т.е. момента, когда данные сайта стали доступны) Google каким-то образом успел проиндексировать несколько десятков страниц, и это при том, что сайт в “Google для вебмастеров” не вносился, вручную в Google не добавлялся, на сайт вообще была всего одна ссылка, правда на главной странице более-менее посещаемого (в том числе роботами) мини-портала .
Также в тот же день этот сайт был добавлен в Яндекс.вебмастер - якобы это ускоряет индексацию Яндексом. Как выяснилось - не ускоряет… вообще, складывается впечатление, что хоть какие-то обновления в базе Яндекса происходят раз в неделю, обычно в выходные, при том робот шарит по сайту стабильно - но почему-то на выдачу это никак не влияет.
Следом за Гугле, буквально через день, сайт заметил Яху, примерно столько же страниц - около 60. Несмотря на отстутствие в первые дни sitemap.xml (сейчас в нем чуть более 1600 страниц), Гугле уже за первую неделю проиндексировал более 500 страниц, а через 2.5 недели в базе было 1.5 тысячи страниц, то есть почти весь сайт. Примерно в это же время первые несколько страниц (а именно 4) появились в выдаче Яндекса - впечатляющая скорость. Да, сайт в первый же день был зарегистрирован в каталоге-рейтинге Рамблера, и через пару дней там появился, а вот в выдаче Рамблера до сих пор нет ни одной страницы (код счетчика стоит на каждой странице), Рамблер в этом плане отстает даже от Апорта, в котором уже есть несколько десятков страниц.
Яху меня несколько раз впечатлял скоростью индексации ссылок на сайт - показывал некоторые бэклинки буквально через час-два после их появления, просмотр бэклинков на Яндекс.вебмастер тоже немного порадовал - несмотря на то, что Яндекс знает всего 4 страницы сайта, но тем не менее он уже знает около 20 ссылок на сайт - то есть примерно 70% на данный момент… что не так уж плохо.
Ну вот собственно пока и все, надеюсь из этого коротенького обзора можно сделать кое-какие выводы о скорости попадания сайта в индекс (выдачу) основных поисковиков.
|
|
|
Для многих вебмастеров SEO (search engine optimization, оптимизация для поисковой машины) - это не что иное, как просто набор трюков и методик, которые несомненно должны поднимать их сайт в рейтингах всех поисковиков. Такое отношение к SEO может и дает временные результаты, тем не менее, здесь содержится большой недостаток: правила постоянно меняются.
Алгоритмы поисковых машин постоянно меняются, как, например, антивирусное программное обеспечение. Ведь в мире постоянно появляются новые вирусы, поэтому они и должны постоянно совершенствовать и вносить коррективы в свои программы. Аналогично обстоит дело и с поисковиками: все в этом мире быстро меняется, а интернет-сфера еще быстрее.
Тем не менее, существует определенный набор правил, по которым поисковики ранжируют сайты, которых должен придерживаться каждый вебмастер в нелегком процессе поисковой оптимизации. Конечно, нет 100% гарантии, что все это работает сейчас или уже появились новые правила игры, но идея остается прежней. Меняются лишь детали, как говорится.
Но если мы не можем применить для оптимизации стандартный набор правил, то что же нам делать? Выход здесь в том, что не нужно всеми силами стараться разобраться в хитростях работы поисковой машины, а просто понять каким образом они работают. У этих самых хитростей есть своя логика работы, которую довольно просто вычислить, что и является их недостатком.
Так что же на самом деле необходимо?
Для достижения высоких позиций в рейтинге (да еще на долгое время) следует понимать, что поисковый робот - это в своем роде живое существо. Конечно, я при этом не имею ввиду, что у них есть мозги, пусть это останется для писателей-фантастов. Тем не менее их поведение и способы работы во многом похожи на работу этого самого мозга.
А теперь остановимся на рассмотрении некоторых функций их "мозга". В общем можно сказать, что им присуща такая специфика, как (если принять интернет за мир с множеством дорог) ходить различными путями, следуя указаниям установленных знаков и собирая всевозможную информация об этой дороге. Затем они направляют собранную информацию группе серверов, которые уже по своим специфическим алгоритмам определяют ее важность для внесения в свои базы.
По каким принципам работают эти алгоритмы? Для начала они создаются людьми, которые прекрасно разбираются в принципах работы интернета и информации, которая в нем содержится. А так как всемирная паутина постоянно изменяется, то эти самые люди и вносят необходимые коррективы в поисковые алгоритмы. По своей сути поисковую машину следует рассматривать, как существо, которое постоянно собирает информацию, сохраняет ее, а потом сортирует исходя из ее важности и с большим удовольствием отсеивает ненужную. Только вот как это она делает и исходя из каких принципов - толком не ясно.
Присмотримся поближе
Понимание того, что из себя представляет поисковая машина на самом деле, попытаемся выяснить в сравнении с анатомией человека. Пусть машина и не дышит, но она содержит много схожего, что необходимо ей для ее виртуальной жизни. А состоит она из следующего:
Легкие: Данный орган у поисковой машины, как и большинство жизненно важных органов, расположены внутри огромных data-центров (сервера, специально предназначенные для хранения информации). Как и организме человека, легкие мы не считаем очень важным органом, тем не менее понимаем, что без них не обойтись и нужно поддерживать их здоровыми.
Руки и ноги: Представим себе, что руки и ноги поисковой машины не что иное, как ссылки на ресурсы, которые она щедро выдает по запросу пользователя. С помощью этого органа мы можем найти все, что нам нужно и получить указатель в виде ссылки на необходимый ресурс. Также, как и тело человека изначально было создано для движения и исследования окружающего мира, аналогично и поисковые машины изначально запрограммированы исследовать всемирную паутину.
Глаза: Глазами поисковой машины являются так называемые пауки (еще их называют роботами или краулерами). Эти самые пауки постоянно просматривают интернет для поиска новых сайтов и следят за изменениями на уже проиндексированных. В данном случае пауки "ползают" по страничкам сайта по его внутренним ссылкам (как по путям), аналогично человеку, который на своем пути видит множество дорог для своего передвижения. К счастью для нас, поисковые роботы движутся по оптико-волоконным проводам, вот поэтому они могут путешествовать по интернету со скоростью света. Это-то и позволяет им посетить все интернет-странички, которые попадаются им на пути.
Мозг: Мозг поисковой машины выполняет те же функции, что и мозг человека: содержит целый набор функций для управления организмом своего хозяина. Также у мозга должен быть свой инстинкт, который должен знать о работе и постоянно контролировать все органы и системы. Вот поэтому поисковой машине никак не обойтись без этого самого мозга, который ей и помогает выжить в этом враждебном мире (пусть в чем-то и виртуальном).
Инстинкт: С помощью инстинкта поисковые машины имеют набор ключевых функций, таких как просматривание сайтов и фильтрация данных, которые нужно или не нужно индексировать. Они запрограммированы игнорировать некоторые типы файлов, не соответствующих определенным критериям. Как мне кажется, в инстинкте поисковой машины главное - это механизм или алгоритм, с помощью которого она индексирует сайты.
Знания: Поисковые машины прекрасно осведомлены о всех тонкостях индексации сайтов. Те знания, которыми они владеют, идут далеко впереди знаний всех пользователей, вебмастеров и оптимизаторов. Поисковая машина знает множество методов сортировки, представления данных, и, естественно, еще и имеет свой специфический набор хитростей и уловок.
Пока поисковый робот путешествует по интернету и индексирует веб-странички, параллельно он отсылает обратно в свой data-центр собранные им данные. Именно в этом центре данные обрабатываются согласно алгоритмов, а спам-фильтры отсеивают ненужное.
Подобно тому, как мы анализируем информацию из статьи в газете согласно своему видению мира, так и поисковики обрабатывает и ранжируют данные в строгом соответствии со своими законами и пониманием работы интернета.
Изучение: Так как поисковая машина ранжирует веб-странички согласно своему видению и пониманию законов функционирования интернета, а эти правила постоянно изменяются, то поисковые алгоритмы постоянно изменяются. Вот тут-то как раз и нужен механизм адаптации или самообучения поисковика.
В то же время, наряду в способностях просматривать странички, поисковые роботы должны уметь определять и наказывать попытки запрещенной раскрутки сайта. При этом благосклонно относится к честным вебмастерам и оптимизаторам.
Вот примеры тех областей, в которых поисковые машины так часто любят менять свои алгоритмы:
* Определения релевантности контента того сайта, на который она нашла ссылку;
* Способность обнаруживать информацию, которая содержится в новых типах данных, к примеру, базы данных, flash и т.п.
* Понимание нечестных методов раскрутки сайтов, таких как размещение "невидимого" текста, ссылок и т.п. Данные технологии рассматриваются поисковой машиной как спам, а пойманные на этом ресурсы попадают в так называемый "черный список";
* Изучение полученных данных, выявление недостатков в индексации, что приводит в действие механизм изменения алгоритма в сторону более эффективного определения релевантности сайта.
Способность к изучению и адаптации к окружающему интернет-пространству изначально закладывается при разработке алгоритмов работы поисковой машины. Ну и, само собой, остается актуальной до следующего обновления алгоритма.
От теории к практике
Все, о чем было сказано выше, касалось лишь аспектов работы поисковой машины. А вот как эти знания применить для раскрутки сайта? Все дело в том, что для правильного выбора стратегии раскрутки необходимо хорошо понимать, каким образом работает эта самая поисковая машина: собирает информацию, ранжирует сайты и т.д.
В свое время, когда одним из основных методов раскрутки было размещение большого количества ключевых слов на страницах сайта, многие вебмастера создавали целые сообщества из сайтов, дабы взаимным обменом ссылок достичь высоких позиций в рейтингах. А вот работает ли эта тактика сегодня? Работает, только результат скорее всего будет временным и краткосрочным.
Ведь поисковая машина, как и человек, хочет выжить в агрессивной окружающей среде. Поэтому, если результаты их работы будут плохими (а вот как раз нечестные методы раскрутки часто ведут к выдаче ненужной посетителю информации), то они медленно, но уверенно перестанут существовать. А ведь при постоянно растущей конкуренции эволюционировать крайне необходимо.
Для примера, пользователю значительно удобнее и проще найти сайт с множеством контента, который ему необходим. Как правило, на таких сайтах он часто обновляется, что позволяет сайту быть актуальным. Поэтому делайте выводы.
Немаловажным моментом остается и обмен ссылками. В данном вопросе намечается тенденция к снижению релевантности обратных ссылок, а обмен ссылками между сайтами разных тематик и вовсе малоэффективен. Но если же вы все же решите поставить обратные ссылки, то обязательно убедитесь, что они ведут на родственные по тематике сайты.
Данная стратегия хорошо работает как для привлечения посетителей, так и для повышения релевантности сайта. Ведь многие пользователи переходят из сайта на сайт по внутренним ссылкам. А если они еще и стоят на авторитетном и посещаемом ресурсе, то это только дополнительный плюс.
И напоследок...
Сам собою напрашивается вывод делать ставку на будущее. И отношение к поисковой машине как живому организму (пусть и в общих чертах) поможет выбрать правильную тактику. Вот когда она в очередной раз придет на ваш сайт, то "накормите" ее вкусным новым контентом, новыми разделами и она обязательно еще к вам вернется. А вот негостеприимных сайтов они не любят, как и быть обманутыми нечестными хозяевами. У роботов память отменная...
|
|
|
В качестве вступления заметим, что в самом этом вопросе заключен подвох - заранее неверное предположение.
а) Первая страница результатов поиска - некое определенное место. Это не так: "Яндекс" и "Рамблер" производят в день не менее полутора миллионов первых страниц каждый и3 все они разные! Какие из них и сколько нам нужны?
б) Заранее предполагается, что попасть на первую страницу - абсолютное благо. Кроме того, все остальные виды продвижения сразу исключаются из обсуждения.
И то и другое - миф. Но начнем обсуждение по порядку.
Клиенты - поворот к Сети
Насколько можно судить, в настоящее время наблюдается заметный рост интереса к интернет-продвижению среди мелкого и среднего офлайнового бизнеса. Вот типовой портрет такого клиента:
* небольшая офлайновая компания,
* оборот $50 000 - 200 000 в месяц,
* имеется "информационный" сайт,
* нет интернет-маркетолога,
* нет выделенного интернет-бюджета.
Такие компании уже готовы к интернет-продвижению своих услуг, но не знают, как это сделать и сколько это стоит.
Причины интереса к Сети
Если есть рост интереса к Сети, то почему? Здесь могут быть различные причины. Например, мода, то есть последействие интернет-бума (наконец докатился). И более объективные внутренние: дороговизна печатной рекламы и рост числа потребителей, приходящих через Сеть. Вот какие причины называют сами клиенты:
* печатная реклама перестала работать;
* значительная доля клиентов стала приходить из Сети;
* привлечение клиента через Интернет дешевле.
Предположения
Для упрощения дальнейшего обсуждения сделаем следующие предположения о наших клиентах.
* Требуется продвижение корпоративного сайта "торговой" компании. Таким образом, цель сайта - увеличение объема продаж.
* У руководства есть маркетинговая стратегия. Руководство компании знает, как продавать свои продукты в "обычном" мире, и может оценить расходы на маркетинг и его результаты.
* Есть представление о нужной аудитории. Руководство компании знает, как и кому она продает свои продукты или услуги, и рассчитывает найти часть этой аудитории в Сети.
* Аудитории есть куда придти. Имеется в виду, что у компании есть более или менее приличный сайт, работающий, видный из Сети, с головной страницы которого не уходит 100% аудитории.
Почему поисковые машины?
Почему нужно производить продвижение именно через поисковые машины?
Плюсы
* Подавляющая доля трафика. Поисковики дают от 10% до 75% трафика корпоративных сайтов.
* Мотивированная аудитория. Пользователи сами сообщают о своих потребностях в виде поисковых запросов.
* Наглядность. Руководство компании, владеющей сайтом, сразу может увидеть свой сайт в результатах поиска (и в этом причина многих иллюзий).
Минусы
* Медленная индексация. Любые изменения на сайта попадают в поисковики за в среднем 1-2 месяца, что не позволяет использовать индексацию для разовых рекламных кампаний.
* Неустойчивая работа. Поисковики не дают никаких гарантий и работают неустойчиво: постоянные смены алгоритма, зависания серверов всё время меняют место сайта в поисковых результатах.
* Не борются с накрутчиками. Более умелый и хитрый вебмастер может обогнать в результатах поиска честных, талантливых, но неумелых создателей хорошего контента.
* Борются с накрутчиками. Разработчики поисковиков - независимые коммерческие компании и абсолютно не считаются с интересами вебмастеров. Они могут признать за накрутку самые невинные или сделанные по недомыслию вещи. Кроме того, возможно и осознанное представление сайта как накрутчика за счет накрутки его со стороны конкурентов. А выбрасывание из индекса за накрутку ведет к потере денег и ущербу для имиджа.
* Проблема первой страницы. Только 13% пользователей заглядывают дальше первой страницы результатов поиска. Фактическое падение числа показов на порядок приводит к абсолютной бессмысленности пребывания на вторых страницах, а первые перегружены.
Выбора всё равно нет. Я лично никогда не посоветовал бы такой неудачный рекламный носитель своему клиенту. Но выбирать не из чего - альтернативы поисковикам нет.
Мифы
За недостатком информации вебмастера и их хозяева питаются мифами относительно продвижения в поисковиках и в Сети вообще. Вот некоторые из них.
* Нужна постоянная аудитория. На самом деле у большинства корпоративных сайтов торговых компаний нет и не может быть постоянной аудитории - купив телевизор, я не буду ходить на сайт магазина каждый день. Постоянная аудитория бывает только у порталов, СМИ, узких контентных ресурсов и мест для общения. То есть у типично интернетовских проектов.
* Место на первой странице = успех. На самом деле это некорректное высказывание (см. вступление).
* Бывает быстрая, дешевая и эффективная раскрутка. Это обман: дешевая бывает, эффективная бывает, а быстрой и эффективной не бывает вообще.
* Есть гарантированные методы. См. выше про неустранимую ненадежность поисковиков.
* Все вокруг - накрутчики. Как минимум 99% владельцев сайтов никогда не занимались накруткой и даже не умеют этого делать.
Дешевая и дорогая раскрутка
Есть огромный спрос на дешевую раскрутку. Существует и дорогая раскрутка. Вот сравнительные характеристики.
"Дешевая раскрутка"
Методы
Вот основные методы, применяемые для дешевой и опасной раскрутки.
* Манипуляции с текстом сайта. Обычно это устаревшие попытки обмануть поисковик с помощью светло-серого текста по светло-серому фону, набивание поля ключевых слов терминами "секс, порно, линукс, рефераты, ...", создание ссылочных страниц-паровозов и другие приемы. Поисковики подобные ухищрения считают спамом и в лучшем случае не учитывают.
* Входные страницы (doorways). Размещение различного рода страниц на бесплатных хостингах или своем сервере со списком ключевых слов и автоматическим перебрасыванием на сайт (редиректом). Считается спамом и может повлечь удаление из индекса.
* Переменные страницы (cloaking). Настройка на поисковик - распознавание индексного робота поисковика и подсовывание ему не тех станиц, что видит пользователь. Считается спамом и жестоко карается (если заметят).
* "Секретные методы". Обычно "знатоки" дешевой раскрутки намекают на владение магическими и секретными технологиями. Здесь имеется полная аналогия с разделом "Оккультные услуги" в рекламных газетах.
[pagebreak]
Вред от дешевой раскрутки
* Создает иллюзии. Даже при видимом успехе (попадание на первые страницы) дешевая раскрутка фактически создает иллюзию успеха, так как посещаемость не гарантируется, не закрепляется, да и привлеченная в пиковый момент аудитория довольно случайна.
* Создает опасность для бизнеса. За применение сомнительных методов сайт могут выкинуть из индекса поисковика, а быстрое рассмотрение проблемы и восстановление никем не гарантируется, и даже денег за него не берут. А исключение из индекса - прямая потеря денег, затраченных на сайт.
* Практически пустая трата денег. После такой раскрутки в среднем не происходит роста продаж или хотя бы посещаемости.
Поисковая оптимизация
Как это делается
Вот как мы делаем поисковую оптимизацию, направленную на кумулятивное повышение видимости.
* Построение семантического ядра. Строится на основе содержания сайта и его конкурентов, синонимов, близких слов и анализа их статистики в поисковиках.
* Анализ спроса и доли рынка. Анализируется статистика ядра запросов на основе "Яндекс-Директа" и "Рамблер-Ассоциаций".
* Коррекция текстов и структуры сайта. Семантическое ядра используется для коррекции текстов, титулов и т. п., создания новых страниц и главок.
* Правильные аннотации и регистрация. На основе ядра пишутся и регистрируются новые аннотации для Тор100, "Листа", каталогов.
* Поисковая реклама. Запросы ядра используются для создания текстовых баннеров для "Яндекс-Директа" и "Google AdWords".
* Наращивание объема контента. Ядро запросов используется для создания новых разделов и страниц.
* Входные рекламные страницы. Создаются специальные рекламные страницы, с некоторым содержанием (описанием товара, каталогом и т. п.), с приглашением перейти "внутрь" продвигаемого сайта, на страницу нижнего уровня. Страницы ориентированы на низкочастотные запросы из семантического ядра. Такие страницы не нарушают правил поисковиков и не обманывают посетителей.
Ядро запросов
Составление семантического ядра состоит из следующих шагов:
* Анализ текстов сайта - выбор значимых терминов.
* Анализ частот запросов. Статистика запросов в "Яндекс-Директ", "Google".
* Ассоциативный анализ ("Рамблер") - добавление "близких" тем.
* Анализ слов-попутчиков - выбор не тематических, но частых попутчиков ключевых слов (глаголов, местоимений, прилагательных).
* Статистический анализ - отрезание хвоста.
Оценка доли рынка
Оценка доли рынка может делаться только очень приблизительно, как самая грубая прикидка для размышления, однако это всё же количественный метод. Вот основные шаги.
* Составление ядра.
* Суммарная частотность ядра по "Яндекс-Директ".
* Экстраполяция на весь Рунет с коэффициентом 1,8-2,2.
* Сравнение с количеством приходов с поисковиков ("SpyLOG" и др.)
Использование семантического ядра
Будучи составленным, семантическое ядро должно использоваться везде, где есть тексты компании - владельца сайта.
* Коррекция текстов сайта.
* Аннотации для каталогов и рейтингов.
* Создание новых страниц (глоссарии, каталоги, главки статей).
* Текстовые баннеры для поисковой рекламы.
Наращивание контента
Наиболее устойчивый эффект дает наращивание содержания сайта (контента); естественно, при этом лучше не забывать о правильных формулировках и терминах, получаемых из ядра запросов.
Плюсы
* Масса сайта повышает его ранг в поисковиках. Большинство поисковиков объединяют результаты поиска в сайты (кластеризуют их), при этом "техническая" масса сайта повышает ранг.
* Много страниц во многих местах. Ваши страницы начинают появляться во многих местах - в результатах поиска по разным запросам, по ссылкам и так далее. Количество показов пользователям автоматически увеличивается.
* Вебмастера начинают ссылаться на ваш сайт. Хороший контент всегда привлекает ссылки, ссылки повышают ваш ссылочный ранг, а это важнейший способ подсчета ранга сайта поисковиками.
* Кумулятивный эффект. Всё вышеперечисленное само "разогревает" сайт, как начинает тлеть торф или таять снег от давления. Здесь имеется петля положительной обратной связи.
Минусы
* Трудоемко, дорого. Контент просто долго писать и верстать. Но еще труднее придумывать.
* Нужны специалисты и энтузиасты. К сожалению, для создания контента нужны одержимые идеей люди. Их нужно удерживать, содержать, лелеять.
* Долгое время срабатывания. Кумулятивный эффект срабатывает не сразу - нужны как минимум месяцы. Но зато потом эффект не ослабевает, если сайт хотя бы поддерживается в "живом" состоянии.
Изостатическое правило контента
Чем больше контента на сайте, тем выше он всплывает.
Поисковая реклама Лучший способ попасть на первую страницу
Очевидно, что поисковая реклама - это самый верный способ попасть на первую страницу. Просто потому, что ваши баннеры, текстовые блоки, баннеры поисковой рекламы типа "Яндекс-Директ" помещают именно на первую страницу результатов поиска.
Плюсы
* Точное попадание. Поисковая реклама нацелена на самую мотивированную аудиторию.
* Высокая эффективность при удаче. Если создать удачный текстовый или графический баннер, можно получить "кликабельность" (CTR) на уровне 25%.
* Низкая входная стоимость. Чтобы попробовать этот вид рекламы, достаточно 10-20 долларов. При удаче и стоимость привлечения одного посетителя будет весьма низкой.
* Скорость и интерактивность. Разместить объявление можно за несколько минут, имея кредитную карту. Точно так же просто изменить объявление, чтобы настроить "кликабельность".
Минусы
* Не закрепляет посещаемость. Как и баннерная реклама, дает кратковременный эффект.
* Низкая видимость на странице. Пока баннеры поисковой рекламы очень похожи на технические сообщения поисковика, глаз с них "соскальзывает".
* Новизна. Малый опыт использования приводит к неумелому обращению, нежеланию рекламодателей выделять бюджет и пр.
Как правильно использовать
Этот эффективный инструмент мы советуем использовать следующим образом:
* для разовых рекламных кампаний;
* использовать семантическое ядро;
* подбирать низкочастотные формулировки;
* заголовки должны совпадать с запросами;
* настраивать интерактивно.
Выводы: как попасть на первые страницы
* Нужно оценить спрос и составить семантическое ядро.
* Нужно выправить тексты, объявления и аннотации.
* Нужно растить контент и заниматься ссылками.
* Нужно запастись терпением.
* Нужен сайт, с которого не уйдут посетители.
|
|
|
Этимология слова "очевидно" - весьма проста и доступна. "Оче" - "видно" - видно очами, или говря современным языком, то, что очевидно, мы можем увидеть глазами или сознанием, совершенно не напрягая при этом ни первое, ни второе. Возвращаясь к теме статьи - очевидным проявлением раскрученности сайта, является как раз видимость оного сайта в Сети, иными словами "легкая находимость" в бездонном болоте Интернета. Сайт можно легко найти - значит он раскручен. Это очевидно.
Под этим самым, легко найти, подразумевается очень широкий спектр своиств: высокие позициии сайта в поисковых системах и каталогах, множество ссылающихся баннеров на популярных сайтах и пр. и пр. и пр.
Но зачем я рассказываю вам то, что вы и так знаете? Ничего особенного, просто маленькое прояснение ситуации, прежде чем я открою вам глаза на то, как неочевидное становится главенствующим, когда мы смотрим на раскрутку сайта не как на что-то абстрактное, а как на нормальный компонент рекламной политики компании, в который вложены деньги. И который, опять-таки, нормально и без суеты должен эти денюжки отработать и принести нормальную русскую прибыль, обычно исчисляюмую сотнями процентов.
Итак, вы предприниматель, и вы хотите иметь хорошо раскрученный ресурс, представляющий вашу фирму в сети. И целью данного ресурса, является ни больше, не меньше, а привлечение новых клиентов на ваши товары и услуги. Клиенты - это деньги, а деньги - это хорошо. Цели поставлены - начинаем достигать. Все неочевидное постараюсь изложить в порядке возрастания неочевидности.
Раскрутка начинается с создания
И сразу же первый неочевидный аспект - сайт который нравится вам и вашей секретарше может быть совершенно непригоден для раскрутки. Не буду здесь детализировать основные ошибки при создании сайта - сеть просто наводнена подобными перечнями, да и ваш покорный слуга уже не раз писал о несомненной пользе для раскрутки, фреймовых структур, двухсоткилобайтных заставок, и прочих недоразумений горе-сайтостроителей. Просто дам один совет - заказывайте создание сайта там же, где вы планируете заказывать его раскрутку - сэкономите дважды. Первый раз, когда получите скидку за комплексный заказ. Второй раз на том, что не прийдется все переделывать заново (то что переделывать обязательно прийдется, вам подтвердит любой, кто уже имел с этим дело).
Баннеры и Эрмигурт
Баннеры, баннеры- Я здесь предвзят - каюсь - я не люблю баннеры. Равно как не люблю рекламу "Эрмигурта". Я не смотрю на баннеры, я по ним не кликаю, Эрмигурт я не покупаю принципиально, хотя йогурты люблю. Мои знакомые не смотрят на баннеры и не кликают по ним. Когда я работаю через диалап, то частенько отключаю графику вообще. Но- Я не могу отрицать эффективность баннерной рекламы в приложеннии к раскрутке сайта и при определенных условиях.
Условие - баннеры наиболее эффективны, когда они размещены на ресурсе, тематически родственном вашему. Пожалуй, это единственный случай когда я рекомендовал бы финансировать баннерную рекламу. Пусть даже подобное размещение баннеров будет дороже (иногда это вообще невозможно, например когда все родственные ресурсы - это сайты ваших конкурентов) нежели в баннерных сетях. И как правило, это означает индивидуальные переговоры, относительно условий размещения (положение на странице, стоимость) ваших рекламных баннеров, с администрацией каждого сайта в отдельности, в противоположность автоматизированному выбросу в баннерные сети.
Хотя есть неочевидная полезность и баннерных сетей - переходов из оных сетей кот наплакал (по некоторым тематикам имеются исключения), ссылки, ведущие на ваш сайт, могут дать заметный прирост индекса цитирования в некоторых поисковиках. В общем, баннерные сети - хороший дополнительный ускоритель для молодых ресурсов. Но не более того.
Top 10 - "хорошо" или "отлично"?
Моя любимая тема. То что вы всегда хотели узнать, но боялись об этом спросить. А если бы даже и спросили- Ну вы понимаете - рынок есть рынок.
"Мы поможем Вашему сайту попасть в первую десятку ведущих поисковых машин-" "Так как мы используем только честные методы раскрутки, мы можем гарантировать только попадание на одну из первых трех страниц-" "Раскрутка всего за 30 долларов-" Надо ли мне писать о том, Матрица вас имеет? Или вы уже сами это ощущаете?
Как вы уже догадались, речь пойдет о поисковых рейтингах или назовите их как угодно, но суть здесь в том, что за исключением, пожалуй, только постоянного контингента на информационных, развлекательных и прочих часто обновляемых ресурсах ресурсах, наибольшую часть посетителей вашего сайта (и что особенно важно - целевых посетителей) составят именно люди, пришедшие по ссылке из поисковых систем. Когда я пишу это, я имею ввиду, что ваш сайт - это просто некий сайт, рекламирующий услуги и деятельность вашей фирмы.
Эти люди - это ваши клиенты. Это "активные" клиенты. Клиенты, которые сами ищут то, что можете предложить им вы. Я люблю таких клиентов. Вам не надо их в чем-то убеждать, вы можете им просто предложить то, что у вас есть. И если условия их устраивают, они это купят.
Итак, вы решили потратиться и заполучить-таки заветное место в первой десятке по паре-тройке словосочетаний, скажем в Яндексе. И сразу же: Яндекс (Гугль, Рамблер) не приветствует, когда деньги, по праву принадлежащие ему, уплывают куда-то в сторону - и постоянно, мягко, но настойчиво предлагает свою рекламную систему Яндекс.Директ. Но ответьте мне, только честно, часто вы пользуютесь ссылками, выдаваемыми Директом? Вот и я тоже. То ли, это особенности национального менталитета - не смотреть на то, что "подсовывают", а только на то, что найдено самим. То ли, визуально это как-то криво расположено- Факт состоит в том, что за деньги, потраченные на Директ вы получите рекламу- ровно на эти деньги. Как это ни печально, но всенародно-любимый эффект халявы здесь отсутствует.
"Мы гарантируем вам попадание в первую-" - давайте посмотрим, можно ли это гарантировать вообще? Есть Директ от создателей Яндекса. Надежно. Гарантированно. Но за него надо платить постоянно. И есть некая promo-фирма, предлагающая, заплатить один раз и через пару месяцев (это средний срок раскрутки, после которого начинается массовый приток посетителей из поисковых машин) воссиять на небесводе Рунета. Так могут ли они гарантировать это? Возможно ли в принципе гарнтировать что-либо подобное, имея в виду, что алгоритмы ранжирования сайтов тем же Яндексом - тайна за семью печатями. Ответ здесь где-то посередине между ДА и НЕТ. ДА - потому что кто-то в этих топах определенно находится. НЕТ - потому, что есть элемент тайны и везения. И ВОЗМОЖНО - потому, что- просто потому, что это возможно. Все это вопрос времени, денег и целесообразности. Именно целесообразность и эффективность интернет-рекламы - вот самая очевидная неочевидность. И я перехожу к самому неочевидному аспекту, коим вышеупомянутая целесообразность и является.
Как вы думаете, как быстро окупятся средства вложенные на попадание вашего сайта(ов) в первую десятку поисковых машин?
Какие это средства?
Хорошо, прийдется вам поверить мне на слово - гарантированное попадание в первые строки списка, выдаваемого поисковой машиной в ответ на словосочетания, соответствующие роду деятельности вашей компании (а я настаиваю на том, что это самый эффективный вид интернет-рекламы) обойдется вам в несколько тысяч долларов ($3.000 - $10.000 в зависимости от типа деятельности, представленности конкурентов в Сети и т.п.) и пару-тройку месяцев (две-три недели если оооооччень повезет) ожидания до получения нужного эффекта. Я вижу ваши круглые глаза, но "лекарство такого уровня, такого класса-". Это просто реальные деньги, которые весьма близки к себестоимости подобного проекта. Как правило это предполагает создание нескольких сайтов и огромный объем работы по их раскрутке.
Вы готовы платить подобные деньги?
Возможно, вы рассуждаете так: "Ага, я продаю машины. Слово машина в прошлом месяце запрашивали в Яндексе (статистика общедоступна), ну скажем, 25.000 раз. Следовательно, попадание на первую страницу в поисковой машине даст мне, примерно 5.000 посетителей. Первая десятка обеспечит 15.000..". Стоп!
Я хочу купить машину. Мои действия:
* иду на свой-любимый-поисковик.ru
* набираю "машина"
* просматриваю сайты из выданного списка по-порядку, начиная с первого (здесь я намеренно взял упрощенный пример)
* если я достаточно терпелив, то просматриваю, скажем, первые тридцать сайтов.
* я нашел то, что нужно - звоню - еду - покупаю машину
* не найдя желаемое, возвращаюсь к п. 2 и набираю "купить машину" (если я в Интернете недавно) или что-то типа "продажа машин" (если хоть какой-то опыт работы с поисковиками имею).
* Повторяю просмотр.
И ВНИМАНИЕ! - ЕСЛИ Я УЖЕ НА ПЕРВОМ САЙТЕ ИЗ СПИСКА НАХОЖУ ТО ЧТО МНЕ НУЖНО, ТО ДАЛЬШЕ Я НИЧЕГО СМОТРЕТЬ И ИСКАТЬ НЕ БУДУ.
Возможно, пример с машинами не самый удачный (хотя почему бы мне и не наткнуться на первом же сайте на рельную распродажу автомобилей по бросовым ценам) Но, надеюсь, что основную идею я все-таки донес. Если нет, то еще раз но другими словами.
ВАШ САЙТ БУДЕТ ГАРАНТИРОВАННО ПРОСМОТРЕН ТОЛЬКО ЕСЛИ ОН НАХОДИТСЯ НА ПЕРВОМ МЕСТЕ В СПИСКЕ.
Иными словами - идеальным вариантом является, когда ваш сайт будет первым и последним на котором побывает ваш клиент. У поисковых машин, кстати идеальная ситуация подобная - они стремятся обеспечить релевантность запросу такого же уровня - первый просмотренный сайт должен являться и последним.
Ваш сайт может быть не просмотрен потенциальным клинтом, несмотря на то, что он высоко ранжируется поисковой системой и даже если он входит в первую тройку-пятерку списка. И это пожалуй самый неочевидный момент в теме раскрутки сайта.
И если за то, что ваш сайт будет "последним среди просмотренных" и самым нужным ответственен контент вашего ресурса. То за попадание на первое место (которое гарантирует просмотр потенциальным целевым клиентом) собственно и отвечает фирма, взявшаяся за раскрутку сайта.
Можно ли гарантировать первое место? Возможно все - вопрос времени, денег и целесообразности.
В заключение. Когда я хочу помотреть свежие обзоры "железа" я иду на www.ixbt.com - и никакие поисковики, индексы цитирования на это не влияют - это просто пример идеально раскрученного ресурса. Правда совсем из другой оперы, но все же.
Хороший сайт нуждается не в раскрутке, а в мощном и быстром сервере ;)
|
|
|
Итак, вы создали список ключевых слов, которые будете использовать для поисковиков. Теперь пришло время узнать, как правильно разместить эти слова для того, чтобы получить максимальную оценку от поисковой системы. Эта статья посвящена всем вебмастерам, которые занимаются не только созданием сайтов, но и их продвижением в сети интернет.
Создайте "входные страницы" (дорвеи) для вашего сайта, используя всевозможные комбинации ключевых слов на странице. В идеале, необходимо создать каждую отдельную страницу для конкретного ключевого слова и для конкретной поисковой машины, так как каждая поисковая система использует свой алгоритм оценки релевантности. Сразу должен сказать, что дорвеи - это хорошая идея, но на практике их разработка может занять массу времени. С тех пор, как поисковые системы стали регулярно менять алгоритмы оценки страниц, вебмастерам приходится постоянно работать над созданием новых дорвеев, обеспечивающих высокий рейтинг в поисковой системе. Более того, если вы работаете над большим количеством ключевых слов, вам придется создавать сотни дорвеев! И вскоре, вы столкнетесь с тем, что их создание будет отнимать больше времени, чем обычная работа над сайтом.
Метод, который я хочу предложить работает. Изначально, не беспокойтесь о разных алгоритмах в поисковых системах. Создайте разные дорвеи, пропишите их в поисковые системы, и отслеживайте траффик. Регулярно создавайте дорвеи и проверяйте статистику посещений, до тех пор, пока не определите рейтинг ваших страниц в поисковиках (почти все поисковые системы дают эту возможность). Когда вы определили нахождение страниц в рейтинге, создайте новый дорвей - в котором неоднократно повторяется конкретное ключевое слово в смеси с другими ключевыми словами. Зарегистрируйте этот дорвей в поисковиках и следите за его рейтингом. Как только вы определили поисковики, которые низко оценивают этот дорвей, создайте новые дорвеи для конкретной поисковой системы, основываясь на рейтинге предыдущих дорвеев. Продолжайте оптимизировать его до тех пор, пока не достигните должного результата.
Пойдем дальше. Я надеюсь, вы вкурсе, что такое meta tags, tittle tags, meta-description tags, meta-keywordstags, the heading tags, и alt tags. Если вы не знаете, что это такое, бросайте читать эту статью и отправляйтесь в магазин за руководством по созданию HTML-страниц.
Предположим, у вас сайт туристической фирмы и вам необходимо использовать ключевые слова "Путешествие в Австралию". Приступим к созданию нашего дорвея.
Самый важный тэг в создании дорвея. Всегда вписывайте основное ключевое слово вначало, повторяя его в середине и в конце тэгов .Но НИКОГДА не вписывайте ключевое слово (или два ключевых слова) два раза подряд - поисковые системы воспримут это как спам. Также, содержимое тэгов является заголовком в результатах поиска поисковой системы, т.е.вы должны создать абсолютно читаемый заголовок. Вот пример: "Путешествие в Австралию - открой для себя как можно совершить путешествие в Австралию всего за ***$". Здесь мы создали заголовок, в котором ключевые слова используются в начале и повторяются в середине. Также, чередуйте заглавные и прописные буквы в слове "путешествие". Создайте подобные дорвеи, используя варианты: "путешествие в австралию", "Путешествие в Австралию", "путешествие в Австралию" и т.п.
Содержимое страницы. ALT-тэг Переходим к содержимому страницы. Начните свою страницу с изображения рисунка, имеющего прямое отношение к теме вашего сайта. Поместите его вверху страницы. В ALT тэге рисунка впишите "Путешествие в Австралию". Можете дополнить тэг другими словами, но начните обязательно с основных. Теперь создайте заголовок. Используйте размер H1 для заголовка. Снова, впишите основные ключевые слова в заголовок. Также как и в ALT-тэг, вы можете добавить другие слова, но после основных. Переходим к тексту страницы. От текста, расположенного в начале страницы зависит практически все. Содержанием текста вы должны направить посетителя к вашей основной странице сайта. Вставьте ссылку на основную страницу сайта на видном месте, чтобы посетитель мог не напрягаясь уйти по ней. Не вставляйте лишних ссылок и лишних баннеров - не давайте посетителю уйти.
Придерживайтесь следующих правил:
1) Первое, что необходимо помнить: некоторые поисковые системы не читают Meta-тэги, и используют первые слова на странице в качестве ключевых. Поэтому первые строки должны быть качественно составлены и удобочитаемы для посетителя.
2) Составьте предложения так, чтобы в них обязательно присутствовали ключевые слова - по одному разу в предложении. При этом ваши предложения должны иметь грамматический смысл, а не представлять из себя набор фраз. Посетитель должен получить приятное впечатление при чтении текста.
3) Не делайте ваши параграфы слишком длинными. Каждый должен быть от силы из 3-4 предложений. Посетители веб-страниц просто не будут читать большие громоздкие тексты.
4) Попытайтесь сделать так, чтобы текстовые ссылки включали в себя ключевые слова. Зачастую поисковики высоко ранжируют такие страницы.
5) Если это возможно, делайте ссылки на страницы которые имеют ключевое слово в имени файла. Поисковые системы учитывают это.
6) Нет конкретного ограничения на количество слов в странице - но постарайтесь создать ваш дорвей с 500-600 словами.
Созданную страницу назовите ключевыми словами, разделенными дефисом:travel-to-australia.html Это даст вам высокую оценку поисковиками (например Nothern Light), которые обращают внимание на присутствие ключевого слова в URL.
Теперь вам нужно правильно прописать дорвеи в поисковых системах. Многие вебмастера, загрузив дорвеи на сервер начинают регистрировать их один за другим в поисковых системах. Это распространенная ошибка. Поисковые системы низко оценивают страницу, с которой есть несколько ссылок, но нет ссылок на нее, а бывает так, что такие страницы оцениваются как дорвеи и тогда поисковая машина заносит URL в черный список - блэклист.
Что вам еще нужно сделать, так это сделать ссылку на дорвей с вашей основной страницы, но сделать это так, чтобы ссылка существовала только для поисковой машины - но не для посетителя. Однако не делайте текстовые ссылки под цвет фона - 99% поисковиков занесут вас в блэклист за такие проделки. Вот здесь я вам открою свой маленький секрет Создайте небольшую картинку под цвет вашего фона. Назовите рисунок именем дорвея - travel-to-australia.gif Вставьте рисунок в конец основной страницы и сделайте с него ссылку на дорвей. В ALT-тэг рисунка также вставьте ключевые слова . Не забудьте установить border=0 для рисунка.
Создайте подобные дорвеи для других ключевых слов, скопируйте тот же рисунок на основной странице еще раз, изменив его имя, ALT-тэг и ссылку. Повторяйте этот процесс для каждого ключевого слова или фразы. Таким образом, когда будет создано достаточное количество дорвеев, вы можете прописать вашу основную страницу сайта в поисковые системы. Не прописывайте все страницы сайта - пропишите только основную страницу. Несмотря на то, что на обнаружение всех страниц сайта уйдет больше времени, я настоятельно рекомендую поступить именно так: спайдер, пройдясь по ссылкам и обнаружив тем самым дорвеи и не узнав их, придаст более высокое ранжирование им!
|
|
Внимание! Если у вас не получилось найти нужную информацию, используйте рубрикатор или воспользуйтесь поиском
.
книги по программированию исходники компоненты шаблоны сайтов C++ PHP Delphi скачать
|
|