Добро пожаловать,
|
|
|
|
|
|
Поиск
|
В данной статье я рассмотрю вопросы о недавних тенденциях в области SEO, которые вносят свои коррективы и новые правила игры.
Ни для кого ни секрет, что рынок услуг в области поисковой оптимизации сегодня и несколько лет назад - это совсем разные вещи. В основном это обусловлено значительно возросшей конкуренцией между владельцами интернет-ресурсов. Да и само количество веб-страниц, ежедневно индексируемых поисковыми машинами, возрастает постоянно чуть ли не в геометрической прогрессии.
В Золотом Веке SEO, большинство веб-мастеров даже и не думали о каких-то поисковых машинах. А если такое все же случалось, то им (веб-мастерам) было достаточно разместить лишь несколько ключевых слов в Meta-тегах. Это были времена, когда каждый, кто хоть немного разбирался в оптимизации сайтов, мог запросто повысить рейтинг своего сайта во всех главных поисковых машинах. Для этого не нужно было и особо стараться.
В наши дни все совсем по-другому. Даже используя ключевые слова, у которых высокий KEI (keyword effectiveness index, индекс эффективности ключевого слова - отношение количества запросов ключевого слова к числу конкурирующих страниц), порой бывает очень трудно достичь высоких рейтингов в SERP (search engine results page, страничка результатов поискового запроса). Но дело не только в этом. Рейтинг - вещь довольно изменчивая (можно сравнить его с морем) и сайт, который несколько дней был на первой странице, потом запросто может спуститься ниже. Эта проблема особенно актуальна для вновь открывающихся веб-сайтов, порталов, интернет-магазинов.
Могу смело сказать, что если вашему интернет-ресурсу менее года, то результаты его раскрутки будут значительно отличаться от ожидаемых. К сожалению, не в лучшую сторону. Поэтому не верьте тем, кто предлагает "очень быструю", "с мгновенным эффектом", "очень дешевую" раскрутку - чаще всего за этим скрывается обычное мошенничество или от этого будет кратковременный эффект.
В вот последствиями такой раскрутки может стать "вылетание" из индексирования поисковой машиной. А это уже от 50 до 70 % аудитории посетителей. Так что сначала подумайте, а только потом действуйте. "Скупой платит дважды" - эту поговорку еще никто не отменял. Вообще, сам процесс раскрутки - довольно долгий и требующий множества усилий.
Еще одним важным моментом, о котором хочется поскорее упомянуть, будет следующее. Мне кажется, что всем веб-мастерам, владельцам сайтов и людям, которые занимаются SEO (сложно их по-другому назвать) нужно на данном этапе развития интернета переключить приоритеты от повышения рейтинга по ключевым словам к фокусировке на привлечение целевой аудитории (трафика), переводя ее в покупателей. На данном этапе лишь малая часть сервисов по продвижению сайтов действует именно по такой схеме.
Приведу небольшой, но характерный пример. Допустим, у вас есть свой интернет-ресурс, который для вас является не просто развлечением (хобби), а это ваш бизнес. Вы в него вкладываете некоторые материальные ресурсы (деньги - на хостинг, раскрутку, дизайн, программирование к примеру). Естественно, в недалеком будущем вы намерены получать с этого сайта прибыль. А вот каким образом этого достичь?
Рассмотрим возможные варианты ответов:
1) Нужно так раскрутить ресурс, чтобы по моим ключевым словам он занимал первые места в Google'е, Yandex'е и Rambler'е.
2) Привлечь тех посетителей (да и побольше) на мой интернет-ресурс, которые в интернете ищут товары / услуги, которые я продаю / предлагаю.
Какой же из них верный? Да оба верны, но каждый по-своему. Дело в том, если придерживаться идеологии из ответа №2, то пользы для вашего бизнеса будет гораздо больше.
Могу себе представить, сколько у вас ко мне накопилось вопросов. Но, стоп! Я прекрасно понимаю людей, которым очень хочется поднять рейтинг сайта с 99-ой до 1-ой позиции в рейтинге по нужному для них ключевому слову. Естественно, это приведет к дополнительному росту трафика посетителей к ним на сайт и увеличению объемов продаж. Жаль только, что есть люди, которые верят, что какая-то фирма по раскрутке сайтов может просто взмахнуть волшебной палочкой и рейтинг вашего сайта возрастет до небывалых высот.
Но дело в том, что даже лучшие профи поисковой оптимизации не волшебники. Они попросту не могут поместить ваш сайт наверх, когда существует сотни (если не тысячи) других сайтов, которые предлагают те же самые услуги, занимаются продажей тех же товаров. Если бы это было так, то среди оптимизаторов был бы не один миллионер :)
SEO утратило всякий смысл?
Ни в коем случае! Но та поисковая оптимизация, которая основана только на достижении высоких позиций с использованием популярных ключевых слов, постепенно становится все менее и менее эффективной. И выходом здесь будет вовсе не использование непопулярных ключевых слов. Необходимо просто расширить свой горизонт раскрутки другими, не менее эффективными методиками.
Если просто взять и пройтись по десятку-другому сайтов, можно заметить одну и ту же типичную тенденцию - использования стандартного набора ключевых слов / фраз в текстах сайтов. Владельцы сайтов так сильно привязаны к идее "побольше заработать", что уже и не думают о посетителях. Зачастую одни и те же фразы встречаются на всех страницах веб-ресурса. А ведь интернет постоянно меняется: появляются новые популярные слова, фразы, развиваются технологии. Ежедневно тысячи пользователей Всемирной Паутины производят все новые и новые запросы к поисковикам. Но множество веб-мастеров не используют эту возможность, а зря.
Теперь хочется остановиться на таком важном понятии для поисковой машины, как "хороший контент".
Что именно он из себя представляет? Только лишь обогащенный ключевыми словами текст? Я думаю, дело не в этом. На данный момент в интернете появилось множество компаний, предлагающих услуги по написанию "хорошего контента". Но чаще всего это попросту сводиться к вышеупомянутому способу с ключевыми словами. Хотя есть и исключения, но работа профессионалов такого уровня обходиться очень недешево.
А может взять да и самим попробовать написать "хороший контент" для своего сайта? Кто, как не вы лучше разбираетесь в его специфике? Можно и нужно попробовать. Главное - чтобы контент был уникальным и ни у кого его больше не было. Ключ к хорошему контенту - ваше творчество. А вот уже использовать ваш творческий потенциал - это уже не "вслепую" копировать статьи у конкурентов.
Важно, чтобы у вас было свое собственное мнение, своя аналитика происходящего. Просто представьте, что сайта с данной тематикой больше ни у кого нет. Вы будете выступать как бы в роли "первопроходца" в данной области интернета. Все эти методы уже давно проверены на практике и очень эффективны. Как для посетителя, так и для поисковой машины.
|
|
|
За годы существования интернета такие понятия "вес" или "популярность" ссылки, технология Google PageRank, прочно укрепились среди пользователей интернета. В особенности среди вебмастеров и владельцев сайтов. Но часто возникает путаница между этими двумя терминами, а ведь для поисковой машины это не одно и тоже. Попытаюсь внести ясность в данный вопрос.
Что такое "вес" ссылки?
Теоретически это выглядит так: поисковый робот решает, что если другие сайты ссылаются на ваш сайт, то значит его (ваш сайт) нужно повысить в рейтинге. Т.е. при прочих равных условиях рейтинг будет выше у того сайта, на который ссылается большее число сайтов (желательно еще и с собственным "большим весом"). Ведь, исходя из элементарной логики, вебмастера ставят ссылки на дружественные сайты, которые заслуживают на внимание посетителей.
PageRank и "вес" ссылки - не одно и тоже
Да, эти два термина кое в чем между собой отличаются. PR - это скорее одна из составляющих "веса" ссылки. Поскольку PR больше сфокусирована на количестве ссылок (как прямых, так и обратных на сайт), то под термином "вес ссылки" скрывается качественная составляющая этих ссылок. Тем не менее, множество пользователей интернета неправильно понимают эти два термина, а зачастую и просто воспринимают их как синонимы.
На сегодняшний день все главные поисковые машины уделяют популярности ссылок большое внимание. В первую очередь это затрагивает алгоритмы, по которым составляются рейтинги проиндексированных сайтов. А что же полезного можно извлечь из этого для раскрутки собственного сайта? Оказывается, что существует 2 основных типа ссылок, которые наиболее важны в поисковой оптимизации:
1. Ссылки с других сайтов, которые содержат тот же набор ключевых слов, что и ваш ресурс
2. Ссылки с релевантных (с похожей тематикой) рубрик в популярных каталогах
А вот ссылки с каталогов типа "Free-for-all" (FFA) не дают весомых ссылок, поэтому нет необходимости тратить деньги и время на размещение в них. Уж лучше разместить сайт в десятке наиболее известных каталогов (таких, как например Яндекс. Каталог), чем в сотне малоизвестных. А еще, как показывает практика, размещение сайта в каталоге вместе с сайтами неродственных категорий (как и в непопулярных каталогах) дает только временный рост PR.
Алгоритмы поисковых машин постоянно меняются, как и эффективность методик раскрутки. Хочу заметить, что в последнее время наметилась общемировая тенденция в seo - повышать рейтинг только тех ресурсов, на которые ссылаются сайты с большим собственным рейтингом. Может это связано с ростом количества сайтов, а может проблема в чем-то другом. Возможно, что места под солнцем становиться все меньше, а желающих - все больше.
Как работает механизм "рейтинг ссылки"
Хочу привести вам пример того, каким образом работают ссылки на популяризацию сайта.
Предположим, что у дяди Васи есть пиццерия. Естественно, она у него имеет и свой сайт в интернете (люди заходят и заказывают пиццу). Далее представим, что на этом сайте дядя Вася решил разместить ссылочку на сайт свого соседа по дому дяди Вани. А вот он занимается продажей мужской одежды, у него сайт с низкой посещаемостью, вот и решил он помочь ему в раскрутке.
Итак, на сайте дяди Васи появилась ссылка на сайт продаже мужской одежды дяди Вани. Пусть она будет выглядеть как "лучший магазин мужской одежды". Если посмотреть на название ссылки, то все ок - ключевые слова тут как тут. Только вот эффект для дяди Вани от этого будет минимальным: ведь пицца и мужская одежда - это совсем не одно и то же.
Лучшим вариантом для дяди Вани было бы разместить ссылочку на сайте с похожей тематикой. Пусть лучше это был бы сайт тети Клавы о продаже женской одежды, сайт дяди Миши о продаже мужской обуви или любой другой, но уже тематически связанный с одеждой / обувью.
А вот просто идеальным было бы иметь для дяди Вани ссылочку в "Каталоге магазинов одежды Сан Саныча", в котором содержаться ссылки на наиболее популярные магазины одежды. Вот именно это и есть тот случай, когда поисковый робот непременно повысит рейтинг вашего сайта.
Нужно ли ставить обратные ссылки?
Вокруг этой тематики уже не один год ведутся споры, в которых было сломано немало копий. Но ситуация яснее не стала: достаточно как приверженцев, так и противников наличия обратных ссылок. А все началось с тех пор, когда вебмастера решили, что взаимный обмен ссылками - это самый простой способ привлечения посетителей (хотя это и не всегда верно). Сейчас же большинство вебмастеров обмениваются ссылками по принципу "ты-ставишь-ссылку-на-мой-сайт-я-ставлю-ссылку-на-твой". Но есть и противники такой методики, которые ее считают неэффективной для повышения рейтинга сайта.
Так кто же прав? Да неправы обе стороны одновременно. Я считаю, что нет необходимости ставить обратную ссылку, но если все же хочется, то можно и поставить. Необходимо помнить, что являются полезными лишь ссылки, которые указывают НА ваш сайт. А те ссылки, которые ведут ОТ вашего сайта, полезны лишь в том случае, если тот сайт является родственный по тематике. Ведь посетитель вашего сайт заинтересован, как правило, в посещении и других сайтов с похожей тематикой.
Необходимо ли заботиться о "популярности" ссылки?
Не только необходимо, а и жизненно важно для вашего сайта. Тем не менее, необходимо помнить, что (вопреки распространенному мнению) вес ссылки является только частью работы алгоритма поисковой машины. Но тут особенно выделяется Google, которая больше остальных поисковиков уделяет внимание качеству и количеству ссылающихся сайтов. А вот насколько реально это повышает рейтинг сайта и каким образом - это спорный вопрос, точного ответа на который не знает никто (кроме разработчиков поискового алгоритма).
Хочу также заметить, что не последнюю роль в рейтинге сайта играет и то, какие слова содержатся в ссылке на него. Как показывает практика, несколько ссылок с высокой релевантностью и удачным описанием - это едва ли не единственный быстрый и простой путь к повышению рейтинга сайта.
Но тут главное не переусердствовать. Не нужно сразу же бросаться рассылать сотни писем владельцам сайтов с предложением разместить на вас ссылочку. Думаю, что большинство вебмастеров не будут в восторге от излишней настойчивости, если вообще не примут ваши письма за спам. Необходимо понять, что каждая ссылка на "вес золота" - только благодаря ей можно получить посетителей больше, чем со всех поисковиков, вместе взятых.
Способ получить ссылки ничего не делая
Хочу с вами поделиться одним способом получения ссылок на свой сайт. Пусть он и более затратный по времени, но зато очень эффективный. Необходимо просто создать лучший (ну или один из лучших) сайтов в своей тематической нише. Для этого будет вполне достаточно, чтобы он был грамотно и красиво сделан, содержал множество статей (желательно еще и уникальных) и постоянно бы обновлялся (в идеале - каждый день). Пройдет некоторое время и сайты с похожей тематикой начнут сами ставить ссылки на ваш ресурс.
Пусть кто-то добавит ваш сайт в "рекомендованные сайты", кто-то в "друзья" или "каталог ссылок", но ведь главное, что ссылка будет. Могут также взять статью с вашего сайта, главное, чтобы ссылочку на источник поставили :)
Да, может быть этот метод в чем-то и утопичен. Но уж лучше сразу потратить месяц-другой на создание хорошего ресурса, чем потом просить поставить ссылку на ваш сайт. Хотя, не буду спорить, может этот метод и не самый лучший.
Поэтому советую вам не пожалеть времени и подумать над тем, как создать супер-сайт. Вот тогда вам уже не придется беспокоиться о каких-то "рейтингах" ссылки, обратных ссылках и непонятной аббревиатуре PR!
|
|
|
В данной статье я бы хотел рассмотреть и сравнить между собой несколько способов раскрутки сайтов. Некоторые способы уже известны многим как быстрый путь к увеличению посещаемости сайта. Посмотрим так ли это на самом деле.
Достижение высоких позиций невозможно только редактируя meta-теги.
В свое время я прочел очень интересную книгу Стефана Ковея "7 привычек успешного человека". Мне в этой книге особенно понравился раздел "Персональная этика". В нем автор упоминает о том, как некоторые люди изо всех сил пытаются найти "быстрый и простой способ достичь успеха в жизни не работая и не совершенствуя свои профессиональные навыки".
Далее автор подводит итог: "Персональная этика - вещь иллюзорная и обманчивая. Вот поэтому пытаться достичь каких-либо значимых целей так просто и быстро так же утопично, как найти Эйфелеву башню на карте Мадрида".
Я думаю, что сказанное выше можно смело применить и к поисковой оптимизации: простых путей нет. Вот поэтому я считаю мифом, что раскрутить сайт можно только путем редактирования meta-тегов.
Почему meta-теги бессильны?
Все дело в том, что толком неизвестно насколько важными являются meta-теги для релевантности сайта. Да и вообще используют ли информацию из них поисковые машины.
Иначе обстоит дело с поиском внутри самого сайта. Вот здесь информация из meta-тегов как раз и помогает найти пользователю страничку на сайте с необходимой информацией. Или, по крайней мере, сузить количество возможных страниц до минимума.
К сожалению, разница между внутренним поиском и поиском с помощью поисковой машины (напр. той же Google) очень велика. Например, с помощью внутреннего поиска можно без проблем найти минимальное количество страничек, которые будут максимально соответствовать поисковому запросу. К тому же содержание сайта (контент) и meta-теги только помогут пользователю добраться до нужной ему информации.
С другой стороны, все главные поисковые машины интернета имеют свои базы данных, которые содержат информацию о всех интернет страничках, о которых они только знают. Они-то не всегда доверяют информации из meta-тегов, так как она запросто может отличаться от истинного содержания сайта. К примеру, вы как владелец сайта, желаете видеть свой сайт на верху результатов поиска по многим ключевым словам (фразам), но поисковик все равно поместит туда наиболее релевантные по данным ключевым словам сайты.
Вот по этой причине только изменять информацию в meta-тегах не приведет к росту рейтинга сайта и увеличению трафика.
И о контенте замолвим мы слово...
Бесспорно, вы можете наполнять свой сайт статьями любого содержания и тематики и надеяться на быстрый эффект. Но вот только написание хороших статей (т.е контента) требует времени и часто довольно много. Можно, конечно, потратить годы на написание статей, что в конечном итоге приведет к появлению довольно весомого архива полезной информации. Вот только у меня возникаю сомнения, что кто-то сможет писать 100 статей в неделю, да еще и интересных и полезных в информационном плане для посетителя. Тут нужно либо нахально воровать контент с других сайтов, либо пользоваться программами для его генерации, либо становиться роботом с множеством рук!
А как же ссылки?
Да, без сомнений, ссылки - это очень важный инструмент, который помогает вашему сайту хотя бы просто быть замеченным (проиндексированным) поисковой машиной. Вот только делается это не так и быстро, ввиду довольно большой инертности поисковиков. Да ведь играет еще и "вес" ссылающегося на вас сайта, а в данном случае лучше получит одну ссылки с сайта с PR=6-7, чем с сотни с PR=2-3. Но пока ваш сайт еще не раскручен, то крупные сайты вряд-ли поставят на ваш сайт ссылки. Зачем это им?
Так что лучше пока забудьте о популярности ссылки и вместо этого подумайте о привлечении на сайт целевой аудитории и как она узнает о существовании вашего сайта. Тут все проще пареной репы, как говорится. У вас есть сайт и вы занимаетесь бизнесом, который [лучше] [уникальнее] [качественнее] чем аналогичный у ваших конкурентов. Вам, естественно, нужно его заставить приносить прибыль. Не обязательно в вас должно быть много денег для рекламы вашего сайта.
Хорошая реклама в (пусть и не в самом популярной) газете, журнале или даже телепрограмме уже поможет обратить внимание на ваш ресурс. Ведь, чем популярнее сайт, тем о нем должны больше говорить. Можно даже использовать PPC (Paid per click, сервис показа баннеров с вашей рекламой с оплатой за клики), который поможет привлечь на ваш сайт заинтересованных посетителей.
Но, как бы вы не рекламировали свой сайт, не рассчитывайте на бум в течении суток.
А теперь снова вернемся к книге Стефана Ковея. Конечно, можно научиться быстро редактировать meta-теги и зарегистрировать сайт в тысячах поисковых машин, поставить свою ссылку на миллионах бесполезных сайтов. Тем не менее, если вы не потратите время на написание хорошего и уникального контента, который будет понятен и интересен посетителю, написан простыми словами без использования сленга, у вас никогда не будет долговременных положительных результатов.
Как достичь долговременных результатов
Одним из способов быстрой раскрутки есть оптимизация сайта под малоиспользуемые ключевые слов. Ваш ресурс-то будет высоко в поисковых рейтингах, да вот толку от этого маловато.
Но так как мы уже решили, что эффективная оптимизация - процесс довольно долгий, то следующие 5 советов помогут вам с пользой это время использовать.
1) Тщательно исследуйте нужные вам ключевые слова с помощью таких сервисов, как Wordtracker или KeywordDiscovery. Пусть эти сервисы и платные, но, как я считаю, чтобы заработать деньги, их нужно сначала потратить. Рано или поздно все к этому приходят. А вот как раз платные сервисы по анализу ключевых слов - совершенный инструмент раскрутки сайта.
2) Не перегружайте свой сайт графикой. Тут есть два недостатка: до сих пор толком неизвестно, как поисковые роботы обрабатывают графику; да и мало у кого из посетителей хватит терпения долго ждать загрузки вашей веб-странички.
3) Используйте понятный посетителю язык, на котором написана информация на сайте. Пусть посетителю будет понятно, что вы желаете ему рассказать. Не забывайте также оптимизировать текст под те ключевые слова, по которым вы желаете достичь высоких позиций в поисковиках.
4) Не лишним будет убедиться, что текст в теге "title" и в описании ссылки полностью сходится с контентом вашего сайта.
5) Будьте терпеливы и настойчивы. Как правило, нужно около 6-9 месяцев, чтобы получить стабильный трафик на ваш сайт с популярных поисковиков. Что поделать, так уж устроены поисковые алгоритмы - им нужно некоторое время, чтобы присмотреться к новым ресурсам. И тут не следует расстраиваться, лучше потратить время на наполнение сайта хорошим контентом.
И помните, что ваши труды по оптимизации - это работа на будущее. Как и все в этой жизни, если вы тратите время и деньги правильно и для конкретной цели, то ожидаемые результаты не заставят себя ждать.
|
|
|
Для многих вебмастеров SEO (search engine optimization, оптимизация для поисковой машины) - это не что иное, как просто набор трюков и методик, которые несомненно должны поднимать их сайт в рейтингах всех поисковиков. Такое отношение к SEO может и дает временные результаты, тем не менее, здесь содержится большой недостаток: правила постоянно меняются.
Алгоритмы поисковых машин постоянно меняются, как, например, антивирусное программное обеспечение. Ведь в мире постоянно появляются новые вирусы, поэтому они и должны постоянно совершенствовать и вносить коррективы в свои программы. Аналогично обстоит дело и с поисковиками: все в этом мире быстро меняется, а интернет-сфера еще быстрее.
Тем не менее, существует определенный набор правил, по которым поисковики ранжируют сайты, которых должен придерживаться каждый вебмастер в нелегком процессе поисковой оптимизации. Конечно, нет 100% гарантии, что все это работает сейчас или уже появились новые правила игры, но идея остается прежней. Меняются лишь детали, как говорится.
Но если мы не можем применить для оптимизации стандартный набор правил, то что же нам делать? Выход здесь в том, что не нужно всеми силами стараться разобраться в хитростях работы поисковой машины, а просто понять каким образом они работают. У этих самых хитростей есть своя логика работы, которую довольно просто вычислить, что и является их недостатком.
Так что же на самом деле необходимо?
Для достижения высоких позиций в рейтинге (да еще на долгое время) следует понимать, что поисковый робот - это в своем роде живое существо. Конечно, я при этом не имею ввиду, что у них есть мозги, пусть это останется для писателей-фантастов. Тем не менее их поведение и способы работы во многом похожи на работу этого самого мозга.
А теперь остановимся на рассмотрении некоторых функций их "мозга". В общем можно сказать, что им присуща такая специфика, как (если принять интернет за мир с множеством дорог) ходить различными путями, следуя указаниям установленных знаков и собирая всевозможную информация об этой дороге. Затем они направляют собранную информацию группе серверов, которые уже по своим специфическим алгоритмам определяют ее важность для внесения в свои базы.
По каким принципам работают эти алгоритмы? Для начала они создаются людьми, которые прекрасно разбираются в принципах работы интернета и информации, которая в нем содержится. А так как всемирная паутина постоянно изменяется, то эти самые люди и вносят необходимые коррективы в поисковые алгоритмы. По своей сути поисковую машину следует рассматривать, как существо, которое постоянно собирает информацию, сохраняет ее, а потом сортирует исходя из ее важности и с большим удовольствием отсеивает ненужную. Только вот как это она делает и исходя из каких принципов - толком не ясно.
Присмотримся поближе
Понимание того, что из себя представляет поисковая машина на самом деле, попытаемся выяснить в сравнении с анатомией человека. Пусть машина и не дышит, но она содержит много схожего, что необходимо ей для ее виртуальной жизни. А состоит она из следующего:
Легкие: Данный орган у поисковой машины, как и большинство жизненно важных органов, расположены внутри огромных data-центров (сервера, специально предназначенные для хранения информации). Как и организме человека, легкие мы не считаем очень важным органом, тем не менее понимаем, что без них не обойтись и нужно поддерживать их здоровыми.
Руки и ноги: Представим себе, что руки и ноги поисковой машины не что иное, как ссылки на ресурсы, которые она щедро выдает по запросу пользователя. С помощью этого органа мы можем найти все, что нам нужно и получить указатель в виде ссылки на необходимый ресурс. Также, как и тело человека изначально было создано для движения и исследования окружающего мира, аналогично и поисковые машины изначально запрограммированы исследовать всемирную паутину.
Глаза: Глазами поисковой машины являются так называемые пауки (еще их называют роботами или краулерами). Эти самые пауки постоянно просматривают интернет для поиска новых сайтов и следят за изменениями на уже проиндексированных. В данном случае пауки "ползают" по страничкам сайта по его внутренним ссылкам (как по путям), аналогично человеку, который на своем пути видит множество дорог для своего передвижения. К счастью для нас, поисковые роботы движутся по оптико-волоконным проводам, вот поэтому они могут путешествовать по интернету со скоростью света. Это-то и позволяет им посетить все интернет-странички, которые попадаются им на пути.
Мозг: Мозг поисковой машины выполняет те же функции, что и мозг человека: содержит целый набор функций для управления организмом своего хозяина. Также у мозга должен быть свой инстинкт, который должен знать о работе и постоянно контролировать все органы и системы. Вот поэтому поисковой машине никак не обойтись без этого самого мозга, который ей и помогает выжить в этом враждебном мире (пусть в чем-то и виртуальном).
Инстинкт: С помощью инстинкта поисковые машины имеют набор ключевых функций, таких как просматривание сайтов и фильтрация данных, которые нужно или не нужно индексировать. Они запрограммированы игнорировать некоторые типы файлов, не соответствующих определенным критериям. Как мне кажется, в инстинкте поисковой машины главное - это механизм или алгоритм, с помощью которого она индексирует сайты.
Знания: Поисковые машины прекрасно осведомлены о всех тонкостях индексации сайтов. Те знания, которыми они владеют, идут далеко впереди знаний всех пользователей, вебмастеров и оптимизаторов. Поисковая машина знает множество методов сортировки, представления данных, и, естественно, еще и имеет свой специфический набор хитростей и уловок.
Пока поисковый робот путешествует по интернету и индексирует веб-странички, параллельно он отсылает обратно в свой data-центр собранные им данные. Именно в этом центре данные обрабатываются согласно алгоритмов, а спам-фильтры отсеивают ненужное.
Подобно тому, как мы анализируем информацию из статьи в газете согласно своему видению мира, так и поисковики обрабатывает и ранжируют данные в строгом соответствии со своими законами и пониманием работы интернета.
Изучение: Так как поисковая машина ранжирует веб-странички согласно своему видению и пониманию законов функционирования интернета, а эти правила постоянно изменяются, то поисковые алгоритмы постоянно изменяются. Вот тут-то как раз и нужен механизм адаптации или самообучения поисковика.
В то же время, наряду в способностях просматривать странички, поисковые роботы должны уметь определять и наказывать попытки запрещенной раскрутки сайта. При этом благосклонно относится к честным вебмастерам и оптимизаторам.
Вот примеры тех областей, в которых поисковые машины так часто любят менять свои алгоритмы:
* Определения релевантности контента того сайта, на который она нашла ссылку;
* Способность обнаруживать информацию, которая содержится в новых типах данных, к примеру, базы данных, flash и т.п.
* Понимание нечестных методов раскрутки сайтов, таких как размещение "невидимого" текста, ссылок и т.п. Данные технологии рассматриваются поисковой машиной как спам, а пойманные на этом ресурсы попадают в так называемый "черный список";
* Изучение полученных данных, выявление недостатков в индексации, что приводит в действие механизм изменения алгоритма в сторону более эффективного определения релевантности сайта.
Способность к изучению и адаптации к окружающему интернет-пространству изначально закладывается при разработке алгоритмов работы поисковой машины. Ну и, само собой, остается актуальной до следующего обновления алгоритма.
От теории к практике
Все, о чем было сказано выше, касалось лишь аспектов работы поисковой машины. А вот как эти знания применить для раскрутки сайта? Все дело в том, что для правильного выбора стратегии раскрутки необходимо хорошо понимать, каким образом работает эта самая поисковая машина: собирает информацию, ранжирует сайты и т.д.
В свое время, когда одним из основных методов раскрутки было размещение большого количества ключевых слов на страницах сайта, многие вебмастера создавали целые сообщества из сайтов, дабы взаимным обменом ссылок достичь высоких позиций в рейтингах. А вот работает ли эта тактика сегодня? Работает, только результат скорее всего будет временным и краткосрочным.
Ведь поисковая машина, как и человек, хочет выжить в агрессивной окружающей среде. Поэтому, если результаты их работы будут плохими (а вот как раз нечестные методы раскрутки часто ведут к выдаче ненужной посетителю информации), то они медленно, но уверенно перестанут существовать. А ведь при постоянно растущей конкуренции эволюционировать крайне необходимо.
Для примера, пользователю значительно удобнее и проще найти сайт с множеством контента, который ему необходим. Как правило, на таких сайтах он часто обновляется, что позволяет сайту быть актуальным. Поэтому делайте выводы.
Немаловажным моментом остается и обмен ссылками. В данном вопросе намечается тенденция к снижению релевантности обратных ссылок, а обмен ссылками между сайтами разных тематик и вовсе малоэффективен. Но если же вы все же решите поставить обратные ссылки, то обязательно убедитесь, что они ведут на родственные по тематике сайты.
Данная стратегия хорошо работает как для привлечения посетителей, так и для повышения релевантности сайта. Ведь многие пользователи переходят из сайта на сайт по внутренним ссылкам. А если они еще и стоят на авторитетном и посещаемом ресурсе, то это только дополнительный плюс.
И напоследок...
Сам собою напрашивается вывод делать ставку на будущее. И отношение к поисковой машине как живому организму (пусть и в общих чертах) поможет выбрать правильную тактику. Вот когда она в очередной раз придет на ваш сайт, то "накормите" ее вкусным новым контентом, новыми разделами и она обязательно еще к вам вернется. А вот негостеприимных сайтов они не любят, как и быть обманутыми нечестными хозяевами. У роботов память отменная...
|
|
|
Если у вас есть сайт, то вы хотите, чтобы он был посещаемым. А что делать с этими посетителями - это уже тема отдельной статьи. Мы же в этот раз поговорим о генерации трафика на ваш ресурс. Думаю, что одним из наиболее эффективных методов является написание (перевод) статей и публикация их на сайтах, которые пользуются популярностью и регулярно посещаются.
Тут даже не столь важно, или у вас информационный портал с множеством тематик и разделов, или же просто вы продаете/предлагаете что-то, пишите статьи сами или заказываете их у кого-то. Главное - это поток целевого трафика с данных каталогов на ваш сайт.
Приведу несколько правил для успешной генерации такого трафика:
1) Первым делом внимательно прочитайте правила публикации статей и новостей на данном ресурсе. Очень важно обратить внимание на способ оформления материалов - некоторые каталоги не пропускают html-теги в материале статьи.
2) Старайтесь не публиковать один и тот же материал на большом количестве сайтов - ведь поисковые боты могут принять его за дубликаты, а они в последнее время их очень не любят.
3) Естественно, что нашей целью будет не только информирование и донесение чего-то полезного до читателя, но и привлечение его на наш сайт. Ясное дело, что для этого нужно поставить несколько ссылок на ваш ресурс. Но тут важно не перестараться - достаточно будет одной ссылки в тексте статьи (в тему статьи, а не просто - "зайдите на мой сайт") и одной в блоке "информация об авторе".
4) Следует публиковать статьи лишь в тех тематических рубриках, которые соответствуют тематике вашей статьи. В противном случае ее либо не примут на публикацию, либо и читать-то никто не будет. А чтобы найти свой тематический сайт, наберите в гугле что-то типа: "ключевое слово" опубликовать статью (англоязычный вариант - "your keyword here" submit article).
5) Те, кто не боится спама, см. следующий пункт. Остальные - не публикуйте в открытом виде свой контактный e-mail адрес, или же заведите какой-нибудь специально для этих целей.
6) Не забывайте, что публикуете не только вы один, так что ваша статья быстро уйдет в самый низ архивов. Да и кто в них, этих архивах будет рыться, людям нужна свежая информация. Вот и совет вам - не забывайте почаще добавлять статьи, таким образом вы обеспечите себя стабильным трафиком.
|
|
|
Это поисковые системы, что в конечном итоге приведет вашего сайта до сведения потенциальных клиентов. Поэтому лучше знать, как эти поисковые системы фактически, и как они представляют информацию для потребителя начать поиск. В данной статье я бы хотел рассмотреть и сравнить между собой несколько способов раскрутки сайтов.
Существуют два вида поисковых систем. Первый роботами называемых сканеров или пауков. Поисковые машины использовать пауков для индексирования веб-сайтов.
Когда Вы отправляете страницах вашего сайта для поисковых систем, выполнив их требуется представления страницы Поисковая система паук будет индексировать весь сайт. "Спайдер" является автоматизированной программой, что осуществляется с помощью поисковой системы, системы.
Круговой посетителей веб-сайта, прочесть его содержимое на фактических сайте сайт Мета-теги, а также по ссылкам, что место соединения. Паук затем возвращается все, что информацию в центральный депозитарий, где данные индексируются. Он посетит каждой ссылки вы на сайте и индексировать эти сайты, а. Некоторые пауки будет индексировать только определенное количество страниц на сайте, тем не создавать сайт с 500 страницы!
Паук будет периодически возвращаться к местам для проверки любой информации, которая изменилась. Частота, с которой это происходит, определяется модераторами поисковой системой. Паук почти как книгу, где он содержит оглавление, Фактическое содержание и ссылки на все сайты, найденные в ходе обыска, и она может индексировать до миллиона страниц в день.
Пример : Excite, Lycos и Google еффект. Когда вы поисковую систему найти информацию, это фактически поиск по индексу, которые он сам создал и не ищут в Интернете. Разные поисковые системы производят различные рейтинги, потому что не во всех поисковых системах используется один и тот же алгоритм поиска индексов.
Одним из событий, поисковая система сканирует алгоритм является частота и расположение ключевых слов на веб-страницу, но может также обнаружить искусственное наполнение ключевыми словами или Поисковый спам. Затем алгоритмы анализа образом, чтобы страницы со ссылками на другие страницы в Интернете.
Установив, как страниц, ссылающихся друг друга, оба двигателя можно определить, о чем эта страница, если ключевые слова связаны страницы похожие на ключевые слова, по оригинальную страницу.
|
|
|
На рынке веб-разработки сейчас имеется большой выбор готовых систем управления контентом (CMS) и каждый может себе выбрать по потребностям и деньгам. Хотя часто без специальных знаний (или услуг программиста) на этапе настройки не обойтись, тем и хороша CMS, что далее с ней можно работать, не имея навыков программирования.
При большом количестве систем управления сайтом (CMS), CMS является довольно сложным программным продуктом.
Поэтому важно правильно подобрать критерии выбора системы управления для решения своих бизнес-задач. В рамках данной статьи сформулировано небольшое количество понятных владельцу сайта факторов, которые рекомендуется учесть при выборе системы управления коммерческим сайтом.
Первым делом необходимо определить набор функций, которые необходимы на сайте необходимы сейчас и какие могут понадобиться в дальнейшем. После этого можно сузить круг систем и оставить для рассмотрения только те CMS, которые содержат необходимые функции. Это наиболее простая часть задачи, поскольку практически все разработчики систем управления сайтом публикуют функциональные возможности своих систем на сайтах.
После выбора системы ее необходимо будет установить. Вот список ключевых элементов, которые потребуются для установки системы::
- хостинг-площадка
- владелец сайта
- администратор сайта
- пользователи сайта и поисковые системы
Основными параметрами выбора CMS для владельца сайта являются: степень зависимости от разработчиков в будущем, сложность технической поддержки системы, возможность защиты информации, стоимость обновлений и информационной поддержки.
Администратор сайта
С точки зрения администратора сайта система управления должна быть удобной и позволять редактировать на сайте все, что необходимо редактировать без обращения к разработчикам сайта.
Удобство интерфейса администрирования проще всего оценить, поработав с CMS (в режиме наполнения информацией) около получаса. На практике затратить такое количество времени на каждую исследуемую систему почти невозможно, поэтому попробуем формализовать понятие "удобство работы" с позиции администратора типичного интернет-ресурса.
CMS должна запоминать последнее состояние всех открытых древовидных структур и диалогов с закладками. Редактор страниц должен поддерживать автоматическую чистку тэгов при вставке из MSWord или Excel. Лучшие системы позволяют также автоматически переносить на сайт картинки и файлы при копировании информации из MSWord или с других сайтов без дополнительных действий – используется только копирование и вставка.
Если эти требования выполнены, проблем с эксплуатацией системы управления скорее всего не возникнет. К сожалению, упомянутые моменты выяснить самостоятельно сможет далеко не каждый пользователь, поэтому в большинстве случаев придется при анализе опираться на заявления разработчика.
Заключение
Последним критерием при выборе системы должна стать, естественно, цена. Совокупные затраты обычно считаются как затраты на сам продукт (или лицензию на его использование), стоимость внедрения продукта, затраты на поддержку в течение 2 лет и ожидаемые затраты на модификацию сайта разработчиками.
|
|
|
Для получения целевых посетителей на ваш сайт необходимо иметь представление о факторах позиционирования сайта в поисковых результатах определенной поисковой машины. Под позиционированием подразумевается расположение сайта в выдаче по определенному поисковому запросу.
Как показывает статистика, основная часть посетителей переходит по сайтам, расположенным лишь на первой странице результатов выдачи. К тому же большинство из них предпочитают первые два сайта.
Логично, что если ваш сайт будет во второй десятке, то посетителей будет намного меньше. Таким образом, продвижение сайта нацелено на позиционирование сайта именно в первой десятке выдачи, а лучше – пятерке, идеально – тройке.
Рассмотрим наиболее важные факторы, которые влияют на позиционирование сайта.
Первым делом страница сайта, которая попадает в поисковую выдачу, должна соответствовать поисковому запросу. Для этого в ее содержании должны присутствовать слова поискового запроса и соблюдаться их процентное соотношение к остальному тексту.
Но это хоть и важный фактор, но не главный. Ведь можно создать большое количество страниц под определенные фразы. Пусть они даже будут нечитаемые для человека, но для поисковой машины они будут в самый раз.
Поэтому в последнее время все более важным для продвижения сайта является наличие достаточно большого количества ссылок, которые на него ведут. При этом важно, чтобы ссылки были со сходных по тематике ресурсов, не были взаимными и в тексте ссылки были нужные для владельца сайта ключевые слова.
Еще ссылки очень важны для эффективной раскрутки в такой поисковой системе, как Google. Ее алгоритмы оценивают авторитет сайта на основе ссылок на его с других сайтов, авторитет которых тоже очень важен.
Но недостаточно взять и купить, к примеру, 10000 ссылок с ключевым словом "раскрутка сайтов" и быть уверенным, что по этому запросу ваш сайт будет на первом месте и долгое время.
В последнее время поисковые машины совершенствуют свои алгоритмы на предмет неестественных или покупных ссылок. Поэтому быстрый рост их количества может быть расценен как обман поисковой машины и велика вероятность бана. Тогда сайт вообще может быть исключен из поисковой машины.
По этой причине важно выбрать ту организацию по раскрутке и продвижению сайтов, которая сможет провести наращивание входящих ссылок на сайт с гарантией соблюдения правил всех главных поисковых машин.
Обратите внимание на нашу фирму, которая имеет большой опыт раскрутки сайтов, которая имеет большой опыт раскрутки сайтов. На нашем сайте вы можете также прочитать отзывы наших клиентов.
|
|
|
Открою вам один секрет: создать сайт, который состоит из страниц и которые будут высоко оценены поисковыми машинами и получат хороший вес и рейтинг, можно совершенно без использования последних технологий обмана поисковиков.
Как известно, борьба за первую десятку результатов выдачи поисковой системы - сфера жесточайшей конкуренции, особенно по высокочастотным запросам.
Поисковые машины ищут в интернете информацию (контент) и хороший рейтинг вы получите только в том случае, если сможете создать такой контент, который будет качественным и интересным не только для поисковика, но и для посетителя вашего сайта.
Самый простой способ получения поискового трафика - это написание небольших статей, обзоров, новостей по тематике вашего сайта. В данном случае лучше всего будет ежедневно обновлять свой сайт, добавляя новые разделы. Естественно, не нужно выходить за рамки тематики вашего сайта.
Пусть даже на наполнение сайта контентом и получение ощутимого трафика уйдут месяцы или даже годы, но это стоит того. Вложенный труд не пропадет зря, ведь результаты точно соответствуют затраченным на это усилиям.
А когда у вас будет сайт с несколькими сотнями или тысячами статей, то уже можно заняться его раскруткой - публикация статей, регистрация в каталогах (обязательно белых и тематических) и прочее.
Еще отмечу, что лучше всего писать статьи в рамках от 300 до 500 слов. Больше не нужно, это как раз размер стандартной статьи. Да и посетитель не будет уставать, читая огромную статью. Статьи же меньшего размера могут практически не нести информации и быть бесполезными для посетителя.
Также не забывайте о плотности ключевых слов, по которым вы хотите, чтобы ваш сайт находили в поисковой системе. Это очень важно, ведь поисковый робот внимательно просматривает страничку и анализирует, какие слова в ней встречаются и как часто.
Оптимальное количество ключевых слов на статью - 7-8. Этого вполне достаточно, чтобы поисковая система посчитала ее релевантной.
Совсем другое дело, что пробиться в топ10 только с одними ключевыми словами в статье не получиться. Разве что по низкочастотным запросам. Но название говорит само за себя - посетителей тоже будет мизерное количество. Для получения трафика по высокочастотника и среднечастотникам нужны ссылки, а еще лучше с близких по тематике с вашим сайтом ресурсов. Это уже проверено многими оптимизаторами.
Как говорил Мастер Вадим Ласто (прочитайте его блог - много нового узнаете - lasto.com/blog), без пиаристых морд никуда. Уже ему-то можно верить. Кстати, сейчас отправлю рассылку и загляну на его блог - там частенько появляются новые посты. Его блог я, кстати, нашел, когда искал CMS для своего сайта - Вадим не только оптимизатор, но и программист :)
Данная ситуация отлично подходит узкоспециализированным сайтам (разведение розовых котов с черными ушами и белым хвостом, например) или же нужно брать количеством этих низкочастотных статей.
Все проверено на личном сайте и много раз об этом читалось на различным SE форумах. Читайте форумы, спрашивайте, анализируйте! Удачи вам!
|
|
|
Утром, днем и вечером я пользуюсь различными free seo сервисами. В закладках им уже просто тесно. В один прекрасный день я выложил их на эту страницу. Возможно они будут полезны и другим.
Определение позиций. Анализ страниц.
* Анализ страниц сайта
* Определение Google Page Rank, Яндекс CY, индекса Апорт и индекса Alexa.com
* Определение позиции сайта в различных поисковых системах
* Множественная регистрация сайтов и страниц в поисковых системах Google, Рамблер и Яндекс.
* Определение позиций сайта в нескольких поисковых системах.
* контроль позиций по запросам в поисковых системах.
* Определение позиций сайта по запросам в Google и Yahoo.
* SEO tools - небольшой но функциональный набор инструментов.
* Анализ страницы на предмет видимости поисковой машиной, ключевых слов и заголовков.
* Быстрый анализ продвижения сайта
* SEO LinkTracker - Подсчет ссылок на странице
* Анализатор страниц, беклинков, PR и тИЦ + проверка присутствия в Яндекс.Каталоге, Рамблер-TOP-100 и DMOZ (очень рекомедую!)
* Анализатор вебсайта
* еще один анализатор вебсайта
* Анализ метатегов, заголовка, частоты ключевых слов.
* Visual PageRank
Google. Анализ беклинков
* Анализ обратных ссылок по Page Rank или CY ссылающихся страниц.
* просмотр беклинков по Google. Показывается исходящий PR по каждому линку.
* проверка PageRank по дата центрам.
Google. Индексация. Кеш. Датацентры.
* Google cache tool - проиндексированные Google страницы по различным датацентрам.
* удобное представление проиндексированных Google страницы по различным датацентрам.
* Google Datacenters Checker Tool - индексированые страницы, бекварды и PR. Статистика по разным датацентрам.
* проверка количества страниц проиндексированных поисковыми системами: AllTheWeb, AltaVista, Google, MSN Search, Yahoo.
Сервисы для работы с ДМОЗ (dmoz.org)
* DMOZ Listing Checker Tool - проверка наличия ресурса в каталоге DMOZ.
Google PR предсказатели
* Google PageRank Prediction (еще один предсказатель)
* Предсказание Google PageRank
* очередной предсказатель PageRank
|
|
|
Если вы решили всерьез заняться продвижением вашего сайта в сети интернет, то без механизмов, которые бы отслеживали его посещаемость, вам не обойтись. Ведь именно благодаря им вы можете узнать, сколько к вам пришло посетителей, их географию (из какой страны), как много страниц они просмотрели, какие из этих страниц наиболее популярны.
Также есть очень важные параметры - заходы поисковых (индексирующих) ботов на ваш сайт и реферальные ссылки - откуда посетители зашли на ваш сайт - это может быть как поисковая машина, так и другой сайт.
В этой статье рассмотрим способы, как получить информацию о посетителях вашего сайта.
Тут есть три основных варианта:
1) самостоятельно анализировать log-файлы своего сайта (дает максимально точную информацию, но не все хостеры дают к ним доступ, про бесплатный хостинг и говорить не приходится). Отличной программой, которой сам давно пользуюсь и вам рекомендую, является WebLog Expert (http://www.weblogexpert.com/) Программа не бесплатная, а триал, но при желании всегда можно найти к ней "лекарство". Среди возможностей программы - строит цветные графики и диаграммы для отображения информации о всех данных статистики. Есть возможность вывода отчета об анализе в виде html, pdf или cvs (для импорта в Excel). Работать с программой очень просто - указал пусть к лог-файлу (можно и не распаковывать его, программа понимает архивы gz, zip, и tar.gz), потом нажимаем кнопку "analize" и смотрим отчет.
2) если у вас платный хостинг, то можно использовать встроенные в CPanel или DirectAdmin (у всех по-разному) скрипты типа Webalizer или AwStats. Как с ними работать - об этом должно быть написано в "Вопросах и ответах" (FAQ, ЧАВО) вашего хостинг-провайдера. Многие предпочитают использовать эти скрипты, чтобы не возиться с программами лог-анализаторами или не замусоривать свой сайт кнопками бесплатных сервисов статистики.
3) использовать специальные скрипты, как правило написанные на php, устанавливаются в директорию вашего сайта, используют для хранения информации базу данных MySQL. Самый известный представитель подобного рода скриптов - это CNStats (site). Больше чем уверен, что в мире существует немало его аналогов, но этот скрипт имеет русский интерфейс, что, согласитесь, немаловажно для нас. Среди недостатков - опять же платный, но есть и бесплатные версии с ограниченной функциональностью. БД быстро разрастается, особенно на посещаемом сайте - придется постоянно следить за размером и периодически чистить.
4) бесплатные сервисы статистики - их даже на просторах рунета огромное множество. Рассмотрим лишь самые известные и с качественным сервисом.
SpyLog - spylog.ru
После регистрации и установки счётчика мы получаем возможность анализировать следующие показатели сайта: хиты (сегодня, неделя, месяц), хосты, ссылающиеся страницы, популярные страницы ресурса, география посетителей по странам, хосты, операционные системы, браузеры, дисплеи. В этом списке отсутствует такой важный отчёт как «поисковые запросы» - это один из самых главных показателей эффективности оптимизации сайта и его индексации в поисковых машинах.
Top Mail.ru - top.mail.ru
Предоставляет достаточно полную статистику по сайту в т.ч. по поисковым машинам. Всего – 12 отчётов:
* Позиции в рейтинге
* Динамика визитов
* Время визитов
* Страницы
* Ссылки
* Поисковики
* Каталоги
* Браузеры
* Настройки
* География
* Сравнение аудиторий
* Мой top
Работает счётчик достаточно хорошо, иногда, даже лучше, чем вышеупомянутый SpyLog. Его хорошая работа во многом обуславливается тем, что имеется возможность разделить код счётчика на две части. Первую часть (которая считает посетителей) поставить в начало страницы, а вторую (отображающую сам счётчик) можно разместить в любом месте страницы.
Мой top позволяет определить некий круг сайтов и отслеживать их посещаемость, общих посетителей и рейтинг относительно друг друга, что очень приятно. С помощью данного топа можно отслеживать посещаемость ближайших конкурентов ресурса, причём, они об этом могут даже не знать. А вот для того, чтобы закрыть вашу статистику от других, можете поставить ее на пароль. Насчет стабильности работы Top Mail.ru ходят легенды - не знаю, как сейчас (в последнее время не использую этот сервис), но 2-3 месяца назад были у него частые глюки - статистика была недоступна, обнулялась (да, именно так - на счетчике было три нуля в столбик :)), один раз даже была обратная сортировка рейтинга - на первых местах оказались ресурсы с нулевой посещаемостью, а гранды - на последних.
Liveinternet.ru - liveinternet.ru
Пожалуй, самый качественный и информативный сервер сбора статистики (хотя больше известен своими online-дневниками). Дает любую нужную вам информацию - и посещаемость, и географию посетителей, источники трафика (поисковики, рефералы, букмарки). За небольшую плату (где-то 3$ в месяц) можно установить невидимый счетчик, т.е. кнопки liveinternet.ru не будет на вашем сайте, а статистика будет считаться. Также есть возможность закрыть статистику на пароль.
Catalog.i.ua - catalog.i.ua
Сравнительно новый сервер сбора статистики и каталог одновременно. Появился в ноябре 2006 года, но уже успел зарекомендовать себя как стабильный и точный сервис. Информацию о посетителях выдает как в виде графиков, таблиц, так и есть возможность импорта данных в cvs - для дальнейшего анализа в Excel. Отличительной чертой от подобных сервисов является возможность просмотра не только самой рефссылки, но и поисковой фразы, если был заход из поисковика.
Подведу итог вышесказанному. Какой вид анализа и сбора статистики вам выбрать - решайте сами. В чем могут быть ограничения - это бесплатный хостинг, на котором у вас не будет доступа к лог-файлам и возможность выполнения php-скпритов. Главное, если вы используете бесплатные сервисы сбора статистики, то не переусердствуйте - не нужно ставить их более 3-х штук - ведь это дополнительное время, которое потребуется на загрузку графического счетчика и ява-скрипта.
|
|
|
Эта статья посвящена всем вебмастерам, которые занимаются не только созданием сайтов, но и их продвижением в сети интернет. Под продвижением подразумевается получение посетителей на сайт (так называемого трафика).
На эту тему уже написано большое количество статей как русскоязычных оптимизаторов, так и зарубежных. Но до сих пор так и не выработано единого способа раскрутки, который бы 100% действовал для всех сайтов. Ведь у каждого сайта не только разная тематика, но и на него ведут разные ссылки опять-таки с разных сайтов, в немалой мере влияет название домена, html-код веб-страницы и даже грамотность текста.
В последнее время комплекс мероприятий по раскрутке сайтов называется seo (search engine optimization - оптимизация под поисковые машины). Почему именно под поисковые машины - потому что они дают целевой трафик и ими пользуется 60-80% (по разным оценкам) пользователей интернета. В мире очень много поисковых машин, толком даже никто не знает точного их количества, но главные известны - для рунета это Яндекс и Рамблер (недавно возник поисковик Вебальта, но пока от него заходит лишь индексирующий бот, а не посетители), для мирового инета - это Гугл (Google), Yahoo! и MSN. Последний, кстати, разработка компании Майкрософт, скорее всего и был бы неизвестным поисковиком, если бы не маркетологи компании, которые интегрировали его в ОС Windows - вот такой хитрый ход
Теперь о самой раскрутке. В первую очередь следует ориентироваться на два поисковика - Яндекс и Гугл (плюс Яху, если сайт англоязычный). Как показывает практика seo, только от этих поисковых машин можно получить какой-нибудь приличный трафик, который уже можно сконвертировать в вечнозеленые денежные знаки. Поэтому на форумах и блогах о поисковых машинах и поисковой оптимизации следует следить за новостями и методикой раскрутки именно для этих машин.
Спросите любого вебмастера, который уже не первый год занимается сайтами и он вам скажет, что создать сайт - это самое простое, а вот раскрутить его и получить стабильный трафик - это труд не одной недели и даже не одного месяца. Это самый настоящий труд, а не виртуальный, как может многим показаться - сидишь себе дома, серфишь по инету и ходишь в банкомат снимать деньги. Так думают только новички интернет-коммерции, те же, кто в этом бизнесе уже много лет скажут, что зарабатывать в инете гараздо труднее, чем в рельной жизни.
Проблема раскрутки может быть не такой острой, если на раскрутку вы можете выделить определенное количество финансов, но еще не все можно купить. Так, можно купить ссылки, но они могут быть не совсем тематическими или по ним не будет переходов на ваш сайт, можно заказать раскрутку через САР (системы автоматической раскрутки - я смотрю ваш сайт, вы - мой), получить первые места в топах, но иметь заказав на сайте. А все потому, что нет целевого, заинтресованного посетителя, которого может дать или поисковик или контекстная реклама (по поводу последней - можно долго спорить, но все же лучше САР и баннеров).
Но главное - не впадать в депрессию, тут действует единый принцип, на котором устроен мир - раз у кого-то получилось, получится и у меня. Главное не пасовать и сидеть сложа руки, расстраиваясь, что на ваш мега-сайт вот уже несколько месяцев нет посетителей. Для примера можно пройтись по нескольким сайтам, на которые вы сами попадали через поисковики при поиске софта или реферата - этим сайтам уже по 3 и более лет, на них уже собрано тысячи статей и обзоров программ.
Думаете, что человек взял да набрал все эти тысячи статей за ночь или какую софтину написал, чтобы она за него их сочиняла? Ну в первом случае все ограничено возможностями человека, а во втором - ну кому был бы интересен не текст, а бессмысленный набор слов? Все дело в постоянном добавлении новых статей, разделов, рубрик - вот со временем и вырастают такие монстры, не страдающие от нехватки трафика.
Естественно, что раскрутка домашней странички, информационного проекта и интернет-магазина - это разные виды раскруток, разные тактики и методы. Так, для домашних страничек важен ее главный герой, для информационного проекта (онлайн-журнал, газета) важно уделять внимание оптимизации текста, соблюдать частоту употребления ключевых слов, а для интернет-магазина нужно больше мультимедийной рекламы (баннеры, флеш, промоакции, покупка рекламных блоков, партнерские программы) чтобы сделать магазин узнаваемым.
Ясное дело, что при раскрутке любого ресурса нельзя ограничиться только одним, или двумя способами, большое значение имеет комплексный подход. Применение любого способа “в отрыве” от остальных даст слишком слабый, либо кратковременный результат. Ни первое ни второе неприемлемо для вашего сайта.
Результаты мероприятий по раскрутке требуется как-то измерять. Обычно это делается с помощью систем статистики, или счётчиков. Речь о них пойдёт в следующей статье.
|
|
|
В этой небольшой заметке расскажу о нескольких очевидных причинах создания собственного контент-проекта. По своему опыту ведения информационного сайта уже более года, могу сделать несколько выводов. Среди прочего, есть и информация, найденная на различных форумах о продвижении сайтов и поисковой оптимизации.
1) Получение целевого трафика и продвижение сайта в поисковых системах.
Да, алгоритмы ранжирования сайтов, определения релевантности и выдачи результатов запроса не стоят на месте, постоянно меняясь. Для этого достаточно просто зайти на любой форум оптимизаторов и почитать подобные темы - сколько там недовольства и жалоб на изменчивость поисковых машин, у кого-то посетителей становится меньше (чаще всего), у кого-то больше.
Ну здесь речь не совсем об этом, а о том, что создавая сайт с большим количеством (не менее тысячи страниц) уникального текстового материала, вы обеспечите свой сайт трафиком с поисковых машин. Причем стабильным и качественным. Еще очень желательно разнообразить тематику сайта - ведь посмотрите - на первых местах по посещаемости сайты, у которых много различных тематик и подразделов.
Таким образом решается несколько важных проблем - это обмен ссылками (который еще нужно уметь грамотно проводить, чтобы не попасть в немилость к поисковой машине), регистрацию в каталогах (сейчас ссылки с них ценятся все меньше и меньше, естественно, речь здесь не идет об авторитетных и уважаемых каталогах - но туда еще нужно попасть, к примеру, в тот же dmoz.org даже за деньги не попадешь - важно лишь качество сайта).
2) Удержание посетителей и получение из трафика материальной выгоды
Не секрет, что каждый владелец веб-сайта хочет не только иметь посещаемый ресурс, но и чтобы он приносил прибыль. Ведь, как ни крути, а регистрация и продление доменного имени, хостинг, трафик, аренда сервера - все это стоит денег, еще и прямо пропорционально количеству посетителей. Плюс, когда сайт станет популярным и посещаемым, то ему уже понадобится свой сервер, сисадмин, редактор (-ы), модераторы, менеджеры по рекламе - а это все, как вы понимаете, деньги.
Так вот, начнем с самого начала :) Когда сайт постоянно обновляется новым контентом, появляются новые разделы, тематики, то посетителю он становится интересным и он вносит его в закладки - вот к чему стоит стремиться. И вы получаете самое ценное - постоянную аудиторию. А уже с помощью ее можно зарабатывать на различных партнерских программах, контекстной рекламе и т.п.
3) Стабильный источник дохода
Информационные проекты на Западе уже давно перешли из увлечения в серъезный бизнес. Взять тот же digg.com, к примеру, у него посещаемость около 4 млн в сутки (приблизительно), а стоимость рекламы на сайте измеряется десятками тысяч вечнозеленых президентов. Наблюдая за развитием сайтов своих друзей, могу сказать, что для них они переросли из хобби (домашней странички) в источник дохода, а не пустых трат времени и денег.
К примеру, один знакомый за 3 года работы над сайтом (когда еще он был как хобби, а основной работой было программирование), создал полноценный ресурс с PR-6 и тИЦ-425 (данные на февраль 2007 года), посещаемость сайта 5-6 тыс хостов в сутки, что для рунета очень даже неплохо. А человек просто собирал статьи, что сам писал, что переводил, размещал на сайте, потом статьи стали присылать различные авторы, дабы получить упоминание о своем ресурсе. Вот за 3 года результат - более 4000 статей, файлов, пособий.
Сделаю небольшой итог вышесказанному - если вы намерены создать популярный и посещаемый ресурс, то будьте готовы к долгой и непростой работе над ним. Можете сами писать статьи - пишите, знаете иностранный язык - переводите (на те тематики, в которых вы разбираетесь и которые вам интересны).
Если же в какой-то сфере вы не специалист, то можете попросить сделать это ваших друзей или же просто заказать написание контента. Можете просто договориться с авторами статей по вашей тематике, которые вы нашли в интернете, чтобы они присылали и для размещения на вашем сайте, можете просто попросить разместить уже готовые статьи. А уж что взамен - это или указание ссылки на сайт автора или же денежное вознаграждение - это уж как договоритесь.
А далее можно уже свои статьи, новости публиковать на других сайтах - всем нужен качественный и свежий контент - а это еще дополнительный источник трафика, что и есть самым главным, а хорошие PR, тИц - это лишь следствие хорошей посещаемости.
"Смотрите сами, решайте сами..." - как поется в известной песне. На этой ноте и раскланяюсь...
|
|
|
Если вы читаете эту статью, значит вам интересны вопросы оптимизации сайтов под поисковые системы. Кто бы вы не были - веб-мастер или seo-оптимизатор, для получения качественного трафика с поисковиков без этого не обойтись.
Казалось бы - все просто, бери да создавай уникальный контент, заряжай его нужными ключевыми словами, правильно прописывай мета-теги. И будет тебе счастье. Но и тут есть свои "НО". Нужно подготовиться к тому, что эффект от таких действий будет не сразу.
Первым делом при создании нового сайта необходимо помнить о существовании такого технологии, как Google Sandbox или Песочница Google.
Что это на самом деле
По сути дела это фильтр, после преодоления которого сайт попадает в результаты поиска Google. Таким образом поисковая система борется с новыми сайтами, которые пытаются искусственно улучшить свои позиции.
Время, в течении которого сайт может пробыть в песочнице, по разным данным от двух недель до года. Как показывает практика оптимизации, то данная ситуация возникает только с поисковиком Googl'а. Получается, что пока ваш сайт находится в этом фильтре, в других поисковых системах он уже будет результатах поиска.
Как правило, такое очень вредит малобюджетным проектам - тут и денег на раскрутку не предусмотрено, а еще и сайт недоступен через поиск. Но придумываем это не мы, а бороться с этим - нам. В это время можно заняться добавлением новых статей, расширение ассортимента товара, предоставление новых услуг.
Каким образом можно выйти из Песочницы?
Как ни крути, а быстро из нее не выбраться. По крайней мере до тех пор, пока не измениться система работы поисковой машины. А еще не страшна Песочница тем сайтам, на которые нету ссылок с других ресурсов - поисковый робот-паук о них даже и не узнает.
Что необходимо предпринять?
Первым делом - не нервничать :) Ну а потом просто обзаведитесь авторитетными входящимы ссылками с других ресурсов. Желательно, подобной тематики. После этого ваш сайт будет замечен роботом (Googlebot) и отправлен в эту самую Песочницу. Еще есть хороший процент с "белых" каталогов.
Займитесь изучением реферальных ссылок - откуда на ваш сайт заходят, по каким ключевым словам. Необходимо выяснить, какие страницы сайта пользуются спросом, а какие нет. Для этого можно сделать счетчик количества прочтений или возможность оценить статью.
Так что качественным и интересным сайтам никакие "Песочницы" на страшны :)
|
|
|
Начну эту статью о SEO с простого. На тему о величине частоты употребления ключевых слов написаны, наверное, уже десятки статей и “полезных советов”, но все еще довольно часто встречаются сайты, тексты на которых явно написаны людьми, никогда таких советов не читавших. К сожалению, тенденция к неграмотному составлению набирает своих оборотов.
На различных форумах часто задают вопрос: “Какой является оптимальная частота употребления ключевого слова или фразы?”
Тут однозначино ответа нету. Ответы вариьруются и в сторону уменьшения и увеличени процента ключевых слов. Некоторые рекомендуют 2%, иные специалисты предлагают остановиться на 4-6%. Смелые гуру утверждают, что даже 10% не станут перебором.
Важно запомнить главную деталь: тексты должны быть написаны для читателя. Перенасыщение текста несколькими часто повторяющимися ключевыми фразами заставляет читателя чесать затылок, удивляясь столь кривому тексту. Я не думаю, что после этого ему еще раз захочется посетить ваш ресурс, занести в избранное или порекомендовать своим друзьям. Получить же значительные преференции от поисковых систем столь примитивным способом сегодня сложно.
Поэтому можно порекомендовать формулировать задачу к каждому отдельному тексту следующим образом - выделяется главный запрос и несколько опциональных. В тексте запрос употребляется только в случаях его органичного вхождения в контекст.
Привлекательность контента в деле сбора низкочастотников состоит в том, что для поисковой системы не обязательно наличие словосочетания в исходном виде поискового запроса. Может использоваться другой падеж, другой порядок слов, а в выдаче все будет выглядеть как положено. Думаю, общая идея вам понятна. Да и поисковики уже научились более-менее корректно работать со всей морфологией языка.
Не стоит перегружать текст видоизмененными ключевиками-мастодонтами. Тут уже происходит искуственное завышение частоты ключевых слов. Такие методы раскрутки уж очень не любят поисковики, зачастую помечая (для начала) сайт, а потом и вовсе переставая его индексировать.Употребление фразы “оптимизация и продвижение сайта в интернете” 5-7 раз в различных падежах в тексте объемом в полторы-две тысячи знаков не возбуждает. Ни читателя, ни поисковые системы.
Будьте настоящими. Это мгновенно оценят Ваши читатели и… не удивляйтесь, поисковые машины.
|
|
Внимание! Если у вас не получилось найти нужную информацию, используйте рубрикатор или воспользуйтесь поиском
.
книги по программированию исходники компоненты шаблоны сайтов C++ PHP Delphi скачать
|
|