Процесс создания cookies на ASP очень прост. После создания этих файлов, они будут храниться на компьютерах у посетителей вашего сайта. Одним из основных параметров у cookies является дата истечения срока их действия, т.е. expire date. Получается, что у вас, как у программиста, в руках жизнь этих файлов. Еще отмечу, что если не указать дату expire для cookies, то они существуют до тех пор, пока пользователь не закрыл свой браузер.
Для примера:
Сейчас возьмите и откройте свой любимый бразуер (мой выбор в пользу огненного лиса Firefox :) ) и вызовите страницу с cookie.
Теперь просто удалите в коде строку (1), закройте браузер и еще раз вызовите код. Как вы можете видеть, уже имя сайта не отображается.
Все дело в том, что мы не модифицировали дату истечения срока действия cookie и при закрытии браузера они были потеряны.
Теперь рассмотрим код с добавленной датой expiration date:
Теперь после закрытия браузера и повторного вызова кода можно видеть, что cookie по-прежнему продолжает существовать.
Очень часто при работе с запросами приходится менять SQL этого запроса. Например, при изменении порядка сортировки или при необходимости изменения фильтра, прописанного в where. Сделать это стандартными средствами можно, но довольно муторно, т.к. весь запрос хранится в одном месте (для TQuery и её потомков это свойство Sql). При желании изменить, например, количество или порядок следования полей в order by, нужно программно найти этот order by, написать свой, вставить его вместо старого и т.д. Для меня, честно говоря, загадка, зачем борланд пошла по такому ущербному пути: стандарт ANSI SQL-92, с которым (и только с которым!) работает Bde, подразумевает достаточно жёсткий синтаксис запроса, вполне допускающий обработку на уровне отдельных секций. Сегодня я хотел бы поделиться одним из вариантов реализации потомка TQuery, в котором задачи такого класса будут решаться на лету одной строчкой кода.
Смысл очень простой. Для того, чтобы уйти от ручной обработки текста sql-запроса, надо просто разбить его на стандартные секции. И менять их по отдельности. Ведь любой select-запрос имеет достаточно строгий синтаксис, состоя из определённого количества заранее известных секций (clauses), задаваемых в строго определённой последовательности. Рассмотрим этот синтаксис поподробнее на примере СУБД Interbase:
Как видим, обязательными являются две секции: SELECT и FROM.
Ещё восемь секций опциональны. Наша задача сводится к тому, чтобы значение каждой секции устанавливать отдельно, при необходимости переоткрывая запрос. Можно было бы плясать от стандартного свойства Sql, выделять нужную секцию, менять и вставлять обратно. Но зачем это, если можно сам Sql формировать на основе заданных секций? Конечно, этот подход имеет тот минус, что накрывается прямая установка Sql одной строкой, что может быть неудобно при хранении запроса в реестре, базе и т.д., но и это, при желании, можно побороть.
В общем-то, ничего заумного, реализация до смешного проста, но при использовании в проектах позволяет сэкономить массу времени и значительно увеличить читабельность кода.
Чтобы не писать отдельное свойство на каждую секцию, задавать их будем в виде массива строк. Для работы с этим массивом нам понадобятся индексы, которые тоже лучше определить заранее:
Определим тип нашего индексированного свойства и определим сам класс:
Свойство fClauses будет содержать все секции запроса, на основе которых и будет формироваться сам запрос. Занимается этим процедура UpdateSql. Ну а методы GetClause/SetClause стандартны, и служат для установки/чтения значений отдельных секций. Поглядим на сам код:
Всё достаточно прозрачно, отмечу лишь, что метод UpdateSql добавляет в текст Sql-запроса только те секции, для которых установлено начение, и переоткрывает квери, если она была открыта на момент изменения секции. Здесь есть мелкие недоработки, например, не проверяется выход индекса за пределы допустимых значений, я просто не хотел мусорить исходный код вещами, которые очевидны и принципиально не важны. Можно было бы привести код регистрации компонента в палире дельфи, но это также тривиально. Приведу лучше исходник тестового проекта, в котором используется этот квери. В этом проекте на форме находятся компоненты DbGrid1, подключенные к источнику данных DataSource1, динамически создаётся экземпляр TDynQuery, открывающий таблицу "biolife" из DbDemos, входящую в стандартную поставку Delphi. После этого изменяется по кликанью на заголовке (Title) грида меняется сортировка таблицы:
Вам надоело запоминать и вводить пароли для разных Web-узлов?
Настройте IE так, чтобы пароли автоматически запоминались (без досадного всплывающего окна с запросом, нужно ли сохранять каждый пароль).
В IE 5 или IE 6 нужно выбрать меню Tools - Internet Options и перейти к закладке Content. Затем следует щелкнуть на кнопке Auto Complete и сбросить флажок Prompt me to save passwords.
Отмечу, что сохраненные пароли хранятся на вашем компьютере в незашифрованном (открытом виде), поэтому легко могут быть доступны любому. Я уже не упоминаю о троянах, которые эти пароли воруют с вашего компьютера.
Поэтому для автозаполнения форм и сохранности паролей от чужих советую пользоваться программой AI Roboform. Она все пароли хранит в зашифрованном виде (доступны высоконадежные алгоритмы шифрования DES, 3DES, Blowfish, AES и RC6).
Доступ к ним имеет лишь тот, кто знает главный пароль к программе. Ну а задать последний подлиннее, с цифрами, верхним и нижним регистром, спецсимволами и эдак 30-40 символов длиной не составит особого труда.
Открою вам один секрет: создать сайт, который состоит из страниц и которые будут высоко оценены поисковыми машинами и получат хороший вес и рейтинг, можно совершенно без использования последних технологий обмана поисковиков.
Как известно, борьба за первую десятку результатов выдачи поисковой системы - сфера жесточайшей конкуренции, особенно по высокочастотным запросам.
Поисковые машины ищут в интернете информацию (контент) и хороший рейтинг вы получите только в том случае, если сможете создать такой контент, который будет качественным и интересным не только для поисковика, но и для посетителя вашего сайта.
Самый простой способ получения поискового трафика - это написание небольших статей, обзоров, новостей по тематике вашего сайта. В данном случае лучше всего будет ежедневно обновлять свой сайт, добавляя новые разделы. Естественно, не нужно выходить за рамки тематики вашего сайта.
Пусть даже на наполнение сайта контентом и получение ощутимого трафика уйдут месяцы или даже годы, но это стоит того. Вложенный труд не пропадет зря, ведь результаты точно соответствуют затраченным на это усилиям.
А когда у вас будет сайт с несколькими сотнями или тысячами статей, то уже можно заняться его раскруткой - публикация статей, регистрация в каталогах (обязательно белых и тематических) и прочее.
Еще отмечу, что лучше всего писать статьи в рамках от 300 до 500 слов. Больше не нужно, это как раз размер стандартной статьи. Да и посетитель не будет уставать, читая огромную статью. Статьи же меньшего размера могут практически не нести информации и быть бесполезными для посетителя.
Также не забывайте о плотности ключевых слов, по которым вы хотите, чтобы ваш сайт находили в поисковой системе. Это очень важно, ведь поисковый робот внимательно просматривает страничку и анализирует, какие слова в ней встречаются и как часто.
Оптимальное количество ключевых слов на статью - 7-8. Этого вполне достаточно, чтобы поисковая система посчитала ее релевантной.
Совсем другое дело, что пробиться в топ10 только с одними ключевыми словами в статье не получиться. Разве что по низкочастотным запросам. Но название говорит само за себя - посетителей тоже будет мизерное количество. Для получения трафика по высокочастотника и среднечастотникам нужны ссылки, а еще лучше с близких по тематике с вашим сайтом ресурсов. Это уже проверено многими оптимизаторами.
Как говорил Мастер Вадим Ласто (прочитайте его блог - много нового узнаете - lasto.com/blog), без пиаристых морд никуда. Уже ему-то можно верить. Кстати, сейчас отправлю рассылку и загляну на его блог - там частенько появляются новые посты. Его блог я, кстати, нашел, когда искал CMS для своего сайта - Вадим не только оптимизатор, но и программист :)
Данная ситуация отлично подходит узкоспециализированным сайтам (разведение розовых котов с черными ушами и белым хвостом, например) или же нужно брать количеством этих низкочастотных статей.
Все проверено на личном сайте и много раз об этом читалось на различным SE форумах. Читайте форумы, спрашивайте, анализируйте! Удачи вам!
Процесс создания cookies на ASP очень прост. После создания этих файлов, они будут храниться на компьютерах у посетителей вашего сайта.
Одним из основных параметров у cookies является дата истечения срока их действия, т.е. expire date. Получается, что у вас, как у программиста, в руках жизнь этих файлов.
Еще отмечу, что если не указать дату expire для cookies, то они существуют до тех пор, пока пользователь не закрыл свой браузер.
Для примера:
Сейчас возьмите и откройте свой любимый бразуер (мой выбор в пользу огненного лиса Firefox :) ) и вызовите страницу с cookie.
Теперь просто удалите в коде строку (1), закройте браузер и еще раз вызовите код. Как вы можете видеть, уже имя сайта не отображается.
Все дело в том, что мы не модифицировали дату истечения срока действия cookie и при закрытии браузера они были потеряны.
Теперь рассмотрим код с добавленной датой expiration date:
Теперь после закрытия браузера и повторного вызова кода можно видеть, что cookie по-прежнему продолжает существовать.