Какие приёмы веб-программирования не стоит применять и что за них может быть

Поисковые системы являются одним из источников потока новых посетителей для любого веб-сайта, поэтому неудивительно, что естественное желание каждого сайтовладельца заключается в том, чтобы ссылки на его веб-сайт как можно чаще показывались в первых позициях результатов поиска.

Данный вопрос, как и любой другой, можно решить двумя способами: честно, но долго, либо нечестно, но значительно быстрее. Одни веб-мастеры составляют списки предполагаемых условий поиска, долго и кропотливо работают над содержимым своих веб-сайтов, организуют обмен тематическими ссылками. Другие же, основываясь на гипотезах о принципах работы поисковых систем, специально "подгоняют" веб-страницы таким образом, чтобы повлиять на их релевантность. Некоторые веб-мастеры доходят до того, что пытаются привлечь посетителя любой ценой - при этом совершенно не важно, что посетитель искал в Сети, лишь бы он зашел на веб-сайт (в связи с этим вспоминается веб-сайт одного интернет-провайдера, который довольно легко находился по запросам со словами: "колготки", "геи", "лесбиянки", и им подобными). Такими методами частенько пользуются для зарабатывания баннеропоказов* или накрутки счетчиков посещений.

Подобные действия являются обманом как поисковых систем, так и людей, которые ищут в Сети нужную им информацию, и называются спамом поисковых систем или спамдексингом (spamdexing, от слияния английских слов spam и indexing). Поисковые системы ведут непрекращающуюся борьбу со спамдексингом с целью поддержания своей неофициальной репутации, косвенно заботясь при этом и об интересах своих пользователей. По мере того как поисковики разрабатывают новые методы обнаружения спама, эти методы становятся все более изощренными, и процесс этот, очевидно, будет продолжаться до тех пор, пока в Сети существует хотя бы одна поисковая система.

Поисковые системы по-разному реагируют на обнаруженный спам: одни могут удалить веб-сайт из всех своих каталогов, другие - навсегда запретить индексацию веб-сайта в своей системе, но наиболее популярным методом в настоящее время является "мягкое подавление" - при этом веб-сайт остается и в каталогах, и в базе данных, но релевантность всех его страниц искусственно занижается поисковиком при формировании результатов поиска. Таким образом, автор веб-сайта не получает желаемого эффекта, и в то же время не может быть твердо уверен, что его спам обнаружен поисковиком.

Данная статья ни в коем случае не является прикладным пособием по спаму поисковых систем - напротив, здесь перечислены только те методы спамдексинга, которые успешно обнаруживаются поисковиками. Эта информация поможет вам не совершить при создании веб-сайта какую-либо случайную ошибку, которая впоследствии будет расценена поисковой системой как спам. Естественно, каждая ошибка в отдельности (за исключением, конечно, особо вопиющих) не вызовет у поисковой системы резко негативной реакции, но сочетание нескольких разнородных ошибок вполне может повлечь за собой включение механизма "мягкого подавления".

А теперь перейдем непосредственно к тому, что поисковики считают спамом. Одним из самых старых методов считается некорректное использование html-тега . Как известно, при совпадении поискового запроса с заголовком веб-страницы ее релевантность заметно повышается, в связи с чем раньше можно было либо заполнить тег большим количеством ключевых слов (часто не имеющих отношения к содержимому веб-страницы), либо поместить на одной веб-странице несколько тегов . То же относится и к мета-тегам description и keywords, а также к тегам

(meta tags stuffing).

Еще один широко распространенный метод - размещение на веб-странице больших массивов ключевых слов, которые либо окрашиваются в цвет фона, либо отображаются очень мелким шрифтом, либо размещаются где-нибудь в конце страницы. Другой похожий вариант - размещение на странице множества прозрачных изображений размеров 1x1 пиксел, при этом ключевые слова прописываются в параметры alt тегов этих изображений.

Спамдексингом называется совокупность неэтичных методов повышения релевантности документов.

Не следует повторять одни и те же слова в мета-теге keywords - это расценивается как спам почти всеми распространенными поисковиками. Также считается подозрительным, если слова, упомянутые в мета-теге keywords, не встречаются в основном тексте веб-страницы, либо встречаются там слишком часто (keywords stuffing). Несмотря на то, что это может показаться невероятным, некоторые поисковые системы могут анализировать также и структуру основного текста веб-страницы, так что несколько предложений, состоящих из беспорядочного набора ключевых слов, вполне могут привести сторожевой механизм в состояние боевой готовности. Если задуматься, ничего удивительного в этом нет - если, например, Microsoft Word имеет механизм проверки грамматики, почему бы и поисковой системе не обзавестись подобным механизмом?

Подозрительными считаются и редиректы, которые срабатывают по времени, а не по желанию пользователя, поэтому без особой необходимости лучше ими не пользоваться. Хотя для таких редиректов могут быть и совершенно законные причины - например, для автоматического перехода по новой ссылке, когда веб-сайт переезжает в другое место. Поисковики умеют распознавать редиректы, организованные и с помощью мета-тега refresh, и с помощью яваскрипта*.

Повтор одних и тех же слов в мета-теге keywords расценивается как спам почти всеми распространенными поисковиками.

Грамотно разработанную веб-страницу можно в разумных пределах оптимизировать под несколько родственных поисковых запросов. Но что делать, если хочется оптимизировать ее под большее количество разнородных запросов? В таких случаях используют дорвеи (doorways) - вспомогательные страницы, специально оптимизированные под конкретные поисковые запросы. Обычно такие страницы не несут полезной информации, а предназначены только для того, чтобы привлеченный обманным путем посетитель перешел на веб-страницу, для которой создавался дорвей (отсюда и название).

Мнения относительно использования дорвеев довольно противоречивы. Одиночные дорвеи спамом не считаются, все дело в соотношении общего количества дорвеев и обычных страниц веб-сайта. Большое количество незначительно различающихся дорвеев для одной и той же веб-страницы также считается спамом. Если дорвей несет какую-то информацию, совпадающую по теме с веб-страницей, на которую он ссылается, то это может понизить его "спамность" в глазах поисковой системы. Хорошо также, если на дорвей есть настоящая ссылка с собственного веб-сайта, чтобы поисковый робот добрался до него самостоятельно, так как регистрация дорвеев либо строго запрещена, либо просто не приветствуется практически во всех поисковых системах.

Еще один тип вспомогательных страниц, на который косо смотрят поисковые системы - это гейтвеи (gateways) - страницы, состоящие из большого количества ссылок. Пример "официального" гейтвея - карта сайта.

Дорвей - вспомогательная страница, специально оптимизированная под конкретные поисковые запросы.

Поскольку в последнее время релевантность стала очень сильно зависеть от ссылок на ваш веб-сайт, в моду вошел беспорядочный обмен ссылками, называемый непотизмом. В связи с этим при подсчете релевантности каждого документа поисковики не просто подсчитывают общее количество ссылок на данный документ и содержащий его веб-сайт, но и сравнивают тематику обоих веб-сайтов: если тематика совпадает, то релевантность документа повышается, если же нет - понижается. Если ссылка на ваш веб-сайт принадлежит спамеру, уже обнаруженному данной поисковой системой, это также может повлечь за собой снижение релевантности ваших документов. Это же предостережение работает и в обратном направлении, так что хаотический обмен ссылками со всеми вашими знакомыми и теми, кто предлагает совершить такой обмен, принесет только вред, если вы не будете обращать внимание на содержание ваших веб-сайтов.

Спамом считается также и создание большого количества полностью одинаковых веб-страниц и целых поддоменов, либо создание фиктивных веб-сайтов, единственной целью которых является размещение ссылок на ваш веб-сайт (чтобы избежать обвинения в непотизме, подобные сайтики обычно содержат несколько страниц с тематикой основного веб-сайта).

Беспорядочный обмен ссылками с другими веб-сайтами называется непотизмом.

И, наконец, самым злостным посягательством на права поисковиков считается клоакинг (cloaking) - "подсовывание" поисковому роботу специально оптимизированных для индексации веб-страниц вместо тех, которые видит обычный посетитель веб-сайта. Технически эта задача решается тривиально, поскольку каждый поисковый робот при обращении к посещаемому им веб-сайту обязан формировать правильный http-заголовок User-Agent, по которому его легко идентифицировать. Это же правило сильно усложняет автоматическое обнаружение клоакинга, поэтому в настоящее время этот метод наиболее популярен.

Поисковые системы, естественно, не могут оставить такие действия безнаказанными, поэтому в настоящее время обнаружение клоакинга производится в полуавтоматическом режиме, когда подозрительные для автомата веб-страницы проверяются вручную. Необходимость "ручных" действий объясняет жесткую политику всех крупных поисковиков в отношении клоакинга: навечное удаление провинившегося веб-сайта из базы данных (кстати, то же относится и к "ручному" обнаружению непотистов).

Немного напоминает клоакинг метод подмены содержимого (code swapping): вначале создается законопослушная веб-страница, специально оптимизированная для конкретного поискового запроса, а после успешной индексации и достижения нужного рейтинга содержимое страницы заменяется на другое, реальное. Подобными методами пользуются некоторые компании по раскрутке веб-сайтов*, продающие положение веб-страниц в результатах поиска. Даже если такое действие не будет расценено как спам, "раскрученная" таким образом веб-страница потеряет свое высокое положение после того, как будет проиндексировано ее новое содержимое.

Клоакингом называется "подсовывание" поисковому роботу специально оптимизированных для индексации веб-страниц вместо тех, которые видит обычный посетитель веб-сайта.

И последний совет в заключение этого длинного списка: для повышения рейтинга своего веб-сайта никогда не пользуйтесь услугами, в качестве которых вы не уверены полностью! Например, результаты работы таких популярных автоматизированных средств оптимизации веб-страниц, как WebPosition Gold или AutoWeb, легко может обнаружить поисковая система Google, а компания по раскрутке веб-сайтов, свято хранящая в секрете свое ноу-хау, вполне может пользоваться запрещенными методами, причем узнаете вы об этом только через несколько месяцев, когда поисковая система наконец обнаружит факт спама на вашем веб-сайте, так что вы потеряете свои деньги и останетесь у разбитого корыта.

"Вера-Студия" - продвижение сайта в Москве.