Тут я тоже приведу статьи со своего сайта, которую написал замечательный человек, так скажем начинающий еще пока копирайтер, у которго есть я думаю талант к этому делу ))) (главное чтобы не вырос нимб со всеми вытекающими и чтобы он продолжал писать такие же хорошие креативы ;) ) - я думаю такой пиар только пойдет ему на пользу и быть может вы сами захотите заказать ему что-либо подобное )))
А от себя добавлю что гугль безграничен и здесь конечно описаны далеко не все принципы его работы, но тем не менее статью считаю полезно и интересной...
"Если задаться целью и проанализировать официальный блог гугла, блог Мэтта Катса (aka. GoogleGuy), а так же некоторые другие официальные источники, то без труда можно составить вполне четкое представление о том, что нельзя, что можно и что нежелательно делать при оптимизации своего веб-ресурса под поисковую систему Google.
1. Гугл большое значение придает тому, как долго сайт находится в сети - это можно определить еще и как "историческое" знание о сайте. Достаточно упомянуть такой фильтр, как Песочницу (Sandbox) или же часть алгоритма под названием TrustRank, что бы без обиняков удостовериться в справедливости доминирования "исторического" момента, который, в свою очередь, влияет на благосклонное отношение поисковика к любому веб-ресурсу.
Помимо примитивного "исторического" подсчета существования сайта, Гугл немалое значение придает и таким данным (а их можно то же отнести к хронологической составляющей алгоритма), как:
- - продолжительность нахождения контента на сайте (дата появления контента);
- - сколько времени прошло с того момента, как часть контента (например, статья) была процитирована другим ресурсом. Иными словами, учитывается не только появление статьи на другом сайте, но и момент ее появления;
- - количество сайтов, которые процитировали статью - причем, это делается не только по объему цитирований, но и по промежутку времени между ними.
2. Алгоритм Гугла очень четко отслеживает объемы обновлений, которые происходят на сайте. Если быть предельно точным, то содержание сайта и то, насколько часто меняется его контент, представляет интерес для поисковика только по той причине, что Гугл всеми силами стремится исключить спам из результатов поиска - следовательно, фактор контроля за динамическим контентом, является превалирующим. Веб-мастеру необходимо знать о том, что положение пункта 0128 патента Гугл (подробная статья по этому поводу находится тут: http://www.toprankresults.com/onlinemarketing/2005/05/google-patent-review-for-seo.html) указывает на то, что алгоритм системы заточен на фильтрацию сайтов у которых происходят резкие скачки в контентном наполнении (имеется в виду увеличение или уменьшение количества страниц). Наложение пеналти на сайт за подобные, ничем не обоснованные (по мнению алгоритма), изменения количества страниц, является основной мерой принуждения Веб-мастеров к соблюдению правил честной раскрутки ресурсов.
- - как часто менялись страницы;
- - существенность этих изменений;
- - как меняется плотность ключевых слов на странице;
- - изменялись ли якорные тексты ссылок.
3. Как известно, Гугл оперирует значениями Page Rank для того, что бы определить насколько весома страница и, какое место она займет в серпе. Если быть предельно кратким, то Веб-мастеру в связи с этим, необходимо зарубить на носу следующее:
- - не желательно очень часто ссылаться на сайты, имеющих более низкий PR т.к. подобное усердие может быть расценено, как спам-метод раскрутки. Это не значит, что нельзя ссылаться на молодые сайты, которые еще не успели набрать оборотов - просто делать это надо с умом, а не лихо раздавать ссылки направо и налево.
- - нельзя ссылаться на сайты у которых PR равен 0, т.к. это именно те сайты, которые находятся в черном списке Гугла (они либо оштрафованы, либо запрещены).
4. Домен, на котором находится сайт, очень о многом говорит Гуглу - поэтому, негативная информация о домене может затруднить раскрутку сайта (причем очень существенно). При выборе домена обращайте внимание не только на его благозвучность, но и на информацию о бывшем владельце (если такой, конечно, имелся). Так же, по (пока) до конца не проверенным данным, факт покупки домена на короткий срок, является основанием для того, что бы Гугл начал относиться к нему с опаской и подозрением. Обычно, именно дорвейщики, спамеры и те, кто не собираются заниматься развитием сайта, заводят домены на непродолжительное время - регистрируйте домен с таким расчетом, что б система вас не заподозрила в вышеназванных вещах (срок больше года, по всей видимости, будет вполне приемлем).
5. Репутация хостинг-компании - еще один аспект, который учитывается Гуглом. Хостер хостеру рознь! Существуют "белые" хостинг компании, которые признаны в мире, а есть и такие, которые подпадают под категорию "серых". Например, есть хостеры, которые готовы без малейших препятствий размещать у себя дорвеи или же запрещенные сайты (скажем детскую порнографию и проч.) - к таким хостерам Гугл применяет санкции и, если
Комментариев нет:
Отправить комментарий