Раскрутка: секреты эффективного продвижения сайтов - Михаил Боде
- Категория: 🟢Компьютеры и Интернет / Программирование
- Название: Раскрутка: секреты эффективного продвижения сайтов
- Автор: Михаил Боде
- Возрастные ограничения:Книга может включать контент, предназначенный только для лиц старше 18 лет.
- Поделиться:
Шрифт:
Интервал:
Закладка:
Раскрутка: секреты эффективного продвижения сайтов
Вводная
Эволюция факторов ранжирования поисковых систем
Несмотря на сделанные еще в 1960 — 1970 — х предсказания фантастов, лет двадцать – двадцать пять назад мало кто догадывался, что вскоре для поиска любой информации миллионы людей будут обращаться к Глобальной cети. Трудно вообразить, что когда-тоИнтернет был «исхоженным» вдоль и поперек – не миллионы, а жалкие десятки разрозненных сайтов, которым не приходилось бороться за высокие позиции в поисковой выдаче (она же по — английски Search Engine Results Page, SERP). Да и первые алгоритмы поиска были простыми как колесо: релевантными признавались те ресурсы, на страницах которых содержался поисковый запрос. Сама выдача была ожидаемо куцей.
Однако грибница Интернета расползлась по миру, и по мере того, как ширился Веб, множились и сайты в нем. Чтобы не сдуться при этом масштабировании, поисковым системам потребовалось изменить подход к ранжированию ресурсов и взяться за разработку гораздо более сложных алгоритмов.
Внутренние факторы
В 1994 году увидела свет первая полнотекстовая поисковая система под названием WebCrawler. Произошла революция: ранее информация в Сети структурировалась исключительно в виде каталогов ссылок, сгруппированных по тематическому признаку. Следом на орбиту большого поиска вышли Lycos и AltaVista. Это были первые попытки организовать доступ к ресурсам Веба не на основе каталогизации. До наших дней дошли только упоминания о тех поисковых системах, хотя многие из нас застали их на закате славы.
В 1997 году практически одновременно на двух разных континентах зародились гиганты современного поиска – Google и «Яндекс». Их алгоритмы ранжирования, со скидкой на локальные особенности, развивались в одном русле. Стремительные изменения в качестве поисковой выдачи требовали принятия решительных мер ради выполнения единой миссии – предлагать пользователям релевантные их запросу, предельно качественные и полезные ресурсы.
Львиная доля сайтов на рубеже тысячелетий была по сегодняшним меркам примитивна, их страницы отличались незамысловатым дизайном и длинными «портянками» текстов с высокой плотностью ключевых слов. Благодаря нескольким наивным, на наш взгляд, приемам они могли продвигаться вверх в выдаче и добиваться лояльности со стороны поисковиков. В частности, большое значение для выхода в топ имело использование ключевых слов в метатегах. Один из них, keywords, ранее предназначался исключительно для того, чтобы передать информацию поисковому роботу. Он больше не играет ведущей роли в ранжировании, и даже оставить его незаполненным не будет страшным грехом.
Со временем подтвердилось, что мало учитывать лишь эти внутренние факторы, отводя сайту подобающее ему место в SERP. К внутренней оптимизации страниц предъявлялись все более высокие требования. Поисковики усложняли свои алгоритмы и объявляли войну некачественному и неуникальному контенту, скрытому тексту и многим другим нарушениям со стороны сайтостроителей, пытающихся обмануть, с одной стороны, поисковую машину, с другой – пользователей.
На текущий момент в связи с увеличением «удельного веса» внутренних факторов сложился целый свод писаных и неписаных требований к оптимизации, без соблюдения которых дорога в «высшее общество» – в топ – закрыта. И наоборот, отдельные факторы, которые ранее вершили судьбы сайтов (как то: метатеги, «тошнота», большие тексты, схемы перелинковки), утрачивают актуальность. Таким образом, если первые алгоритмы поисковых машин анализировали лишь релевантность ресурса запросу, то в настоящее время важнее его качество и полезность для посетителей.
Внешние факторы
Внутренняя оптимизация сайта – вотчина его владельца или администратора. Неудивительно, что веб — мастера из числа – выразимся иносказательно – «моральных релятивистов» научились оперировать не совсем честными методами и выдавать порой некачественные страницы за релевантные поисковому запросу. Так было до 1998 года, пока в Google не сошлись на том, что необходимо ввести новые факторы, которые бы не зависели напрямую от действий оптимизатора и позволяли объективнее судить о качестве сайта.
Вскоре вступили в силу внешние ссылочные факторы, призванные определять популярность ресурса в Сети, которая выражалась в количестве других сайтов, ссылающихся на него. Иначе говоря, к текстовой добавилась ссылочная релевантность. Оценка внешних факторов являлась дополнительным критерием отсева, благодаря которому в выдаче оседали действительно хорошо сделанные и интересные людям сайты. Но к тому моменту маховик интернет-бизнеса раскрутился и SEO1 из боязни упущенной выгоды ответило на действие противодействием. Ввод ссылочного ранжирования повлек за собой всплеск ссылочного спама. Оказалось, что манипуляции подвержены не только внутренние, но и внешние факторы. Сетки сателлитов (вспомогательных, сопутствующих сайтов, предназначенных лишь для улучшения позиций главного) прекрасно «пускали пыль в глаза» поисковикам, убеждая их в авторитетности сайта, а выдача все больше засорялась шлак — ресурсами. Так аферисты внедряются в бомонд, и если в него проникает слишком много пройдох и пустышек, то бомонд превращается в лучшем случае в полусвет. Поисковики парировали «мусорную атаку».
Впоследствии алгоритмы ссылочного ранжирования становились все более сложными, на службу борьбы с искусственной накруткой ссылочных метрик были поставлены многочисленные фильтры. Именно в ту пору за SEO закрепилась сомнительная слава грязного трюкачества, с помощью которого удается обхитрить поисковые алгоритмы. Как внешние, так и внутренние факторы ранжирования требовали все более глубокого анализа сайта и внешней ссылочной массы. Оценке подвергались технические характеристики ресурса, его возраст, контент и качество ссылающихся на него сайтов — доноров. Было введено такое понятие, как rustRank (называемый также трастом) – показатель доверия поисковиков к площадке. Не заслуживший траста сайт имел минимальные шансы подняться вверх в выдаче и занять желаемые места в топе.
Благодаря многочисленным ссылочным биржам веб — мастер сегодня все же способен самостоятельно влиять на внешние факторы. Но закупка ссылок требует внимательного и взвешенного подхода. Неверная стратегия ссылочного продвижения лишь навредит ресурсу. На помощь оптимизаторам и сайтовладельцам в наши дни приходят «умные» сервисы, которые максимально эффективно и безопасно, работая с внутренними и внешними факторами, обеспечивают подъем ресурса в топ поисковой выдачи. Одним из таких сервисов, самым крупным на российском рынке автоматизированной поисковой оптимизации, является SeoPul (h p://seopult.ru/).
Поведенческие факторы
Анализ поведения пользователей явился следующей ступенью в развитии поисковых алгоритмов. Он был призван кардинально повысить качество выдачи и помочь в борьбе с поисковым спамом. Поведенческие факторы – если не совершенное оружие в арсенале поисковых систем, то, во всяком случае, мощное: на них трудно воздействовать искусственными методами. Если пользователи сходным образом реагируют на тот или иной сайт, с высокой степенью вероятности это говорит о том, отвечает ли он их ожиданиям. И дело не только в кликабельности, которая якобы поддается накрутке.
Поведенческие факторы – это широкий комплекс пользовательских действий, учитываемых и интерпретируемых поисковыми алгоритмами. «Яндекс» возлагает выполнение столь деликатной миссии на плечи «оценщиков» — асессоров и на технологию машинного обучения MatrixNet. Изначально, когда поведенческие факторы обрабатывались по иному принципу, наблюдения за активностью посетителей зачастую трактовались ошибочно. Само собой, глубина просмотра туристического портала с увлекательными статьями о путешествиях будет не такой, как у сайта службы такси. Поведенческие факторы разнятся в зависимости от тематики и типа сайта. Введением технологии MatrixNe проблема была решена. Ресурсы были разбиты на группы и проходили проверку по формализованному набору параметров и общему впечатлению асессоров.
Таким образом, прежние методы «черной» оптимизации утратили силу, так как низкосортные ресурсы были не в состоянии конкурировать в топе с «человеколюбивыми» и качественными. Влиять напрямую на поведенческие факторы невозможно, но косвенно – вполне. Самое главное, сайт должен быть качественным и полезным для пользователей. Уникальный тематический контент, грамотное юзабилити, продуманный дизайн, привлекательный сниппет (подробнее о сниппетах читайте в разделе «Оптимизация сниппетов» главы