В начале марта компания «Ашманов и партнеры», один из лидеров российского интернет-маркетинга, опубликовала ежегодный аналитический обзор «Качество поиска и поисковые системы в Рунете 2011». Данные были получены с помощью специальных анализаторов, которые подсчитывают переходы с поисковиков на сайты-маркеры по запросам-маркерам. Интересен он будет не только специалистам по интернет-маркетингу, SEO-оптимизаторам, но и владельцам сайтов, веб-мастерам, да и всем интернет-пользователям, которые так любят порой поспорить на неисчерпаемую тему: «кто круче — Яндекс или Гугл?».

Я не ставлю себе задачу пересказать этот обзор своими словами: все желающие в состоянии прочитать его самостоятельно на сайте компании. Я хочу лишь поделиться некоторыми интересными фактами, почерпнутыми из этого документа, и размышлениями, которые они породили.

Как известно, два самых популярных поисковика в рунете — это Яндекс и Google. Интересно, что в России на первом месте Яндекс, Google на втором (соответственно 51% и 34% в марте 2012 по данным LiveInternet), а в Украине ситуация ровно обратная: 55% у Google, 30% у Яндекса (опять же, по данным LiveInternet за март 2012). Неудивительно, что именно эти две поисковые системы и оказались лидерами по качеству поиска. Поэтому их и будем рассматривать, тем более, что некоторые из оставшихся (Rambler, Aport, Mail.ru) тоже используют их движки.

Скорость индексации

Этот показатель особенно важен для новых и для информационных сайтов. Новым сайтам важно как можно быстрее попасть в индекс поисковиков, чтобы наращивать свои показатели. Новостным сайтам нужно как можно быстрее донести новости до публики, потому что тут кто раньше успел, у того больше посетителей.

В этом плане Google оказался впереди. 90% новых страниц оказываются в результатах поиска Google в течение месяца. В Яндексе — 70%. При этом Google за первые два дня индексирует 60% новых страниц, Яндекс — 40%.

Скорость индексации новых страниц

Существует множество способов ускорить индексацию: использование файла sitemap.xml, проставление внутренних ссылок (перелинковка), ссылки с аккаунтов в социальных сетях. Поэтому когда скорость важна, стоит ими пользоваться.

Первоисточники текста

Всем, кто хотя бы косвенно сталкивался с задачей продвижения сайта, известно, что одна из самых главных вещей в этом деле — наличие на сайте качественных уникальных текстов. То есть, старый добрый копипаст уже не работает и даже вредит. И пишут люди, стараются (или заказывают — платят деньги копирайтерам). А через пару часов, дней или месяцев оказывается, что менее образованные в плане SEO конкуренты эти тексты уворовали. Обидно…

И тут встает вопрос: могут ли поисковые системы определить, кто был первый, и его показывать на более высоких позициях? К сожалению, с этим все очень плохо. Яндексу удается определить оригинальный источник текста не более чем в 50% случаев, Гуглу — и того реже. Хотя Гугл уверенно улучшает свои результаты по этому параметру, и в начале 2012 года обогнал Яндекс, выдавая оригиналы в 60% случаев.

Определение оригинальных источников текста

Что делать? Ничего не поделаешь, остается ждать, пока алгоритмы усовершенствуются, а пока переписывать и переписывать тексты или нанимать оптимизаторов, которые знают хитрые методики защиты авторства.

Региональный поиск

Когда пользователь задает запрос «доставка пиццы на дом», его, разумеется, интересует доставка пиццы в его городе. Киевлянина — в Киеве, харьковчанина — в Харькове, мурманчанина — в Мурманске. Это с точки зрения пользователя. Для владельца сайта это важно в другом аспекте: ему нужно, чтобы поисковая система правильно определяла регион его сайта и показывала его пользователям из этого региона. Разумеется, это касается геозависимых запросов (для которых результаты разные в разных регионах, как в вышеприведенном примере).

При определении региона сайта поисковики учитывают данные, введенные владельцами сайтов (при регистрации в сервисах для веб-мастеров и в каталогах), имена доментов и ip-адреса серверов, а также информацию на самих сайтах — адреса, телефоны и т.п.

Традиционно, по качеству регионального поиска Яндекс на голову выше всех конкурентов. Гугл заметно отстает.

Региональный поиск

Устойчивость к деятельности оптимизаторов

Противостояние SEO-оптимизаторов и поисковых систем уже так же неизбежно, как борьба со злом. Хотя кто тут зло, кто добро — версии разнятся. Обе стороны уверены, что стараются на благо людей.

Большинство коммерческих сайтов вкладываются в продвижение. Это приводит к тому, что прочие сайты вытесняются с первой и второй страницы, а дальше редко кто заглядывает. Например, по запросу «Греция» могут показываться только туры и экскурсии в Грецию, а человека может интересовать сама страна, общественные или политические новости, ее история, мифология и много чего еще — в Греции есть все. С этим поисковики давно научились бороться, разбавляя коммерческие запросы (туры в Грецию) другими: информационными (общие сведения о стране), навигационными и т.д. Считается, что более низкий процент коммерческих сайтов в выдаче — это плюс для поисковика.

Тут и Google, и Яндекс показали примерно одинаковые результаты. Доля коммерческих сайтов в выдаче составляет около 35%, причем этот показатель значительно улучшился по сравнению с началом года, примерно раза в два.

А это означает, что если вы, к примеру, боретесь за TOP-10, фактически у вас не 9 конкурентов, а 2-3. Вот так-то.

Количество коммерческих сайтов в выдаче

О компании «Ашманов и партнеры»

«Ашманов и партнеры» — одна из первых компаний, которая стала заниматься продвижением сайтов в российском сегменте интернета. По мере развития интересы компании расширялись. Сейчас они оказывают услуги по комплексному аудиту, консалтингу, проводят конференции и семинары для специалистов, выпускают книги.

Одно из направлений деятельности компании «Ашманов и партнеры» — развитие интернет-технологий в области рекламы, поиска, искусственного интеллекта. Проект Analyzethis.ru (анализаторы поисковых машин, данные с которых и использовались в обзоре «Качество поиска и поисковые системы в Рунете») — как раз одна из таких разработок.

На данный момент существует 30 анализаторов, которые оценивают качество поиска самых распространенных в Рунете поисковых систем по различным параметрам, плюс один сводный анализатор. Замеры проводятся раз в сутки, актуальные данные можно посмотреть на сайте проекта.