На недавней конференции SMXWest, глава по борьбе с поисковым спамом Мэтт Каттссообщил, что к концу этого года Google планирует запустить алгоритм Google Merchant Quality против низкокачественных коммерческих сайтов.
Мэтт предупредил, что владельцы низкокачественных коммерческих сайтов должны быть готовы к возможному понижению в SERP. Это может привести к огромному падению трафика, продаж и доходов этих онлайн-продавцов.
Поскольку формулировка «низкокачественный» весьма расплывчата, мы решили узнать у специалистов:
Какие параметры и сигналы о качестве коммерческих сайтов может использовать Google?
Какие сайты могут пострадать от введения данного алгоритма?
Может ли этот алгоритм серьезно сказаться на выдаче Google в Рунете?
Роман Доброновский, руководитель отдела западных проектов компании Promodo, считает:
Слово «низкокачественный» вполне конкретно для Google и было в своё время очень подробно объяснено в программном посте Амита Сингала — одного из ближайших соратников Мэтта Каттса. Он формулировал позицию Google форме простых на вид вопросов, например: «Доверили бы вы такому сайту номер своей кредитки?». Если не кривить душой, то каждый из нас, бывая в шкуре покупателя, знает ответ на этот и ему подобные вопросы.
Если вынести за скобки самоочевидные вещи вроде уникального контента (это путеводная звезда в борьбе Google против веб-спама), то можно сформулировать несколько основных сигналов, на которые Google будет опираться:
· Почти наверняка поисковик будет опираться в оценках на данные своего коммерческого сервиса Google Shopping: данные о «заслуживающих доверия» магазинах, информацию о полноте, свежести данных в магазинах и т.д.
· Совершенно очевидно, что будут учитываться пользовательские рейтинги, количество отзывов, особенно для локальных магазинов, имеющих уже в готовом виде подобные данные в рамках программы «Google Places for Business».
· Наверняка будут задействованы сильные пользовательские сигналы, завязанные на простоту и удобство пользования сайтом.
Возможно, не все эти вещи будут реализованы сходу, но основные контуры будущей системы, в принципе, ясны.
Олег Саламаха, аналитик в агентстве интернет-маркетинга Netpeak, разделяет мнение Романа о базовых показателях качества коммерческих сайтов:
Можно допустить, что для буржуйнета в качестве основных будут использоваться данные из Google Shopping, а для магазинов, не принимающих участия в данной программе, — накопленные пользовательские факторы и патерны поведения, с помощью которых поисковая система может оценить качество.
Кроме того, думаю, будут влиять такие метрики как:
Известность магазина;
Отзывы (например, из Google карт);
Наличие магазина в офлайне;
Активности пользователей — комментариев, оценок товаров и т.д.;
Количество повторных транзакций;
Отмены транзакций и т.д.
Главное, чего хочет добиться Google — убрать из выдачи «псевдомагазины» и десятки тысяч аффилиатов, которые не несут ценности для конечного покупателя. В группе риска также окажутся те магазины, коммерческие метрики которых гораздо ниже, чем у конкурентов.
Несомненно, данный алгоритм будет внедрен и в Рунете, возможно, не одновременно с буржуйнетом и будет использоваться меньше метрик, но запуск данного алгоритма значительно улучшит коммерческую выдачу.