10 шагов к объединению данных рейтинга STAT с показателями производительности сайта

Слишком часто мы предполагаем, что лучшие методы SEO будут работать в любой отрасли против любых конкурентов. Но большинство лучших практик не проходят проверку и могут быть не «лучшими» в каждой ситуации.

Все мы знаем, что тактика, которая сработала в 2020 году, не обязательно сдвинет иглу в 2021 году, поскольку Core Web Vitals (CWV) и другие сигналы перемещаются на передний план. Мы должны работать лучше для нашего бизнеса и наших клиентов.

В душе я фанат данных, у меня много боевых шрамов за 15 лет работы в SEO. Идея анализа тысяч местных результатов выдачи казалась слишком забавной, чтобы отказаться от нее. Я обнаружил некоторые удивительные корреляции и, что не менее важно, создал методологию и набор данных, которые можно обновлять ежеквартально, чтобы отображать изменения с течением времени.

Я проанализировал более 50 000 поисковых запросов в секторе розничных банковских услуг, чтобы понять масштабные сдвиги. в рейтингах и поисковом поведении в период блокировки. У нас есть много исторических данных по веб-сайтам банков, поэтому сравнивать данные до и после COVID будет проще, чем начинать с нуля.

Я расскажу, как я это сделал, ниже. Но сначала я хочу поделиться, ПОЧЕМУ я считаю, что публикация такого рода исследований так важна для SEO-сообщества.

Зачем проверять лучшие практики SEO с помощью данных?

Это прекрасное время для SEO. У нас есть потрясающие инструменты, и мы можем собрать больше данных, чем когда-либо. У нас есть процветающие сообщества и отличные базовые учебные материалы.

Тем не менее, мы часто видим, как наше ремесло превращается в излишне упрощенные «лучшие практики», которые считаются универсально верными. Но если в SEO и есть одна универсальная истина, так это то, что универсальных истин не существует. Лучшие практики могут быть неверно истолкованы или устаревшими, что приведет к упущенным возможностям или прямому ущербу для бизнеса.

Используя возрастающую важность CWV в качестве примера, оптимизаторы поисковых систем имеют возможность (и обязаны) отделить факты от вымысла. Нам нужно знать, повлияет ли CWV на рейтинг с течением времени и насколько сильно, чтобы мы могли расставить приоритеты в наших усилиях.

Мы можем улучшить нашу SEO-игру индивидуально и коллективно, тестируя и проверяя передовой опыт с помощью исследований. Просто требуется любопытство, правильные инструменты и готовность принять результаты, а не навязывать повествование.

Неспособность проверить передовой опыт является обузой для специалистов по SEO и свидетельствует о нежелании оспаривать предположения. По моему опыту, нехватка данных может привести к тому, что мнения высокопоставленных заинтересованных лиц будут иметь больший вес, чем рекомендации эксперта по поисковой оптимизации.

Начните с правильных вопросов

Настоящее понимание приходит из объединения данных из нескольких источников для ответа на важные вопросы. и убедитесь, что ваши стратегии основаны на достоверных данных. В своем анализе местных банков я начал с перечисления вопросов, на которые я хотел получить ответы:

  • Какие характеристики присущи сайтам ведущих местных банков?
  • С кем банки на самом деле конкурируют в поисковой выдаче? Это в первую очередь другие банки?
  • Как меняются конкурентные результаты поиска в зависимости от того, когда / где / как пользователи ищут?
  • Как небольшие местные предприятия могут получить преимущество перед более крупными конкурентами из-за пределов своего региона?
  • Как состав SERP влияет на способность банка занимать высокие позиции по целевым ключевым словам?
  • Насколько важны Core Web Vitals (CWV) для ранжирования? Как это изменится с течением времени?

Вы можете провести такой же анализ, заменив «банки» другими категориями местных предприятий. Список возможных вопросов бесконечен, так что вы можете изменить их в соответствии со своими потребностями.

Вот важное напоминание — будьте готовы принять ответы, даже если они неубедительны или противоречат вашим предположениям. Оптимизаторы поисковых систем, управляемые данными, должны избегать предвзятости подтверждения, если мы собираемся оставаться объективными.

Вот как я проанализировал 50 000 результатов поиска за несколько часов

Я объединил три своих любимых инструмента для анализа результатов поиска в масштабе и сбора результатов данные, необходимые для ответа на мои вопросы:

  • STAT для создания отчетов ранжирования для выбранных ключевых слов
  • Screaming Frog для сканирования веб-сайтов и сбора технических данных SEO
  • Power BI для анализа больших наборов данных и создания простых визуализаций

Шаг 1: Определите ваши потребности в данных

Я использовал данные Бюро переписи населения США, чтобы идентифицировать все города с населением более 100 000 человек, потому что мне нужно было получить представление результатов поиска по местным банкам по всей стране. В итоге мой список включал 314 отдельных городов, но вы могли настроить свой список в соответствии со своими потребностями.

Я также хотел собрать данные для поиска на компьютерах и мобильных устройствах, чтобы сравнить различия в результатах поиска между типами устройств.

Шаг 2: Определить ваши ключевые слова

Я выбрал «банки рядом со мной» и «банки в {городе, st}», исходя из их сильного местного намерения и большого объема поиска, по сравнению с более конкретными ключевыми словами для банковских услуг.

Шаг 3. Создайте файл импорта STAT в формате .csv

Когда у вас есть ключевые слова и список рынков, пора подготовить массовую загрузку для STAT. Используйте шаблон, указанный в ссылке, чтобы создать файл .csv со следующими полями:

  • Проект: имя нового проекта STAT или существующего проекта.
  • Папка: имя новой папки или существующая папка. (Это необязательный столбец, который вы можете оставить пустым.)
  • Сайт: доменное имя для сайта, который вы хотите отслеживать. Обратите внимание, что для наших целей вы можете ввести здесь любой URL-адрес, который хотите отслеживать. Отчет «Топ-20» будет включать все URL-адреса с рейтингом для целевых ключевых слов, даже если они не указаны в столбце «Сайт».
  • Ключевое слово: поисковый запрос, который вы добавляете.
  • Теги: введите столько тегов ключевых слов, сколько хотите, через запятую. Я использовал «город» и «рядом со мной» в качестве тегов, чтобы различать типы запросов. (Это необязательный столбец, который можно оставить пустым.)
  • Рынок: укажите рынок (страну и язык), в котором вы хотите отслеживать ключевое слово. Я использовал «US-en» для американского английского.
  • Местоположение: если вы хотите отслеживать ключевое слово в определенном месте, укажите город, штат, провинцию, почтовый индекс и / или почтовый индекс. Я использовал список городов и штатов в формате «город, улица».
  • Устройство: выберите, хотите ли вы получить результаты на компьютере или смартфоне. Я выбрал оба.

Каждый рынок, местоположение и тип устройства умножают количество ключевых слов, которые вы должны отслеживать. В моем файле импорта оказалось 1256 ключевых слов (314 рынков X 2 ключевых слова X 2 устройства).

После того, как ваш файл будет готов, вы можете импортировать его в STAT и начать отслеживание.

Шаг 4: Создайте отчет Top 20 в STAT для всех ключевых слов

Встроенный в STAT сравнительный отчет Google SERP Top 20 фиксирует 20 лучших органических результатов по каждой поисковой выдаче с разными интервалами (ежедневно, еженедельно, ежемесячно и т. д.), чтобы отслеживать изменения с течением времени. Мне не нужны ежедневные данные, поэтому я просто позволил ему работать два дня подряд и удалил данные, которые мне не нужны. Я повторно запускаю тот же отчет ежеквартально, чтобы отслеживать изменения с течением времени.

Посмотрите видео ниже, чтобы узнать, как настроить этот отчет!

Мои 1 256 ключевых слов генерировали более 25 000 строк данных в день. Каждая строка представляет собой отдельный органический список и включает ключевое слово, ежемесячный объем поиска, рейтинг (включая локальный пакет), базовый рейтинг (не включает локальный пакет), протокол https / http для URL-адреса рейтинга, URL-адрес рейтинга и ваш теги.

Вот пример необработанного вывода в формате CSV:

Легко увидеть, насколько полезны эти данные сами по себе, но они становятся еще более мощными, когда мы очищаем их и начинаем сканировать URL ранжирования. [19659030] Шаг 5: Очистите и нормализуйте ваши данные URL-адресов STAT

На этом этапе вы, возможно, потратили 1-2 часа на сбор исходных данных. Этот шаг отнимает немного больше времени, но очистка данных позволяет выполнять более сложный анализ и раскрывать более полезные идеи в Screaming Frog.

Вот изменения, которые я внес в данные рейтинга STAT, чтобы подготовиться к следующим шагам в Screaming Лягушка и Power BI. У вас будет несколько столбцов с URL-адресами. Каждый из них позже послужит определенной цели.

  1. Дублируйте столбец URL-адреса ранжирования в новый столбец с именем Нормализованный URL-адрес.
  2. Удалите параметры URL из полей нормализованного URL, используя инструмент Excel для преобразования текста в столбцы и разделяя их знаком «?». Я удалил новые столбцы, содержащие параметры URL, потому что они не помогли в моем анализе.
  3. Скопируйте новый чистый столбец нормализованного URL в новый столбец с именем TLD. Используйте инструмент «Текст в столбцы» в столбце TLD и разделите его знаком «/», чтобы удалить все, кроме имени домена и поддоменов. Удалите новые столбцы. Я решил оставить субдомены в моем столбце TLD, но вы можете удалить их, если это поможет вашему анализу.
  4. Наконец, создайте еще один столбец под названием Full URL, который в конечном итоге станет списком URL-адресов, которые вы будете сканировать в Screaming Frog. Чтобы сгенерировать полный URL-адрес, просто используйте функцию объединения Excel, чтобы объединить столбцы «Протокол» и «Нормализованный URL-адрес». Ваша формула будет выглядеть примерно так: = concatenate (A1, «: //», C1), чтобы включить «: //» в действительную строку URL.

Более 25 000 строк в моем наборе данных находятся в пределах Excel. ограничения, поэтому я могу легко манипулировать данными в одном месте. Вам может понадобиться использовать базу данных (мне нравится BigQuery) по мере роста ваших наборов данных.

Шаг 6. Классифицируйте результаты поисковой выдачи по типу веб-сайта

Просматривая результаты поисковой выдачи, легко увидеть, что банки — не единственный тип веб-сайтов, которые ранжируются по ключевым словам с целью местного поиска. Поскольку одним из моих первоначальных вопросов был состав поисковой выдачи, мне нужно было определить все типы веб-сайтов и пометить каждый из них для дальнейшего анализа.

Этот шаг является наиболее трудоемким и информативным. Я потратил 3 часа, разбивая первоначальный пакет из 25 000+ URL-адресов в одну из следующих категорий:

  • Учреждение (веб-сайты банков и кредитных союзов)
  • Справочник (агрегаторы, местные бизнес-справочники и т. Д.)
  • Обзоры (местные и национальные сайты, такие как Yelp.com)
  • Образование (информация о банках на доменах .edu)
  • Правительство (информация о банках на доменах .gov и муниципальных сайтах)
  • Работа (сайты вакансий и агрегаторы вакансий) [19659015] Новости (местные и национальные новостные сайты с банковским содержанием)
  • Продовольственные банки (да, многие продовольственные банки ранжируются по ключевым словам «банки рядом со мной»)
  • Недвижимость (списки коммерческой и жилой недвижимости)
  • Поиск Системы (ранжированный контент, принадлежащий поисковой системе)
  • Социальные сети (ранжированный контент на сайтах социальных сетей)
  • Другое (совершенно случайные результаты, не связанные ни с одним из вышеперечисленных)

Ваши местные результаты поиска, вероятно, будут содержать многие из эти типы веб-сайтов и другие несвязанные категории успешно h в качестве продовольственных банков. Ускорьте процесс путем сортировки и фильтрации столбцов TLD и нормализованных URL-адресов для одновременной категоризации нескольких строк. Например, все рейтинги yelp.com можно отнести к категории «Обзоры» с помощью быстрого копирования / вставки.

На этом этапе набор данных вашего рейтинга завершен, и вы готовы начать сканирование сайтов с самым высоким рейтингом в своем

Шаг 7. Просканируйте целевые веб-сайты с помощью Screaming Frog

Мои первоначальные данные STAT выявили более 6600 уникальных страниц с веб-сайтов местных банков, которые вошли в 20 лучших результатов обычного поиска. Это слишком много страниц для оценки вручную. Войдите в Screaming Frog, сканер, который имитирует поискового робота Google и извлекает тонны SEO-данных с веб-сайтов.

Я настроил Screaming Frog для сканирования каждой из 6600 рейтинговых страниц для более подробного анализа характеристик, присущих веб-сайтам ведущих банков. Но не позволяйте фантастике просто расслабиться. Обязательно настройте его правильно, чтобы сэкономить время и избежать сканирования ненужных страниц.

Эти настройки гарантируют, что мы получим всю информацию, необходимую для ответа на наши вопросы, за одно сканирование:

Режим списка: вставьте дедуплицированный список полных URL из ваших данных STAT. В моем случае это было более 6 600 URL.

Режим хранения базы данных: он может быть немного медленнее, чем память (RAM), но сохранение результатов сканирования на жестком диске гарантирует, что вы не потеряете результаты, если сделаете ошибку (как у меня много раз) и закройте отчет, прежде чем закончите анализ данных.

Limit Crawl Depth: Установите значение 0 (ноль), чтобы паук сканировал только URL-адреса в вашем списке, не переходя по внутренним ссылкам на другие страницы в этих доменах.

API: я настоятельно рекомендую использовать интеграцию Pagespeed Insights для извлечения метрик скорости Lighthouse непосредственно в ваши данные сканирования. Если у вас есть учетная запись Moz с доступом к API, вы также можете извлекать данные о ссылках и домене из Moz API с помощью встроенной интеграции.

После того, как вы настроили паука, позвольте ему копировать! Это может занять от нескольких минут до нескольких часов в зависимости от того, сколько URL вы сканируете, а также от скорости вашего компьютера и ограничений памяти. Просто будьте терпеливы! Вы можете попробовать выполнить более крупное сканирование за ночь или на дополнительном компьютере, чтобы не перегружать вашу основную машину.

Шаг 8: Экспорт данных сканирования Screaming Frog в Excel

Выгрузить данные сканирования в Excel очень просто.

Шаг 9. Объедините свои наборы данных в Power BI

На этом этапе у вас должно быть два источника данных в Excel: один для данных рейтинга STAT, а другой — для данных сканирования Screaming Frog. Наша цель — объединить два источника данных, чтобы увидеть, как на рейтинг органического поиска могут влиять элементы SEO на странице и производительность сайта. Для этого мы должны сначала объединить данные.

Если у вас есть доступ к ПК с Windows, бесплатная версия Power BI достаточно мощная, чтобы вы могли начать работу. Начните с загрузки двух источников данных в новый проект с помощью мастера получения данных.

После загрузки наборов данных пора творить чудеса, создав связи в ваших данных, чтобы разблокировать корреляции между рейтингом и характеристиками сайта. Чтобы объединить данные в Power BI, создайте связь «многие ко многим» между полями STAT Full URL и Screaming Frog Original URL.

Если вы новичок в инструментах бизнес-аналитики и визуализации данных, не волнуйтесь! Вы можете быстро найти множество полезных руководств и видео. На данный момент действительно сложно что-либо сломать, и вы можете поэкспериментировать с множеством способов анализа данных и обмена мнениями с различными типами диаграмм и графиков.

Я должен отметить, что Power BI — мой предпочтительный инструмент визуализации данных, но вы может быть в состоянии использовать Tableau или что-то не менее мощное. Google Data Studio не подходил для этого анализа, поскольку он допускает только левые внешние соединения нескольких источников данных и не поддерживает отношения «многие ко многим». Это технический способ сказать, что Data Studio недостаточно гибкая для создания необходимых нам взаимосвязей данных.

Шаг 10: Анализируйте и визуализируйте!

Встроенные средства визуализации Power BI позволяют быстро обобщать и представлять данные. Здесь мы можем начать анализ данных, чтобы ответить на вопросы, которые возникли ранее.

Результаты — что мы узнали?

Вот пара примеров идей, полученных в результате объединения наших рейтинговых данных и данных сканирования. Предупреждение о спойлере — CWV не оказывает сильного влияния на органический рейтинг… но!

С кем банки на самом деле конкурируют в результатах выдачи? Это в первую очередь другие банки?

На настольных компьютерах около 67% обычных результатов поиска принадлежат финансовым учреждениям (банкам и кредитным союзам) с жесткой конкуренцией со стороны сайтов с обзорами (7%) и онлайн-каталогов (22%). Эта информация помогает формировать наши стратегии SEO для банков, открывая возможности для отслеживания и поддержки списков в соответствующих каталогах и на сайтах обзоров.

Хорошо, теперь давайте объединим наши источники данных, чтобы увидеть, как распределение категорий веб-сайтов зависит от рейтинга на настольных устройствах . Внезапно мы можем видеть, что финансовые учреждения фактически занимают большую часть трех лучших результатов, в то время как сайты с обзорами и каталоги более распространены на позициях 4-10.

Насколько важны Core Web Vitals (CWV) для ранжирования? Как это изменится с течением времени?

Производительность и скорость сайта — горячие темы в SEO и станут еще более важными, поскольку CWV станет сигналом ранжирования в мае этого года. Мы можем начать понимать взаимосвязь между скоростью сайта и рейтингом, сравнивая рейтинги STAT и данные Pagespeed Insights из отчетов Screaming Frog.

По состоянию на январь 2021 года сайты с более высокими показателями производительности Lighthouse (т. Е. Загружаются быстрее), как правило, ранжируются лучше, чем сайты с более низкими оценками. Это может помочь оправдать вложения в скорость и производительность сайта.

Некоторые элементы CWV более тесно коррелируют с лучшими рейтингами, а другие более разбросаны. Это не означает, что CWV не являются важными или значимыми, это скорее отправная точка для дальнейшего анализа после мая.

И что? Что мы можем узнать из этого типа анализа?

По отдельности, STAT и Screaming Frog являются невероятно мощными инструментами SEO. Предоставляемые ими данные полезны, если вы занимаетесь поисковой оптимизацией, но возможность объединять данные и извлекать взаимосвязи увеличит вашу ценность в любой организации, которая ценит данные и действует на основе идей.

Помимо подтверждения некоторых общепринятых знаний в области SEO с помощью данных («Более быстрые сайты награждаются более высоким рейтингом»), более эффективное использование реляционных данных также может помочь нам избежать тратить драгоценное время на менее важные тактики («улучшить совокупное изменение макета любой ценой!»).

Конечно, корреляция помогает не подразумевают причинно-следственную связь, и агрегированные данные не гарантируют результат для отдельных сайтов. Но если вы специалист по банковскому маркетингу, отвечающий за привлечение клиентов из органических каналов, вам нужно будет предоставить такие данные заинтересованным сторонам, чтобы оправдать увеличение инвестиций в SEO.

Делясь инструментами и методологией, я надеюсь, что другие пойдут дальше, создавая и предоставляя свои дополнительные результаты сообществу SEO. Какие еще наборы данных мы можем объединить, чтобы углубить наше понимание результатов выдачи в более широком масштабе? Поделитесь своими мыслями в комментариях!

Комментарии запрещены.