Ретроспектива: доклады о контекстной рекламе с конференции 8P

Olga Feoktistova
1 Star2 Stars3 Stars4 Stars5 Stars (1 votes, average: 5,00 out of 5)
Loading ... Loading ...
A A A

Совсем скоро нас ждет конференция 8Р и новые доклады. А пока давайте вспомним, что полезного узнали в прошлом году. Делимся конспектами докладов, которые еще не публиковались в сети целиком. Узнайте, как начать работать с bigQuery и ClickHouse, настаивать Data-driven marketing и автоматизировать контекстную рекламу.

конспект докладов 8Р

  1. Как начать работать с bigQuery и перестать думать о сэмплировании. Андрей Осипов, CEO Школа веб-аналитики.
  2. Принцип «data-driven marketing» в контекстной рекламе. Сергей Довганич, CEO Convert.
  3. Автоматизация контекстной рекламы в инструментах и кейсах. Константин Найчуков, эксперт по контекстной рекламе, eLama.

Дарим 10% скидки на 8P 2019  — промокод Ringostat_8P_blog.

Также рекомендуем первую часть докладов с потока для PPC-специалистов.

 

Как начать работать с bigQuery и перестать думать о сэмплировании

Андрей Осипов, CEO Школа веб-аналитики

Поговорим о том, как сделать, чтобы информация о пользователях, пришедших на сайт, и их действиях отправлялась не только в Google Analytics, но и в bigQuery. И вообще зачем это нужно. Сначала разберем общие проблемы.

конспект осипов bigQuery

Самая большая проблема с Google Analytics — то, что в нем есть лимиты. Это инструмент по умолчанию бесплатный, а версия 360 стоит довольно много. При этом есть большое количество сайтов, где объем трафика или событий большой.

По умолчанию в справке написано, что 500 000 сеансов, и у вас включается семплирование. Т. е. те данные, которые отображаются в ваших отчетах Google Analytics, они будут неточными. Если вы сделаете какой-то отчет, то данные по коэффициенту конверсии, транзакции, revenue будут не реальными, а высчитываемыми.

Google возьмет кусочки первого пользователя, второго, пятнадцатого и на базе этой информации примерно высчитает, какой коэффициент конверсии будет. Эти данные могут быть очень неточными. Когда я пару лет назад проводил обучение, была аудитория человек 50, и каждый выполнял какую-то мою задачку на базе тестового аккаунта Google Analytics. Почти у каждого был свой показатель конверсии и разница была довольно существенная. В одних и тех же датах, в одном и том же отчете, с одними и теми же метриками.

Если данных много, то у каждого пользователя, который работает с аккаунтом Google Analytics, будут свои данные. Если данные у вас неточные, то точные решения вы принять не можете. Разница в 0,1% — это плохо, но несмертельно. А представьте, что коэффициент конверсии в одном случае у вас 1%, а во втором случае 6%. То тут никакие точные данные получить нельзя.

Самые чувствительные данные обычно касаются прибыли, роста, KPI, которые влияют на управление маркетингом. У вас нет доступа к сырым данным для Google Analytics, у вас есть Core Reporting API, сейчас уже версии 4.0. Это позволяет вытащить определенные данные из Google Analytics. Но это все же не доступ к сырым данным. В API тоже включается сэмплирование. Это не решение, если вы хотите интегрировать эти данные с вашими системами, потому что опять-таки нет доступа к сырым данным. К реальным записям каждого посещения.

Если вы когда-то открывали отчет User Explorer, то могли видеть, как пользователи реально «ходят» по вашему сайту. Сколько они делают сессии, и в каждой сессии: вот он зашел, открыл страницу, нажал на кнопку и т. д. Если бы такие данные были в виде таблицы, то с ними можно было бы классно работать.

 

Как бороться с сэмплированием

Google Analytics 360 (Premium)

Там порог сэмплирования увеличен до 100 млн сеансов, что может покрыть большинство запросов бизнеса. Стоит это много. У нас в Украине есть OWOX, можете с ними пообщаться — они расскажут, сколько. Для многих это будет прекрасным решением, особенно для крупного бизнеса.

Разделение по различным Property

Мы можем хитро делить на различные property (ресурс — прим. Ringostat). В одном property в Google Analytics передавать данные одного подраздела, другое property другого подраздела. Или делить по городам. Но потом возникает проблема, чтобы все это свести в одно место. Т. е. можно это делать какими-то хаками внутри Google Analytics, но обычно это не очень удобно.

Работа с небольшими промежутками времени

Сэмплирование не включится, если у вас немного трафика. Можно выгружать данные, например, на один день, а потом их где-нибудь плюсовать. Допустим выгрузили данные за понедельник, вторник, среду, где-нибудь объединили — и на выходе у вас будет более-менее точный отчет. Но это тоже очень неудобно.

GoogleAnalyticsR (Google Analytics API to R)  

Марк Эдмондсон написал для R такой язык программирования. Специальный модуль, который позволяет выгрузить несэмплированные данные. Но он работает не всегда точно и не всегда это несэмплированные данные. Ну и нужно знать R.

Выгрузка сырых данных в bigQuery и ClickHouse

Тут даже не выгружать, а именно стримить. Как только пользователь зашел на сайт и сделал что-нибудь, событие об этом факте уходит в Google Analytics. А мы можем сделать так, чтобы эти данные уходили бы еще куда-нибудь. Лично мне для этой цели больше нравится bigQuery.

 

Почему bigQuery

конспект осипов bigQuery

Рассмотрим это подробней. Начну с самого большого плюса. В отличие от ClickHouse и других подобных инструментов, Google сам администрирует bigQuery. Вам не нужен специалист, который будет все настраивать, увеличивать квоты и т. д. Вам не нужен сервер. Просто заводите аккаунт, привязываете платежную информацию, стримите — и об остальном больше не думаете. Только платите и не очень много, по сравнению с другими системами.

Вы можете объединять данные с внутренней базой данных. Например, для решения задач скоринга, обогащения данных, машинного обучения. Можете использовать данные по рекламным системам: факту клика и его стоимости из Facebook, Google Ads. Что кстати очень просто — есть AdWords scripts и готовый кусок скрипта в справке по Google AdWords. Вы его копируете, вставляете в AdWords scripts, и данные уходят в bigQuery.

Это быстро и дешево, его не нужно обслуживать. У меня было решение, где мы объединяли мобайл и веб. Допустим, пользователь переходит с веба на мобильную версию или скачивает ее. Тогда мы можем учитывать и мобильную версию в BIGQuery, мобильное приложение и сам сайт. Все это можно держать в одном месте, делать сквозную аналитику.

bigQuery — это часть Google Cloud Platform, где есть множество дополнительных инструментов. В том числе и по машинному не обучению, которые вы все можете использовать.

 

Как это работает

конспект осипов bigQuery

  1. Пользователь заходит на сайт — отрабатывает Google Tag Manager.
  2. Внутри него есть специальная переменная. Она клонирует запрос. который должен уходить в Google Analytics.
  3. После чего отправляет его в bigQuery.

Те теги, которые вы настроили в Google Tag Manager, с теми настройками, которые вы хотите отправить в Google Analytics, вы можете по умолчанию отправлять в bigQuery. Причем все: расширенную электронную торговлю, данные об устройстве, браузеры, события и т. д.

Мое решение построено на базе решения Александра Ерошкина, которое он написал года два назад — оно очень простое. Я его допилил, сделал расширенную интернет-торговлю и т. д. Но если вы захотите повторить это в базе, то можете пойти по такому же пути.

конспект осипов bigQuery

У меня в блоге есть статья, как вы можете установить себе это решение и начать стримить с нуля. Чтобы начать это делать, потребуется всего полчаса.

 

Инструменты

Мы используем:

  • bigQuery;
  • App Engine — это еще одна часть Google Cloud Platform, он обрабатывает те данные, которые мы отправляем из Google Tag Manager — этот дублированный хит;
  • Power BI или Google Data Studio — чтобы работать с этими данными.

Выглядит это следующим образом. У вас есть data set, в котором есть несколько табличек. Каждая из них будет отвечать за что-то свое. Например, эта табличка отвечает за стриминг с веба:

конспект осипов bigQuery

Это точно такая же таблица, как в Google Analytics 360. Это довольно хорошо, потому что на Stack Overflow на Lunametrix, если вы читаете блоги, есть довольно много готовых решений.

Вот более общая схема, которая это иллюстрирует:

конспект осипов bigQuery

  1. Есть рекламные аккаунты, мы стримим это в bigQuery. Есть данные с мобильных приложений, мы стримим их туда же и т. д.
  2. Объединили все это.
  3. Потом делаем дашборды, такие, как нам надо.

При этом у нас есть возможность, используя тот же App Engine, реализовывать модули, интегрироваться с другими системами.

преимущества bigQuery

Разберем пару моментов немного подробней.

  1. Нет срезов. Если вы работаете в Google Analytics, вы знаете, что не можете некоторые типы данных объединять. Там есть разные скоупы. Есть ограничения по количеству метрик, которые вы можете отображать в отчете. Тут у вас есть доступ к сырым данным, и вы делаете, что хотите.
  2. Refunds. В Google Analytics рефанды, т. е. возврат денег за транзакцию, если она была отменена, выводится в отдельной колонке и ни на что не влияет. Чтобы это потом посчитать, нужно выгрузить и отнять количество revenue, которое получилось, минус refund. И тогда у вас получатся более-менее точные данные. В bigQuery это можно сделать на лету, и сразу показывать точные данные по реальной прибыли. Без учета транзакций, которые были отменены.

bigQuery — это быстро, и вы получаете fully management. Мне кажется, эти два момента лучше, чем все остальное. Вам не нужно думать об администрировании. И несколько гигабайт информации он может обработать до трех секунд.

Пример отчета Power BI, который мы можем сделать. Это мы на Analyze с желтой кнопкой делали такое решение. Вы можете делать такие отчеты на базе данных из Google Analytics, но источником данных тут будет bigQuery. У вас нет ограничений, как  выводить данные, в отличие от Google Analytics.

отчет Power BI

Google Data Studio запилил новую функцию, которая позволяет объединять разные таблицы между собой. Чего раньше не было, и это нужно было делать до того, как мы выводим данные. Поэтому многие использовали Power BI.

Data Studio — это тоже инструмент от Google. Он имеет нативный коннектор bigQuery, можно прямо написать запрос, вставить и по нему выводить те данные, которые мы вытащили из bigQuery.

стоимость bigQuery

Если у вас 1 млн сессий в день, то в месяц вы будете платить 200-300$. За хранение данных и небольшой процессинг. Если вы будете много работать с bigQuery, то будете платить за данные, которые были обработаны. Допустим, вы оптимизируете запросы и будете не в реальном времени это делать, а каждый день, например. В этом случае вы будете платить немного. Если посещаемость вашего сайта 50— 100 000 в день, то стоимость может быть в размере 50$ в месяц.

Если вы хотите работать с данными, вам нужен SQL. Он простой — это не язык программирования. Ему можно научиться недели за полторы-две. Есть курсы на Кaggle. И есть тестовый набор данных bigQuery, на которых вы можете потренироваться.

   

Резюме

  • это дешево и быстро;
  • гибкая система;
  • для дополнительных данных используем Google Tag Manager;
  • легко масштабируется;
  • можно подключить машинное обучение;
  • не нужно администрировать.

 

Принцип «data-driven marketing» в контекстной рекламе

Сергей Довганич, CEO Convert

Кейс №1: B2B-компания

Проект занимается продажей второго гражданства. Особенность — сложный путь клиента и долгий цикл продажи.

Исходные данные:

  • стоимость услуг — от 300 000 долларов, это инвестиция в экономику страны, взамен которой дают гражданство;
  • цикл продаж достигает 12 месяцев;
  • много рекламных касаний с клиентом.

Аудитории мало, трафик дорогой, CPC в контекстной рекламе по Москве достигает 12-14$ за клик.

Если клиент принимает решение в течение года, то человек взаимодействует с несколькими рекламными кампаниями. Например, начал поиск через контекстную рекламу Google по запросу «гражданство страны N». Потом его догнал ремаркетинг, имейл, сработала органика, и сделка закрылась. Еще одна сложность — при долгом цикле сделки клиент взаимодействует с брендом с нескольких устройств. Как минимум, в цепочке два-три устройства.

Наша задача — все эти данные свести. Мы решили не придумывать велосипед и взять самую простую модель атрибуции, линейную. Так как продажа осуществляется всего один раз, мы ценность одного клиента делим на количество его сессий.
сергей довганич, convert, data-driven маркетинг

Допустим, у человека было четыре сессии до покупки. Четверть дохода от чека, который заработала компания, относится к Google cpc, ремаркетингу или другим каналам.

Полезная статья по теме — «Короче: о моделях атрибуции за 3 минуты».

Продажа не заканчивается получением лида, процедура процесса оформления тоже занимает время. В этом промежутке человек тоже взаимодействует с рекламными кампаниями. Поэтому важно учитывать «хвост», который остается после оформления заявки. Рекламные каналы работают на удержание клиента, потому что менеджеры конкурентов тоже работают. И нам нужно всегда подтверждать свою экспертизу.

требования к линейной модели атрибуции

 

Как построить модель атрибуции

  1. Cбор сырых данных Google Analytics, SalesForce в ClickHouse.
  2. Объединение данных Google Analytics с SalesForce и рекламными бюджетами.
  3. Построение линейной модели атрибуции, визуализация данных в Power BI.

Данные об онлайн-конверсиях хранятся в Google Analytics. SalesForce — это CRM-система, где уже есть информация о продажах. Наша задача свести данные и визуализировать отчеты.

 

ClickHouse

Это хранилище, колоночная база данных — такая же, как, допустим, bigQuery. Покупаем хостинг, на котором разворачивается впоследствие операционная система Ubuntu. После этого на почту приходят доступы к нему. Сервер — это просто компьютер, на который я должен установить ПО.

Скачиваем расширение, которое позволяет работать с этим сервисом. Вводим логин и пароль, который нам прислали. Процесс детально показан в видео. В результате мы можем заходить по адресу сервера. После этого открывается Tabix — графический клиент для работы с базой данных.

Пару слов о том, чем база данных отличается от Excel. Да, она также хранит информацию в виде колонок. Если в Excel это называется лист, то в базе данных — таблица, которая содержит данные построчно. Вся прелесть в том, что я могу написать запрос к базе SELECT и перечислю, какие данные из базы мне нужны.

 

Выгрузка данных SalesForce

Как только я собрал данные Google Analytics в ClickHouse, возникает вопрос, как объединить их с данными SalesForce. Данные из CRM можно получить с помощью коннектора. Обычно все сначала хотят делать их сами, и теряют много времени. Но в мире давно существуют платформы, где вы можете выбрать, из какого источника выгрузить данные. Это Renta, Fivetran, Alooma.

Рекомендуем кейс Convert, где описано построение аналитики для клиники. Для этого использовалась в том числе и Renta.

Просто логинимся в платформе. Например, SalesForce. Задаем аккаунт и указываем, какие данные нужно получить. Допустим, данные по лидам, которые будут обновляться каждый час. Выбираем, в какое хранилище данных сохранить. Например, в bigQuery. С этого момента происходит загрузка и обновление данных в базе данных.

Получаем таблицу с набором данных. В данном примере у нас есть client ID, такой же, как есть в Google Analytics, статус заявки по нему в CRM и дата закрытия сделки:

сергей довганич, convert, data-driven маркетинг

 

Чем полезны базы данных

Всю обработку данных мы переносим не на сторону Power BI, которая будет очень долго загружаться и отрабатывать — а на сторону ClickHouse. Всю логику расчета метрик нужно переносить на базу данных. Это сильно упрощает работу с отчетами.

Тут у нас client ID Google Analytics сохранялся с дополнительными параметрами. Что мы делаем:

сергей довганич, convert, data-driven маркетинг

Объединение данных Google Analytics с SalesForce и рекламными бюджетами

Теперь мы можем объединить данные из Google Analytics и SalesForce для построения атрибуции. Делаем это по client ID или по собственным cookie. В данном случае мы использовали второе, потому что это позволяло «опрокидывать» ее на уровне разных устройств.

Весь процесс лидогенерации на сайте происходил так:

  • человек заходит на лендинг;
  • оставляет свою почту как обязательное условие;
  • на почту он получает информацию по определенным программам и если хочет узнать подробнее, то кликает на ссылку;
  • в нее всегда вшито собственное cookie;
  • если скрипт находит cookie в URL, то обновляет ее.

Сергей Довганич, Convert, Data-driven маркетинг

Допустим, клиент оформил заявку через компьютер, перешел по ссылке, а потом по ней же перешел из телефона. В этом случае мы объединяем данные. На выходе получаем:

  • client ID из SalesForce и Google Analytics — он везде одинаковый;
  • количество сессий в рамках пользователя из Google Analytics;
  • статус клиента из SalesForce;
  • дата его конвертации в определенный статус.

Это пример запроса:

Сергей Довганич, Convert, Data-driven маркетинг

Если коротко, то работает он так.

  1. #2 — это первый запрос, который обрабатывает данные по таблице SalesForce. Мы его оставляем неизменным и постоянно дописываем новыми агрегатными функциями.
  2. Берем client ID — #1, и считаем по нему количество уникальных сессий, которые у нас есть в таблице Google Analytics.
  3. Далее берем статус и последнюю дату активности в SalesForce и объединяем их JOIN — #3. Это связывает их по client ID.
  4. Делаем фильтрацию по некачественным лидам — #4. Чтобы они не участвовали в атрибуции.

В результате мы видим, что у конкретного пользователя было три сессии и определенный статус. В рамках линейной модели атрибуции получаем такую картину:

Сергей Довганич, Convert, Data-driven маркетинг

После этого берем все данные из Google Analytics, считаем конкретную атрибуцию для пользователя. Видим, что ценность всех его визитов составляет 0,333333. В сумме это будет единица. Теперь можно четко провести параллель:

  • сначала пользователь зашел по Google cpc;
  • оформил заявку;
  • перешел через имейл;
  • в цепочке также участвовал PDF-файл, в котором была ссылка на наш сайт.

Сергей Довганич, Convert, Data-driven маркетинг

Построение отчета в Power BI

Чтобы в Power BI подтянулись данные из Google Analytics, нужно использовать веб-коннектор. Просто указываем ссылку с IP сервера, логин/пароль от него и QUERY-запрос, который мы составили для примера атрибуции.

Сергей Довганич, Convert, Data-driven маркетинг

После этого данные попадают в Power BI, где мы можем четко оценивать эффективность кампаний. Например,можем увидеть, что у нас есть кампания Display. В ее рамках у нас было:

  • 5 000 гривен расходов;
  • всего 30 лидов;
  • из них сконвертировался 21.

Все эти отчеты группируются также формируются на уровне групп объявлений и ключевых слов. Поэтому в любой момент можно перейти в интересующую кампанию и увидеть, что там отработало.  

 

Кейс №2: Ecommerce

Здесь мы связываем данные по transaction ID, потому что понимаем, что платим за каждую покупку. В качестве оценки воронки продаж мы используем запрос, который считает атрибуцию по прохождению человека по воронке. ClickHouse обрабатывает запрос в течение считанных секунд — а ведь там около 3 млн сессий.

Тут мы видим, что в рамках привлечения транзакции у нас было 3 session ID. Каждый из них соответствует рекламному источнику. Человек купил на 19$, мы их разбросали по определенным весам и получили конечное Revenue по каждому источнику. Если взять сумму по последнему столбцу, получится итоговое значение.

Сергей Довганич, Convert, Data-driven маркетинг

Мы подтягиваем атрибуцию в Power BI. Мы можем ввести ID заказа и увидеть, какие источники участвовали во всем этом процессе.

 

Резюме

  1. Оцениваем зрелость команды. Как показывает практика, мало кто готов ими пользоваться. Многим просто лень заходить и проверять отчеты.
  2. Выбираем метрики на уровне менеджмента. Учитывайте пирамиду метрик, где вы младшему специалисту, который работает с отчетами, даете самые простые метрики.   
  3. Менеджерим процессы. В то же время у вас должен быть крутой менеджер, который может контролировать сотрудников и правильно выводить метрику эффективности каждого. Либо успешности рекламной кампании. Он может сначала контролировать срез источников. Видеть их касты, доход, процент оплачиваемых, считать ROMI. Также за этими метриками можно следить в динамике в Power BI.

 

Автоматизация контекстной рекламы в инструментах и кейсах

Константин Найчуков, эксперт по контекстной рекламе, eLama

 

Кейс №1. Генерация кампаний в сложных тематиках

В общем виде все кажется не сильно сложно:

  • на входе есть товарный фид;
  • есть некий каскад правил, по которым формируются объявления и ключевые фразы, по информации, которая есть в фиде;
  • на выходе получаем готовую кампанию и объявления.

 

Что может пойти не так

  1. Это не работает на длинных неструктурированных названиях и описаниях. Допустим, для смартфона четко понятен бренд, модель, характеристики и т. д. Но знает ли девушка, как называется модель платья, которое на ней? Аналогично и с другими другими товарными категориями. Еще есть требование у SEO-специалистов. Для оптимизации сайта они пишут длинные развернутые названия у товаров. Потому что так можно получить больше трафика. Но когда мы получаем фид с такими названиями товаров — «платье, синего цвета, в цветочек» — по такому полному названию товар никто не ищет. Мы вынуждены резать его: например, берем только первые пять слов.
  2. Семантика составлена из товаров, а не из того, что ищут пользователи. Специалист по контекстной рекламе идет в Вордстат, смотрит, что ищут люди, и сопоставляет с ассортиментом. Генераторы все ставят с ног на голову. Они смотрят, что есть в ассортименте, и считают, что люди так и ищут. Когда генераторы пытаются под таким правилом взять первые пять слов, то кампании получаются примерно такими :)

Константин Найчуков, eLama, Автоматизация контекстной рекламы в инструментах и кейсах

Так бывает в сложных тематиках: одежда, детские товары, зоотовары, строительно-отделочные материалы и т. д.

 

Как должны работать умные генераторы

Подобный генератор нам пришлось разработать, когда мы работали с OZON.RU. Это самый крупный интернет-магазин в России, который торгует практически всем. У них мощный внутренний отдел интернет-маркетинга, но даже их системы автоматизации не могли ничего сделать с такой высокомаржинальной категорией как товары для детей и мам.

В результате нам пришлось все немного усложнить:

Константин Найчуков, eLama, Автоматизация контекстной рекламы в инструментах и кейсах

Мы ввели два новых модуля: преобразователь и расширение семантики. Потом уже это генерировалось на тот момент через стандартный K50 генератор, потом компания использовала другую систему.

 

Как работает расширение семантики

  1. Берем раздел, например, Санки. И вбиваем базисы — какие-то корневые определения: санки, ледянки, салазки. Это делает живой человек, он определяет, что в этой категории продается.
  2. Потом эти базисы забиваем в Вордстат и выкачиваем всю вложенную семантику с упоминанием базовых слов.
  3. Робот автоматически проходит каждую ключевую фразу из Вордстат и пытается сопоставить товары из базы данных. Например, фразе «зимние санки» соответствует товар с id12345678.
  4. Для некоторых ключевых фраз робот не может определить соответствие. В этом случае сотрудник сначала проверял руками.
  5. Например, запрос «дорогие санки» — специалист по контексту решает, что по такому запросу рекламироваться не стоит. И добавляет его в список минус-слов. В дальнейшем он расширяется. И на следующем проходе, при вытаскивании из Вордстат, неподходящую фразу уже не возьмем.
  6. Также специалист может вручную определить, что по этому запросу нужно рекламировать товар с id55555555.

Реальный пример. На слайде ниже виден товар, по которому робот решил, что он соответствует запросу «санки-ватрушка». Почему? На странице товара упоминается слово «ватрушка»:

Константин Найчуков, eLama, Автоматизация контекстной рекламы в инструментах и кейсах

Робот проходит еще посадочную страницу и с нее собирает семантику, пытаясь найти сопоставления. При этом упоминания «ватрушек» в фиде не было.

 

Как работает преобразователь

Это робот математической лингвистики. Он выделяет особенности и характеристики товара из названия и описания в свободной форме. Проще говоря, он берет длинное неструктурированное название товара и разбирает на отдельные составляющие.

Посмотрим на примерах реальных товаров:

Константин Найчуков, eLama, Автоматизация контекстной рекламы в инструментах и кейсах

Робот здесь автоматически выделил упоминание двух брендов. Amav — потому что он есть в справочнике брендов товарного фида. Мифические лошади 3D — это бренд, потому что он в кавычках. Определил, что товар это набор и он обладает характеристиками «для раскрашивания».

Константин Найчуков, eLama, Автоматизация контекстной рекламы в инструментах и кейсах

Посмотрите на название. Как думаете, какая частота у такой ключевой фразы по Вордстат? Мы это не можем использовать для рекламы. Точно так же преобразователь находит бренд Happy Baby. Определяет, что это прорезыватель и то, что у него четыре характеристики: для зубов, с водой и т. д.

В итоге получаем, например такое объявление:

Константин Найчуков, eLama, Автоматизация контекстной рекламы в инструментах и кейсах

Мы берем товар + характеристику + бренд и получаем другое объявление. Так мы получаем кучу семантики на один и тот же товар для разных объявлений.

 

Преимущества такого подхода

  1. Предложения не обрываются на середине смыслового выражения. Матлингвистика помогает описать человеческий язык языком математики.
  2. Объявления получаются законченными и осмысленными.
  3. На один товар можно сгенерировать много разных вариантов. И победит один из них с самым лучшим CTR.

 

Групповые объявления

Это когда мы на одну ключевую фразу «в ассортименте» нашли сразу несколько подходящих товаров. Например, выяснилось, что люди ищут не просто плюшевых медвежат, а с бантом. В результате получается такое объявление с упоминанием количества конкретного товара:

 

Константин Найчуков, eLama, Автоматизация контекстной рекламы в инструментах и кейсах

Тут появляется вопрос — куда вести трафик? У нас четыре товара и одно объявление, где будет всего одна ссылка. Мы стали генерировать специальные страницы. Генерируется специальная таблица:

  • в первой колонке ключевая фраза;
  • во второй ID товаров, которые под этот ключ подходят.

Мы «приземляем» людей на станицу, которая выглядит так, как поиск товаров по сайту. На самом деле поиск по сайту на тот момент так не работал у OZON.RU.

Константин Найчуков, eLama, Автоматизация контекстной рекламы в инструментах и кейсах

Мы в URL передаем, что это поисковая реклама и по какой ключевой фразе. Ключевую фразу находим в этой таблице, выкачиваем перечень ID товаров и выводим их на этой странице. При этом таких групповых объявлений получалась примерно половина. На 46% собранной семантики удавалось найти больше одного товара в базе данных. Также функционал умеет согласовывать слова в предложении между собой.

И еще один момент. Когда OZON.RU это увидел, то понял — товароведам может не прийти в голову, что людям важны медвежата с бантиками. Они догадались, что эту информацию можно использовать для правильной катологизации. Посмотреть на поисковый спрос, как люди ищут, и, исходя из этого, формировать фильтры разделы и т. д.   

Результаты первого теста

  • 3 недели;
  • 88 179 рублей;
  • 52 500 посетителей;
  • CPC — 1,6р в тематике детских товаров, если кто-то из вас работал в этой тематике, то сейчас должны сказать: «не верю» :)

Мы собрали гораздо больше семантики, чем обычно собирают генераторы, мы охватили много запросов с очень низкой конкуренцией.

 

Кейс №2. Практика применения Power BI для анализа эффективности сгенерированных кампаний

Дальше нужно было работать над повышением качества генерации — т. е. эффективностью кампаний. Пришлось сделать кастомный отчет в Power BI. В его фильтрах есть:

  • название фидов — мы уже вышли за пределы детских товаров;
  • показатели по ним.

Константин Найчуков, eLama, Автоматизация контекстной рекламы в инструментах и кейсах

Эффективность кампаний может сильно отличаться от тематики. Допустим, научились классно генерировать объявления для детских товаров, а в одежде все плохо. В этом случае нужно пойти в настройки генератора и разобраться, в чем проблема. Это оказалось крайне непростым в настройке. Под каждый фид этого генератор приходится допиливать напильником.  

Мы можем переключаться между типами лендинга: групповой и одиночный. Тоже смотреть, что лучше отрабатывает. Можем переключаться и между типами генераций. Мы можем генерировать кампании по очень разным правилам. Например, товар + характеристика, товар + бренд и т. д. Переключаясь, специалист может увидеть, что работает хорошо. И разобраться, почему генерируются объявления, трафик по которым не конвертируется. Можно переключаться и между разными товарными категориями.

 

Сборка отчета в Power BI

Собрать нечто подобное можно следующим образом.

  1. Выгружаем данные из разных источников.
  2. Обрабатываем и связываем в модель данных. Т. е. внутри Power BI нужно создать базу данных.
  3. Построить отчет.

 

Самые простые методы выгрузки:

  • файлы и папки, Google Docs — берем выгрузку из Яндекс.Директа, мастера отчетов, из Google Analytics и кастомного отчета, в нашем случае;
  • коннекторы, Azure;
  • скрипты на R.

Преимущество использования файлов и папок в том, что это очень просто. Любой специалист способен выгрузить данные в формате XLS, XML, CSV из системы аналитики. Если указать в качестве источника папку, то когда мы будем подкладывать новые файлы, они будут подгружаться автоматически.

  • Плюсы: не нужно подключаться к API, не нужны программисты — например, наш PM смог сделать такой отчет самостоятельно;
  • Минусы: кропотливая настройка, полуручное обновление данных.

 

Настройка

Разберем настройку вкратце. Получаем данные из Директа: выгружаем даты, кампании, показы, клики и расход. Как построить ту самую фильтрацию? Откуда появилась возможность так глубоко анализировать данные? Мы генерим кампании по принципу максимальной детализации. Прямо в название кампании зашито, что это одежда, генерация с учетом бренда. Например, групповые посадочные страницы — поисковая реклама — товарная категория Мужская обувь и т. д.

Указываем папку, куда будем выгружать эти отчеты. И после этого начинается их кропотливая обработка:

  • удаляем лишние столбцы и строки;
  • преобразуем дату, потому что изначально это просто строчка текста;
  • разделяем столбец с помощью разделителя — у нас все фильтры были разделены вертикальной чертой в названии кампании, по ней мы и разбираем фильтры на столбцы.

Константин Найчуков, eLama, Автоматизация контекстной рекламы в инструментах и кейсах

Далее получаем данные из Analytics: дата, кампания, транзакция, выручка. Из-за разных причин — сложности проекта, отсутствия полного доступа ко всему, нам приходилось сводить расходы из Директа и доходы из Google Analytics.

Загружаем файл, и нам нужно номер кампании вытащить из utm-метки. Как оказалось, в Power BI это делается очень просто:

  • берем строчку текста — utm-метку;
  • выделяем мышью ее фрагмент с номером кампании;
  • Power BI сам записывает регулярное выражение, которое будет такую же строчку данных находить в других ячейках.

 

Обработка данных в Power BI

Когда мы обработали информацию из Яндекс.Директ и Google Analytics, их нужно связать в модель данных:

  • вытаскиваем из даты год, месяц и неделю — с настройкой 21, чтобы неделя начиналась с понедельника;
  • уникальный ключ, по которому данные, по которому они будут связываться между собой — это дата и номер рекламной кампании.

У нас появляется колонка с номером недели, столбец, где мы берем дату, номер кампании и объединяем в один.

Константин Найчуков, eLama, Автоматизация контекстной рекламы в инструментах и кейсах

Если не хочется тратить время на такую кропотливую работу, то ее можно упростить. Кто-то за вас должен написать и поддерживать систему, которая будет забирать данные по API, обрабатывать, связывать между собой и отдавать в Power BI уже в готовом виде.

В прошлом году агентство CubeLine рассказывало, что поддержка их собственной системы сквозной аналитики на базе Power BI обходится примерно в 250 000 рублей в месяц.

 Поэтому, как вариант, можно использовать пока бесплатный вариант — Genreport.

Задайте нам вопрос

 

Категория

Если вы нашли ошибку - выделите её и нажмите Ctrl + Enter или .