Size: a a a

Школа бородатого веб-аналитика

2017 April 20
Школа бородатого веб-аналитика
— и мониторинг конкурентов у них есть)

— что не стоит делать для анализа конкурентов в выдаче:
не сравнивайте трафик (много разных товарных позиций)
не сравнивайте готовые тематики
не смотрите только свой сайт (что логично для сравнения)
источник
Школа бородатого веб-аналитика
— анализ шторма в выдаче в serpstat (если падают позицию у всех)
— история снипетов

#analyze
источник
Школа бородатого веб-аналитика
в общем, можем получить вот такую динамику себя (своего сайта) в выдаче результатов поиска

— а также они добавили API
http://serp-stat.com/api

#analyze
источник
Школа бородатого веб-аналитика
И в завершении всего, зачем всё это надо?

#analyze
источник
Школа бородатого веб-аналитика
Сережа Яременко расскажет о том, зачем использовать инфраструктуру для аналитики

#analyze
источник
Школа бородатого веб-аналитика
GA и Метрика это black box, и это не круто
— а еще семплирование
— не все нужные отчеты и данные
— сложно сделать что-то не стандартное
поэтому используем bigQuery или clickHouse или redShift #analyze
источник
Школа бородатого веб-аналитика
#analyze

что важно:

— это все надо, если у вас большая и сложная система
— если нет, то owox решение для вас
источник
Школа бородатого веб-аналитика
Сергей рассказывать что они поменяли за этот год в своей инфраструктуре для аналитики

#analyze
источник
Школа бородатого веб-аналитика
Если у вас много денег и много данных, используйте tableau как bi систему, будь как macpaw)


#analyze
источник
Школа бородатого веб-аналитика
не R и python единым, получаем ответы с визаулизацей

Пример того, как macpaw ищет какие приложения можно найти для добавления в свою систему, посмотрел на график и сразу принял решение #analyze
источник
Школа бородатого веб-аналитика
Вопросы и ответы:  SQL
— учите SQL (все равно это надо)
— или устройтесь в macpaw (там всех учат)

#analyze
источник
Школа бородатого веб-аналитика
Немного поменяю формат трансляции, а то много сообщение не очень удобно.

#analyze

Павел Левчук рассказывает о
— симуляции данных
— распределении чеков по бинам
— распределении чеков и среднего чека
— кластеризации данных


— симуляция данных
вы можете использовать функцию sample в R для создания случайной выборке
но чтобы, все хорошо работало, не плохо было бы учесть вероятности покупки разных продуктов
всегда проверяйте данные перед симуляциями, в том смысле, насколько данные достоверны

— бин это столбец в гистограмме распределения типов номиналов продуктов (1 доллар, 10 долларов и тп)
хороший способ понять, есть ли у вас аудитория, которая покупает дорогие продукты и как их можно найти

— среднее значение это всегда плохо (берет большую картину и сжимает её в одну точку)
и общая картина по распределению заказов не будет для вас точным

— кластеризация (объединение пользователей в группу)
(kmeans алгоритм)
разделения вашей аудитории на похожие группы по нескольким характеристикам (например покупают несколько продуктов)
построить кластер просто, но вот вопрос в интерпретации данных

что можем сделать после всего это:
можем выделить группу аудитории, которая готова покупать продукт за 10 долларов, и нет смысла давать им предложение за 5 или 20 долларов (все равно не купят)
а также другие интересные закономерности (например, есть люди, которые готовы покупать или за 1 дол или за 20 долларов, можем пушить им продукты только за 20 дол)
можем оценить частотность покупок (как часто каждый кластер покупает) и самое интересное, что разные кластеры (группы аудитории) ведут себя по разному при покупках второй и третий раз


итого: средние значения при анализе вашей аудитории бессмысленная штука, используйте кластеры, для корректного разделения вашей аудитории на группы и анализируйте поведение каждого кластера отдельно. И понимание каждого кластера вы сможете сделать более релевантный офер для каждого кластера.
источник
Школа бородатого веб-аналитика
источник
Школа бородатого веб-аналитика
#analyze

Рома Рыбальченко рассказывает о том, как рассчитывать реальный ROAS при продажи софта:

— офигенный скрипт sourcebuster (https://github.com/alexfedoseev/sourcebuster-js)
который сохраняем реальный источник данных по переходу на сайт
— выгружаем статистику из appstore для понимания того, насколько качественный трафик ведет
— in-app аналитика для macOS приложений от macpaw (https://github.com/MacPaw/Google-Analytics-for-OS-X)
— используя все эти данные, сводим в одну таблицу с метриками CR for trial, CPC и тп
— для понимания географии и языков вашей аудитории можно использовать показатель per session value (PSV)
Например, Испания и Италия имеет низкий psv, потому что много «пиратят»
также можем смотреть psv в разрезе версий OS или типа макбуков, чем более новый ноутбук, тем выше psv и используем это в ремаркетинге

— даже если покупка онлайн, вопрос учета конверсий все равно остается, так как есть разные пути при покупке, так что не все так просто.
используйте UserID, чтобы вы смогли установить все возможные пути при покупке

— расчет Real ROI (скачал триал и купил) нужно:
понять как повышает рентабельность с триалом
анализировать специальные предложения
понять нужно ли раздавать бесплатный софт
атрибуцировать источники лида
объединить все действия вокруг пользователя

как это делать:
— запоминаем точный источник трафика на сайте и создаем UserID на базе их email/телефон
— склеиваем пользователей, который регистрировались несколько раз на разных посадочных/сайтах
— склейка транзакций от процессинга (вебхук после продажи к БД) — можно использовать GTM (хотя и урезанный, так как это данные о оплате)
— в процессинга устанавливаем ремаркетинг и другие тэги

— чтобы объединить все данные можно использовать power query и построить сводную таблицу для анализа всего-всего


В общем если очень нужно, то можно объединить данные о покупке софта и все рекламные кампании для большинства пользователей, но не просто
источник
Школа бородатого веб-аналитика
источник
Школа бородатого веб-аналитика
#analyze

Маргарита Евтух о том, как получать пользую от biqQuery для больших ecommerce (Answear)

— очень важно собрать чистые данные без сотрудников, тестовых заказов и тп
— определяем KPI для каждого рынка отдельно
— можно связать данные из CRM с другим данными из аналитики
— грузим затраты по рекламным кампаниям

что можем делать:

— можем разделить разные группы пользователей и работать с каждой
— определяем kpi для разных групп и учитываем вес для новых и повторных пользователей
— используем разные модели атрибуции для разных этапов в покупке
— также можем сегментировать аналитику для разных рынков (для молодых, делаем акцент для роста продаж и рост базы; для сформировавшегося рынка занимаемся реактивацией базы)
— так как собираем данные из CRM можем сегментировать данные по соц дем и анализировать каналы


— а еще можно рассчитать место канала в цепочке и распределить веса конверсии для каналов в цепочках, вытаскивая данные из bq


В целом, если у вас много данных, вы можете грузить все в bigQuery, нарезать разные сегменты и смотреть для каждого сегмента разные kpi для каждого рынка и управлять платной рекламой
источник
Школа бородатого веб-аналитика
источник
Школа бородатого веб-аналитика
#analyze

Павел Лоба из OWOX о том, как использовать Analytics 360

— объединить данные не просто (нужно много кастомных решений чтобы все корректно считалось)
что важно при объединении данных:
— собирать данные в рил-тайм
— экономично и эффективность
— быстро и удобно объединить разные типы данных
— безопасность и надежность

Что можно собирать в BQ:
— стримить из ГА
— периодически стучаться в ГА и собрать уточненные данные и взаимодействие с формами (email …)
— стримим из mailchimp
— все посты в соц сетях (iFT, measurement protocol по факту поста) и упоминания в соц сетях (google alerts)
— help desk
— ERP (инфомрация о продуктах, ценах, вариантов…)
— оплаты
— customer relationship

Как использовать:
— автоматизация email marketing
— alert в slack если что-то пошло не так
— дашборды в датастудо

А еще можно автоматизировать с помощью bigQuery data transfer service выгрузить исторические данные (180 дней) из adwords, youtube. doubleClick

Кроме того, можем передавать произвольные данные (service rest api (the desk) - apps script + bq rest api)


Разработка модели данных:
Так как данные в разных форматах, нужно разработать модель, которая позволила стандартизировать данные во всех типов объектов
Схема: объекты + атрибуты объектов со связями с другими объектами

Кейсы:
— можем оценить влияние усилий (звонки, письма, встречи) продавцов на продажи с визуализацией
— определить как изменения ux влияют на поведения пользователей и достижения kpi (дашборды, которые мониторят изменения и ошибки) и также можно сегментировать нужные показатели для разных пользователей, типы подписок, регионы …
— уведомления в slack + email + sms в зависимости от проблем на сайте (ошибки или изменения)
— построить план продаж и скоорденировать маркетинговые усилия по каждому региону (увидеть узкие места)
— собрать данные с турникетов при входе в bigQuery и оценивать кто и как ходит на работу

в целом, bigQuery это круто, если используем вместе с R, то у нас есть возможность реально получать пользу от bigData
источник
Школа бородатого веб-аналитика
источник
Школа бородатого веб-аналитика
#analyze

Виктор Тарнавский о том, как BigData помогает в предсказании вероятности покупки
Задачи:
— больше узнать о пользователях
— пути до покупки
— эффективные каналы

Попробовали кастомные модели атрибуции:
— затухающая по времени с различными весами каналов
— линейная на основе поведения пользователей (на основе поведенческих атрибутов)

bit.ly/ch_webinar

как результат:
очень круто, но не понятно как использовать эти модели атрибуции

Потом попробовали пересечение аудитории продуктов, но тоже не вышло, хотя и много полезных инвайтов

А теперь, предсказания покупки:

- Берем Scoring с разными группами поведения (хорошие, плохие)
- Понимаем аудиторию
- Оптимизация рекламы с использованием сегментов

И берем machine learning для того, чтобы все это сделать:
- важна чистота данных
- потом строим модель
- production process


Инструменты:
- logs api (raw data для всего периода, без ограничения)
- clickhouse (СУБД для OLAP сценариев для аналитикических задач - open source, быстрая, sql)
- алгоритм машинного обучения для построения классификатора

Дальше собираем пользовательские характеристики пользователей и поведенческие и загоняем в модель, и должен получиться хороший результат,
и модель сказала:
— число дней с последнего визита
— число дней с первого визита
— доход
— среднее время на сайт
— средняя глубина
и так далее


Машинное обучение:
— Логистическая регрессия
— Random forest (деревья принятия решений)


Обучаем модели:
— метрика AUC ROC (определение насколько модель не врет)
— hold-out (отложенная выборка, разбиваем на две части большую и меньшую, на одно обучаем, на второй проверяем)
— кросс валидация (разбиваем выборку на разны блоки и оцениваем каждый блок)

После всего этого, применяем модель на базе реальных покупок и получили хороший результат:

— Выяснили, что 80% людей в принципе не готовы покупать.
— А потом разбили на 4 группы в зависимости от вероятности покупок.
— Потом грузим для каждого пользователя характеристику вероятности для каждого пользователя.

А потом, делаем с этим что хотим:
— ремаркетинг
— adwords/директ/facebook
— колл-центр
— bid adjustments
— эксперименты


в целом, доход вырос в два раза, конверсия на 30% (круть!) в ремаркетинге и рся
источник