- Home
- /
- Newsletters
- /
- Дайджест з вебаналітики #21
Отримуй актуальні новини зі світу аналітики найпершим!

Дайджест з вебаналітики #40
Нові можливості GTM із Session Number та апдейти BigQuery: Reference panel, опис колонок через Gemini, візуалізація геоданих і платний Data Transfer Service. Вимоги по налаштуванню Consent у Clarity й практичні поради з GA4 і Power BI.
Дайджест з вебаналітики #39
Зміни в аналітиці завдяки GPT-5, докладний гайд з налаштування GA4 MCP та оновлення інструментів PROANALYTICS. Свіжі апдейти від GTM, BigQuery, Power BI і Google Ads.
Дайджест з вебаналітики #38
Практичне застосування MCP у GA4 і BigQuery, ключові оновлення в GA4, GTM та BigQuery. Альфа-версія API Google Trends , модель W-shaped атрибуції та можливості MCP у Power BI.
Привіт 🙌
Сподіваюся, ти встиг придбати бажаний курс зі знижкою на Чорну П'ятницю, і вже щасливий його переглядаєш. А сьогодні, як завжди, будуть новини від PROANALYTICS.ACADEMY, від сервісів, якими ми всі користуємось, та багато корисних лінків (бо, спойлер: новин небагато)
🚀 Вебінар "Автоматизація акаунту в 2025 році з Google Ads Scripts"
Рік уже наближується до кінця. І оскільки в цьому році, ми започаткували гарну традицію проводити практичні вебінари, то цим хочеться його і завершити.
👉 19 грудня ми з Дмитром Тонкіх проведемо вебінар на тему: "Автоматизація акаунту в 2025 році з Google Ads Scripts".
На ньому поговоримо про:
- Нові можливості Google Ads scripts, про які чомусь так мало говорять.
- Практичні поради зі створення власних скриптів в ChatGPT.
- Як використовувати скрипти в 2025 році для підвищення ефективності кампаній
Думаю, ти і так вже чув щось про Діму в маркетингових колах, але якщо ні, то нагадаю: засновник агенції chiliad та Product manager в TrueClicks, SaaS з аудиту та моніторингу рекламних акаунтів.
Слідкуй за новинами в телеграм та фейсбуці, щоб не пропустити можливість придбати білет🔥 Як і з попередніми вебінарами всі зібрані кошти ми переведемо на донати.
📰 Нова стаття "Як правильно налаштувати збір інформації про згоду користувачів на обробку персональних даних на сайті"
Звісно, я не можу залишити тебе до 19 грудня без нових матеріалів.
Так, знову розповідаю про важливість GDPR і про те, як з ним працювати. Цього разу на блозі SPEKA.
Якщо ти вже знайомий із курсом Consent & GDPR in Marketing, то можеш використовувати статтю як чекліст по основним моментам із відео першої лекції. А якщо ні - то це гарна стаття для розуміння того, звідки з'явився Consent, та яким він має бути згідно GDPR та DMA.
Приємного читання!
Тепер перейдемо до новин від наших улюблених сервісів
Як і очікувалося, під час Чорної П'ятниці ніхто нічого не релізив. Тому загалом маю тільки один сьогоднішній апдейт від Google Analytics 4. Хоча корисним його назвати складно. Тепер з'явиться окремий блок рекомендацій щодо створення ключових івентів в акаунті GA4. Навіть лінк на цю новину не хочеться давати.
Інші сервіси не опублікували нічого нового. Все як і планувалось. Тому це компенсую великою кількістю цікавих та корисних матеріалів 😌
Переходимо до корисних лінків 🔥
Оскільки вебінар, який буде в грудні, більше заточений під тих, хто працює з PPC, усі лінки будуть в більшості стосуватися роботи з сирими даними, щоб компенсувати відсутність новин про Power BI та BigQuery.
Корисні матеріали:
- Система моніторингу якості даних від Uber: виявлення аномалій;
- Сучасні підходи до SCD (Slowly Changing Dimensions) у хмарних сховищах;
- Робота з геоданими в Power BI;
- Робота з порожніми рядками в Power BI;
🚀 Система моніторингу якості даних від Uber: виявлення аномалій
Одна з основних проблем в роботі з сирими даними - це Data Quality. Звісно питання актуальне й коли ми використовуємо GA4, але з сирими даними воно стає ще важливішим.
Зустрів класний кейс від Uber: як вони написали власну систему Uber’s Data Quality Monitor (DQM). Декілька цікавих думок звідти:
- Помилки у звітах можуть призвести до неправильних рішень, особливо коли присутні якісь приховані аномалії. Теза очевидна, але не буде зайвим ще раз нагадати.
- Рішення, яке вони пропонують - попереджувати користувача про аномалії, щоб він був обережним під час аналізу та моделювання даних. Для цього інформацію по аномаліях виводять прямо у звіт, щоб людина бачила, наскільки йому можна вірити.
- Для числових даних при аналізі аномалій розглядають такі показники, як середнє, медіану, максимум та мінімум. Для параметрів (тексту) аналізують кількість унікальних значень та кількість пропущених значень. Ну і звісно не обійшлось без прогнозного моделювання показників.
- Якщо ми додаємо дуже багато перевірок, то в результаті отримуємо купу спаму, що призводить до ігнорування оповіщення. Тут повністю підтримую, бо мій чатбот в тг, куди відправляються всі оповіщення про запуски скриптів, я вже давно просто прогортую. Саме тому дуже цікаво виглядає ідея робити сповіщення не на рівні показників, а на рівні таблиці даних.
🚀 Сучасні підходи до SCD (Slowly Changing Dimensions) у хмарних сховищах
Проблема якості даних не єдина, що виникає під час аналізу великого обсягу інформації. Існує така тенденція, що в компаніях, особливо великих, часто присутні застарілі підходи до роботи з даними. В статті, на прикладі, Slowly Changing Dimensions, круто пояснюється, які зміни відбулись за останні роки в аналітиці і чому старі підходи зараз вже не є кращим рішенням.
👉 Важлива ідея - обчислювальна потужність та сховище ще 10-20 років тому були дорогі, але зараз вони дуже дешеві. Масова паралельна обробка даних - реальність, а отже і робота команди обробки даних значно дорожча, ніж обчислювальна потужність.
Тому треба змінювати підходи: бо умовний час розробника на роздуми, де зекономити декілька терабайтів даних на обробці, може вартувати набагато більше в грошовому еквіваленті ніж плата зі ці самі терабайти. Не женись за ефективністю запитів. Оцінюй все з точки зору грошового еквіваленту витрат.
🚀 Робота з геоданими в Power BI
Робота з геоданими дуже цікава, але свого роду нішева історія. Хто стикався, той точно зрозуміє, чому я так написав в першому реченні. В класичних базах даних ми навіть маємо окремі типи даних, які використовуємо, коли працюємо з геоданими. Існує хибна думка, що в Power BI з такими даними працювати нормально неможливо, або як мінімум складно.
👉 Стаття, яку я знайшов - це досить цікавий приклад того, як можна працювати з географічними полігонами в Power BI. Вона має два цікаві моменти:
- Підсвічує функціонал Power BI, про який ти раніше міг не задумуватися.
- Показує, що базові знання геометрії можуть бути корисні в будь-якій роботі аналітика.
Прослідкуй за ходом рішень, які описує автор. Навіть якщо тобі зараз не потрібен функціонал аналізу геоданих, я все одно рекомендую ознайомитися з матеріалом, щоб у майбутньому мати приблизне уявлення, як це може працювати.
🚀 Робота з порожніми рядками в Power BI
Якщо попередня стаття тебе втомила, то на завершення буде трохи простіший, але набагато важливіший матеріал. Трохи поговоримо про порожні рядки в Power BI.
На блозі SQLBI вийшов гарний матеріал, де розповідають, як працювати з порожніми рядками в полях дати. І в ній розбирають не просто правильне рішення, а ще й купу неправильних із поясненням помилок у підходах. Все як я люблю.
Якщо ти ще взагалі не знайомий з нюансами роботи порожніх рядків у Power BI і чому вони з'являються, рекомендую спочатку почитати наступні статті для ознайомлення:
1) Understanding blank row and limited relationships >>>
Твій сенсей, Макс Гапчук 🔥
Будь в курсі актуальних новин зі світу аналітики!
