- Головна
- /
- Архів розсилок
- /
- Дайджест з вебаналітики #51
від 5 Лютого 2026р.
від 5 Лютого 2026р.
Привіт 🙌
Ось і пройшло ще два тижні — а значить, у мене для тебе новий пакет цікавих і корисних новин та матеріалів з аналітики. Поїхали.
🔍 Сьогодні в розсилці:
Наші новини:
🌟 Довідник по Google Tag Manager: відповіді на 40 найчастіших питань.
🌟 Практичний гайд по передачі івентів у Facebook через GTM.
🌟 Скільки зараз коштує налаштування Ecommerce в GA4?
Новини Google Analytics:
🔹 Дуже корисне нове сповіщення.
Новини Google Tag Manager:
🔹 Можливість налаштовувати Google Tag Gateway через Akamai.
🔹 Покращений збір даних про події в Google Ads.
Новини Google BigQuery:
🔹 BigQuery Data Transfer тепер підтримує Mailchimp і Shopify (Preview).
🔹 BigQuery тепер підтримує RANDOM_HASH.
🔹 AI.IF, AI.SCORE та AI.CLASSIFY тепер підтримують вибір моделі.
🔹 Gemini Cloud Assist для пошуку ресурсів у проєкті (Preview).
🔹 Conversational Analytics став доступним для всіх.
Інші новини:
🔹 Google Ads API V23: доступ до звітності Performance Max.
Корисні матеріали
Але практичні завдання на реальних сайтах не єдине, що чекає тебе на курсі PRO GTM. Я також буду розбирати твої питання на вебінарах.
Вчора я опублікував матеріал на блозі академії - "FAQ по Google Tag Manager з реальної практики". У ньому я розібрав 40 найпоширеніших питань по GTM: частину з них мені постійно ставлять студенти на курсі, частина — з реального досвіду роботи з клієнтами.
І хоча матеріал вийшов досить обширним — це насправді не так уже й багато. Для розуміння: за один вебінар на курсі ми іноді розбираємо й більше.
Приємного читання!
Не тільки я останні тижні писав матеріали по GTM. Моя колега Анна Приходько підготувала класну статтю про трекінг Facebook подій за допомогою Google Tag Manager.
Якщо ти вже проходив курс PRO GTM — ти вже звісно все це давно знаєш. Але якщо ні — дуже раджу до прочитання. Ну а якщо хочеш розуміти не тільки Facebook, а й передачу даних у Google Ads, LinkedIn, TikTok та інші рекламні системи, — приєднуйся до курсу PRO GTM.
Приємного читання!
На цьому тижні я не тільки публікував статті, а й запустив опитування щодо вартості послуг на ринку з налаштування єкому в GA4.
Чесно кажучи, я думав зібрати десь сотню відповідей. Але на момент написання цього листа в опитуванні вже 327 голосів — 327 людей висловили свою думку про те, скільки насправді коштують такі послуги.
Якщо ти сам налаштовуєш аналітику для клієнтів — або якщо тобі нещодавно щось налаштовували, — буде цікаво подивитися на статистику з обох сторін. Тож доєднуйся до опитування.
P.S. Для тих, хто просто хотів би побачити результат: я забув про кнопку «переглянути результати». Тому результати опитування я опублікую окремим постом сьогодні в себе на каналі. Підпишись, щоб не пропустити.
До речі. Якщо вже говоримо про вартість. Одна з лекцій курсу PRO GTM присвячена налаштуванню e-commerce. Якщо глянути навіть на попередні результати опитування, то можна побачити що по ринку, таке налаштування без проблем продається за 300–400 доларів. Тобто більша частина вартості курсу буквально відбивається знаннями з однієї лекції. А їх таких на курсі 20.
Як я вже казав, старт навчання — вже за кілька днів. Залишилось усього 4 місця. Тому welcome. …
Ну що ж, думаю я вже трохи втомив тебе курсом, окей, все. Обіцяю, про курс на цьому закінчуємо :)
Далі — тільки останні новини зі світу аналітики та корисні посилання. І, власне, з новин ми й розпочнемо.
Команди Google Analytics 4 та Power BI після своїх великих січневих апдейтів цього разу особливо нічим нас не порадували. Тому сьогодні — тільки новини від Google Tag Manager та BigQuery. Але одну цікаву річ, пов’язану з GA4, ми все ж таки помітили, тому почнемо з неї.
Активний учасник нашого ком’юніті, Рома Муртазін, звернув увагу на нове сповіщення в GA4.
Йдеться про повідомлення, яке попереджає, що події на деяких сторінках відправляються раніше, ніж фактично запускається конфігурація. Чесно кажучи, я особисто такого сповіщення у себе ще не бачив — можливо, в мене все добре налаштовано :) Або, можливо, я просто ще не потрапив у ту групу користувачів, які вже бачать цей апдейт.
Але те що це з'явилось — дуже класно. Тому що це якраз та проблема, з якою я стикався не раз. Вона часто залишається непоміченою, може генерувати (not set) у даних, і при цьому люди просто не розуміють, у який бік копати.
І ось з таким сповіщенням ця історія стає значно більш прозорою. Ти одразу бачиш, що саме пішло не так і де шукати проблему — без довгих дебагів і здогадок.

Загалом новин дві, але, якщо чесно, обидві, швидше за все, не потребують твоєї особливої уваги — хіба що тобі пощастило працювати з великими корпоративними клієнтами.
По суті, Akamai це аналог Cloudflare, але орієнтований саме на великих корпоративних клієнтів. Не знаю, як у тебе, але особисто в мене жоден клієнт не використовує Akamai. Тому новина не для мене.
В описі йдеться про збір додаткових даних про події в Google Ads, але фактично ніхто не розповідає жодних деталей. Кажуть лише, що Google тепер просто буде відправляти собі більше даних — і все.
Якихось змін у налаштуваннях з нашого боку не очікується. Тому максимум, що ми можемо зробити, — порадіти за Google, що в них тепер буде ще більше даних :)
Новини від команди BigQuery вже є більш цікавими, корисними і практичними. Цього разу я залишу найцікавіше на кінець, а почнемо з більш простого.
Останні кілька місяців майже в кожній розсилці я пишу про те, що BigQuery Data Transfer Service почав підтримувати ще X нових систем. І цього разу до списку додались Mailchimp та Shopify.
Тож якщо ти використовуєш одну з цих систем, тепер побудувати маркетингову аналітику в BigQuery стало ще простіше.
Детальніше про трансфер з Mailchimp >>>
Детальніше про трансфер з Shopify >>>
Наступна новина, на мою думку, корисна, але використовуватись буде нечасто. Це якраз той випадок, коли функція може майже не знадобитись у повсякденній роботі, але в окремих ситуаціях без неї — ніяк.
Якщо ти стикався з ситуаціями, коли бізнес уже зберігає свої дані в BigQuery і активно з ними працює, але в якийсь момент виникає потреба побудувати певний репорт або розв’язати задачу із залученням зовнішнього консультанта — і при цьому бізнес максимально не хоче ділитися даними, — тут дуже виручають різні опції маскування.
RANDOM_HASH — це, по суті, вихід на ще один новий рівень у цьому функціоналі. Тому, як я вже казав раніше, так — ця функція не буде використовуватись щодня. Але в окремих кейсах, особливо в батлах зі службою безпеки компанії, вона може бути дуже корисною.
Ну, а найцікавіші новини від команди BigQuery цього разу стосуються використання AI. І тут теж підемо по наростаючій.
Такі функції, як AI.IF, AI.SCORE та AI.CLASSIFY, тепер підтримують можливість вказувати конкретну модель, яку ти хочеш використовувати під час роботи з цими функціями. Це не якась революційна зміна, але з’являється більше гнучкості й контролю.
Цей апдейт, на мою думку, досить спірний. У описі цього апдейту Google, наприклад, пише, що ви можете запитати, які таблиці у твоєму проєкті містять демографічну інформацію про нових користувачів.
Чесно кажучи, цей приклад, як на мене, вже демонструє погану практику. Якщо ти не знаєш, де у власному проєкті зберігається така інформація, то ти, швидше за все, не до кінця розумієш контекст своїх даних і нюанси їх збору та зберігання. А з такими обмеженими знаннями починати робити аналіз — це, м’яко кажучи, ризиковано.
Тому так, у деяких кейсах це може виглядати як корисна функціональність. Але особисто я ставився б до цього апдейту дуже обережно. У багатьох випадках значно надійніше просто мати зрозумілу документацію по даних, ніж підключати AI до пошуку потрібних колонок у таблицях — бо тут дуже легко і дуже сильно промахнутися.
І нарешті переходимо до найважливішої новини за останні два тижні, яка стосується BigQuery. Я вже писав про Conversational Analytics трохи раніше, а також брав участь у її попередньому тестуванні, тому дуже радий, що вона нарешті вийшла і побачила світ. Можливо, згодом я навіть доберусь і напишу окрему статтю на блозі з детальним розбором цього функціоналу, але нижче я хочу трохи детальніше зупинитися на деяких пунктах вже в цьому листі.
До речі, думаю, багато хто уже помітив, що в інтерфейсі BigQuery з’явився новий пункт — Agent. Власне, це і є та сама основна новина. Ця функція дозволяє нам створити собі агента — по факту, це Gemini, який уміє працювати саме з нашими даними в BigQuery.

І коли я кажу «вміє працювати», це виглядає дійсно серйозно, тому що тут є багато налаштувань, які дозволяють зробити не просто умовну AI-систему «аби була». Це точно не історія, де ми просто закинули CSV у Gemini і сказали йому щось проаналізувати.
Поясню на прикладі налаштувань, які з’являються під час створення агента. По-перше, ми додаємо knowledge sources — тобто ті конкретні таблиці, з якими агент буде працювати. Тобто ми одразу обмежуємо його чітким набором даних. Невелика ремарка: звісно, тут не варто використовувати таблиці з сирими даними.

По-друге, ми можемо додати instructions — певні інструкції для агента. Це дуже корисно, тому що саме тут ми фактично передаємо бізнес-контекст наших даних. Декільки прикладів, що Google рекомендує прописувати в інструкціях на скріні нижче.

Окрім цього, ми можемо додати verified queries — і таким чином навчити систему працювати на основі вже перевірених нами SQL-запитів.
Є й додаткові налаштування, серед яких я окремо хочу виділити Maximum bytes billed. Завдяки цьому ти можеш контролювати витрати і не отримати наприкінці місяця несподівано великий рахунок.

Тепер, коли ми трохи поговорили про налаштування, хочу звернути увагу на самі відповіді.
Я спеціально ввів досить простий запит "Which pages brought the most clicks from the United States?" — просто щоб показати «живу» роботу функціоналу. І тут я хочу звернути увагу на три важливі частини відповіді, які я отримав.
По-перше, я отримав короткий summary, який при розгортанні містить SQL-запит. Якщо ти розумієш SQL, ти можеш дуже швидко перевірити, чи коректна ця відповідь і на яких даних вона побудована. Більше того, одним кліком на Open Editor можна перейти в редактор і продовжити роботу з цим запитом вручну.

По-друге, окрім тексту і таблиці, я отримав візуалізацію, що значно спрощує сприйняття інформації.

І по-третє, я отримав follow-up questions, які пропонують наступні кроки для продовження аналізу.

Всі ці три елементи важливі, тому що:
Так, я можу не використовувати ці запропоновані кроки і піти в інший бік, але сам факт, що вони є, — це дуже сильна сторона цього функціоналу.
Підсумовуючи мій особистий вердикт щодо Conversational Analytics: це точно варте твоєї уваги.
Так, не варто забувати, що за використання цього функціоналу потрібно платити. Але якщо ти займаєшся аналітикою даних і у тебе уже є достатній рівень розуміння SQL, щоб верифікувати відповіді, — як інструмент для пришвидшення роботи це дуже класна річ.
І хоча я прекрасно розумію, що основна цільова цього функціоналу за задумкою люди, які якраз не вміють писати SQL і не можуть перевірити результати, я б поки рекомендував якраз такій аудиторії або утриматись від використання цього інструменту, або тестувати з великою обережністю. Але для тих, хто з SQL на «ти», — це, як на мене, один із найцікавіших апдейтів BigQuery за останній час.
Про офіційний анонс і можливості можеш прочитати тут >>>
З технічною документацією можна ознайомитись тут >>>
Ти, напевно, вже звик, що інколи я ділюсь просто цікавими новинами — навіть якщо вони напряму не стосуються тих сервісів, з якими я постійно працюю. Цього разу якраз такий випадок.
Йдеться про Google Ads API V23, який відкриває для всіх можливість працювати зі звітністю в Performance Max.
Тепер через API вже можна витягувати дані по Performance Max і бачити, що саме там відбувається: розподіл по каналам, Display, Maps та інші деталі.
Детальна документація тут >>>
Новину я взяв звідси >>>
Сьогодні корисних матеріалів буде небагато, але це якраз той випадок, коли кількість компенсується якістю.
Ну і вечір, якщо у тебе він, звісно ,вільний, краще присвятити тестуванню Conversational Analytics, ніж читанню матералів ;)
Перш за все — ще одне важливе нагадування. Як би активно не розвивався AI, роботу аналітиків він точно не забирає.
Це, до речі, підтверджує і свіже дослідження від Salesforce — Data Analytics Trends 2026. І воно дуже показово починається з такої фрази:
“Seventy-six percent of business leaders say they’re under growing pressure to drive business value with data.”
Тобто від аналітиків усе більше очікують не просто збору даних чи підготовки звітів, а перетворення даних на рішення, гроші та конкурентні переваги.
І тут важливий момент. Так, вище я писав про Conversational Analytics у BigQuery і про те, що цей функціонал вартий уваги. Але я також звертав увагу, що цей агент не варто підключати напряму до сирих даних.
Навіть якщо уявити ідеальну AI-систему, яка може аналізувати дані і пропонувати бізнес-рішення, — вся підготовча робота нікуди не зникає. Збір даних, їх коректна передача, складання/зберігання в одному місці, обробка сирих даних, — усе це все ще робить людина. А до того ж, світ не ідеальний і AI поки що і аналізувати дані сам не вміє.
Тому якщо ти дивився у бік аналітики і думав, що «все скоро автоматизують» — смію тебе розчарувати. Роботи тут ще надовго вистачить. (Я пам’ятаю, що обіцяв більше не згадувати курс 😃 Але коли мова заходить про коректний збір даних, тут просто сам собою згадується PRO GTM — бо саме з цього все і починається.)
Посилання на дослідження Salesforce залишаю тут >>>
Там ще багато корисних думок і цифр. Рекомендую до ознайомлення.
Звісно, я не міг залишити любителів Power BI без чогось корисного в цьому листі.
Тому лови дуже цікаве рішення від Voytek Michalek — можливість оновлювати звіт у Power BI по зпиту користувача (натисканню кнопки в звіті).
Це рішення закриває проблему, з якою стикаєшся нечасто, але коли стикаєшся — вона реально болюча: більшості наших клієнтів ок мати щоденне оновлення звітів вранці. Але інколи користувачам потрібні дані прямо зараз, а чекати планового оновлення вони не хочуть. Суть рішення в тому, що користувач може оновити дані прямо зі звіту, натиснувши на кнопку, без доступу до workspace — оновлення запускається через API всередині Microsoft Fabric.
Мені цей підхід подобається з двох причин.
Є й обмеження: рішення працює тільки для Fabric та Premium Per User.
Посилання на детальний розбір залишаю тут — рекомендую зберегти в закладки.

На всяк випадок нагадую, що існує англомовна версія розсилки на LinkedIn, на яку ти теж можеш підписатися та поділитися з англомовними колегами.
📣 Якщо є зауваження, пропозиції чи просто хочеш поділитись загальними враженнями про листи, чекаю на твій коментар.
Будь в курсі актуальних новин зі світу аналітики!

Отримуй актуальні новини зі світу аналітики найпершим!

Новий дайджест з аналітики: 2 практичні відео про наскрізну аналітику в BigQuery, ТОП-3 оновлення розширення PROANALYTICS, новини BigQuery (AI-функції, Agent analytics, Graph, трансфери даних), апдейти GA4 і Google Signals, оновлення Meta Pixel і Enhanced Conversions, а також матеріал про KPI і логіку звітів.
Новий дайджест з аналітики: апдейт курсу Server-Side GTM Basics, нова стаття про інтеграцію Firebase з GA4, повний огляд розширення PROANALYTICS, оновлення BigQuery (AI-функції, MCP, зображення в таблицях), новини Google Ads і GA4 MCP, а також корисні інсайти про BigQuery та Power BI.