Сейчас и тогда я дразню себя, пытаясь предсказать будущее, и поэтому в рамках подготовки к попытке в этом году я заметил, читая последние Форрестер прогноз 2019: бизнес-выводы доклада.
Эта часть выделяется:
57% глобальных данных и лиц, принимающих решения, аналитики все еще находятся на ранних стадиях их выводы-управляемый бизнес. Только 8% демонстрируют предварительные выводы-ориентированных компетенций.
Это означает, что несмотря на ажиотаж последних лет вокруг машинного обучения и искусственного интеллекта, даже самые большие компании борются, чтобы извлечь пользу из своих данных на масштаб и результаты впечатляющие дело.
Размышляя над этим открытием, я хотел добавить свои мысли, Почему организации в таком низком состоянии, аналитики зрелости. На основе работы с топ-менеджерами в крупных бренда-ведущие организации, это мои топ 3 причин:
- Нехватка персонала
Например, имея умных кадров, способных управлять “данные прошлого года” культуры (а не слепо управляемых данными), т. е. для достижения более высокого уровня зрелости аналитики. - Дефицит бюджета
Я часто удивлены, обнаружив, что даже когда организация вкладывает в команду аналитика, как мало, что команда по сравнению с масштабом задач. Часто люди не созданы для анализа, и при довольно скромном бюджете (если таковые имеются) для 3-сторонних специалистов помочь. - Отсутствие доверия в данных
Я считаю, что это самое большое препятствие к тому, что держит лидерство обратно от инвестирования в выше. То есть, данные, накопленные просто “плохо пахнет”.
Вы бы вложили деньги в неприятный запах…?
Для данных веб-аналитики, последний пункт – отсутствие доверия к данным, является самым большим препятствием, с которым сталкиваются организации. Поэтому у меня вопрос риторический – конечно, никто не хочет рисковать на анализе низкое качество данных! И это повсеместная проблема. В своем недавнем исследовании корпоративных внедрений аналитики Google я нашел удручающее состояние качества данных этой организации даже не в курсе. Например:
Вопрос – плохое качество данных во всех областях отслеживания
При ранжировании веб-сайта, его общего качества данных индекса (взвешенное значение от 0 до 100, где 100 = наилучшее качество данных), в среднем составляет всего 35,7. Кроме того, только 12% сайтов имеют результат выше 50 – что-то я настаиваю на более Прежде чем перейти к анализу данных.
Вопрос – Личные Данные
Невероятно, но один в 5 сайты имеют проблему персональные данные, т. е. персональных данных в Гугл Аналитике. Часто это по ошибке – имена и адреса электронной почты заглатывают целиком в URL-адреса и заголовки страниц, штат Джорджия. Однако, в также может быть преднамеренным пленных как действие, событие/ярлык, изготовленный на заказ размер, код подчиненности или другой переменной.
Проблема с – даже основы может пойти не так
Половина всех сайтах есть проблема с развертыванием в Google Analytics код отслеживания. То есть базовый код, который отслеживает посещения и данные просмотров. С отверстиями в развертывании GATC, посетите графы могут быть дублированы или полностью утрачены, а также производить ненадежные результаты атрибуции.
Вопрос Д – бедного сегментация посетителей
Сегментация является ключевым требованием, чтобы иметь возможность выполнить какой-либо углубленный анализ данных. Однако, сегментация посетителей была однозначно самой малоизученной/функция реализована в Google Analytics с только 7% веб-сайтов становится сегментация право. По умолчанию GA имеет несколько отличных инструментов сегментации по умолчанию. Однако, это на сессии уровня – они не рассказывают вам о своих пользователях, т. е. реальных людей. Читайте мое определение того, что испытывается в отношении к сегментации посетителей.
И так далее… см. пост: предприятие изучение Гугл-Аналитика реализаций для уточнения деталей 15 ключевых областях данных о качестве проверенных и кратко.
Когда дело доходит до данных веб-аналитики, есть такой недостаток доверия в базовых данных, что управление во избежание серьезного риска/инвестиции, необходимые, чтобы это произошло. Эти причины, почему я думаю, что только 8% предприятий в отчет Forrester свидетельствуют предварительные выводы-ориентированных компетенций.
Информационный шум застит сигнал
(или, как такие вопросы летят ниже радара)
Я использую “неприятный запах” метафора обобщить, что высшее руководство не устраивает качество данных, когда оно исходит от анонимных источников. То есть, подавляющее большинство данных веб-аналитики не от клиентов, а от анонимных перспективы. Занимательно, топ-менеджеры осознают, что цифры просто не сходятся, противоречат другие источники, или просто нельзя объяснить. Однако, это сложно в организации, чтобы положить палец на то, что проблема есть. Есть буквально так много колес в движении в любой момент времени с онлайн-посетителей, что информационный шум заслоняет сигнал.
Решение – Стресс-Тест Вашего Данных Гугл Аналитики
С так много всего происходит, так много точек данных, и давление времени, что онлайн мир приносит бизнеса, организаций нужен простой способ, чтобы испытать свои качества данных. Традиционный метод, чтобы вручную проверять ваши данные и настройки учетной записи ищу проблем с Код отслеживания, конфигурирование и использование дополнительных функций. Я обсуждаю методический способ сделать это подробно написано в моей последней книге (Глава 4).
Однако, проблема с ручным аудита заключается в том, что это отнимает много времени. Например, на сайте предприятия я мог бы потратить 20-30 часов готовит аудит! И это не то, что может быть разгружен в интерн/офис-младший. Аудиторская установки GA является судебный процесс, требующий знаний и опыта. Еще одна проблема с ручным аудита является его недолговечность – даже эксперты делают ошибки, особенно, когда вы ищете иголку в стоге сена. Когда дело доходит до данных веб-аналитики, игла выглядит так же, как сенокос, и сена, постоянно растет и меняется.
Следовательно, автоматизированный аудит подхода…
Так что то, что начиналось как проект, чтобы сделать мою работу легче стала полнофункциональное корпоративное облако. Проверенных данных делает всю тяжелую работу по оценке и проверке данных Гугл Аналитики. Он использует гибридную технологию, чтобы избежать человеческих недостатков, сочетая в себе сайт обходчика, чтобы обнаружить содержание, которое должно отслеживаться, при судебно-медицинской экспертизе (и некоторые искусственного интеллекта) собранных данных. Также в реальном времени отслеживает вопросы управления, такие как GDPR соответствия.
И мой 2019 аналитика прогноз…
Смысл этого поста был в том, чтобы обеспечить основу рассказ о том, что я прогнозирую для веб-аналитики в 2019 году… последние 12 месяцев был переломным для управления данными, т. е. GDPR. Большого внимания и ответственности, размещенные на собирателей данных неизбежно приведет к организации оценки качества их данных. Поэтому я жду следующий вопрос, чтобы подняться на борт уровне для веб-аналитики: “могут эти данные быть проверены?“. А если нет, пойти и проверить его качество.
Это хорошо для всех данных пользователей, и надеяться на проверенные данные 🙂