Бизнес план - Бухгалтерия. Договор. Жизнь и бизнес. Иностранные языки. Истории успеха

Слишком умный билборд: Как собирать данные о людях не только в интернете. О сборе данных

» маркетологи чувствуют себя настоящими детективами. И чтобы «мыслить как преступник» пытаются анализировать все возможные источники данных: опрашивают друзей и коллег, пытаясь «попасть в ЦА «, продвинутые смотрят статистику в Яндекс.Метрике и в соцсетях и изучают запросы в wordstat. Сегодня мы подробно разберем, как и откуда выжимать секретную информацию о пользователе, дадим несколько скриптов по сбору 100% достоверных данных о пользователей и покажем, как перенести эту информацию в карту персонажей .

В блоге Convert Monster есть несколько статей про исследование и подготовку карту персонажей, но по опыту двух потоков курса « » поняли, что наибольшее затруднение вызывает именно сбор информации о потенциальных клиентах. И даже если накоплена некоторая статистика и есть реальные отзывы не всегда ясно, на что обратить внимание и какие вопросы задавать пользователям.

5 источников данных о целевой аудитории, обязательных к использованию

В этой статье акцентируем внимание на анализе существующих данных, т.е. статья пригодится тем, у кого накоплена хотя бы первичная статистика об аудитории , есть группы в соцсетях и регулярный «доступ к телу» клиентов в лице действующего отдела продаж.

Ниже подробный разбор 5 источников данных о целевой аудитории и перенос полученных сведений в карту персонажей.

Ядро карты персонажей составляют ответы на следующие пункты:

  1. Поло-демографические данные;
  2. Эмоциональное состояние/Интересы;
  3. Цель покупки или проблема;
  4. Цель посещения сайта;
  5. Основные факторы принятия решения;
  6. Дополнительные факторы принятия решения;
  7. Возражения;

Рис. 1. Шаблон карты персонажей.

Как анализировать существующую аудиторию? Где собрать сведения? Как ответить на эти вопросы? Не нужно изобретать велосипед – начните с источников, которые у вас под рукой. Рассмотрим несколько методов анализа потребностей клиента:

Входящие звонки

Рис. 2. Похоже на выявление потребностей в вашем отделе продаж?

На что стоит обратить внимание при анализе входящих звонков:

  1. С какими проблемами чаще всего звонит клиент?
  2. Как он их формулирует?
  3. Какие способы решения уже пробовал?
  4. Почему не помогло?
  5. Возражения

В сборе этой информации вам поможет отдел продаж и запись телефонных разговоров, более того, вопросы выше — стандартные вопросы для выявления потребностей, ничего криминального делать не нужно. Потенциальный клиент даже не поймет, что вы собираете информацию.

Стоит проанализировать записи звонков, обращая внимание на формулировки клиента, на возражения и его опыт до покупки, чтобы проследить логику принятия решения.

Какие сведения можно вытащить из телефонных звонков: проблему/цель покупки, ключевые факторы решения и собрать список возражений, которые вы закроете на посадочной странице.

Сбор отзыва существующего клиента

Обзвоните 10 реальных клиентов и попросите ответить их на 6 коротких вопросов:

  1. Какую проблему пытался решить клиент?
  2. Какие способы решения он уже пробовал?
  3. Почему не помогло?
  4. Почему решил обратиться именно к вам?
  5. Что стало решающим фактором покупки?
  6. Какой результат получил?

Чтобы клиенты охотнее оставляли отзывы, можно сделать взаимовыгодный пост в формате кейса в блоге, где вы размещаете отзыв клиента и ставите ссылку на его проект. Вы получаете +100 к репутации, а клиент дополнительные переходы на свой сайт. Вот, как мы это реализовали для проекта .

Опрос в рассылке

Собираете базу имейлов и регулярно ее «подкармливаете» полезным контентом? Опрос в рассылке поможет вам убить сразу 2-х зайцев:

  1. сегментировать рассылку по интересам, чтобы сделать ее более адресной и повысить показатели;
  2. и получить обратную связь от клиента по качеству вашей рассылки и о компании в целом;

Как создать опрос? Есть несколько способов:

  • Использовать Google Forms и ставить ссылку на опрос в письмо;
  • Либо использовать встроенный функционал рассылочных сервисов. Getresponce предлагает создать опрос сразу внутри сервиса, без привлечения сторонних решений.

Есть общие правила, которые нужно учитывать при создании опроса: не более 10 вопросов (чем меньше и точнее сформулировано — тем лучше), последний вопрос можно оставить открытым и дать возможность ответить своими словами, варианты ответов нужно предусмотреть заранее. В обмен на прохождение опроса предложите бонус и расскажите, для чего вам этот опрос («чтобы присылать вам только то, что интересно именно вам» и т.д.).

Анализ групп в социальных сетях

Какие данные можно получить из социальных сетей? К вашим услугам полный набор сведений для составления mind-карты по персонажам, площадка, где вы задаете вопрос и получаете на него ответ. Одним словом, прямой «доступ к телу» ваших потенциальных клиентов.

ВКонтакте

В первую очередь стоит изучить статистику вашей группы. Какие очевидные данные видны в статистике:

  • Пол/Возраст;
  • География (страны и города);
  • Устройства (соотношение между просмотрами с компьютера и мобильного устройства);
  • Источники переходов;

Также полезно будет провести семантический анализ (вытащить наиболее популярные ключи, например, с помощью сервиса Адвего) и понять интересы аудитории. Для этого загружаем сохранённые аудитории в Церебро или Таргетхантер в «группы, где есть ЦА », выставляем количество участников (1000-50000), копируем названия групп, вставляем в Адвего и получаем список ключей-интересов.

Рис. 3. Пример интерфейса сервиса Церебро Таргет.

Таким образом, помимо социально-демографических данных, из ВК можно вытащить интересы аудитории, понять ключевые факторы принятия решения, узнать, на кого она ориентируется при выборе (можно даже выявить лидеров мнений).

Facebook

В Facebook к вашим услугам инструмент Audience Insights. Оттуда можно получить даже скрытую информацию, т.к. сервис показывает даже те интересы, которые не были указаны в аккаунте (на основе лайков).

Последовательность действий:

  1. Выберите нужную аудиторию: все пользователи Facebook (широкие интересы и изучение конкурентов), пользователи связанные с вашей страницей (ваша нынешняя аудитория), индивидуализированная аудитория (загружаете базу имейлов). Можно конкретизировать параметры аудитории: пол, возраст и т.д.
  2. В строке интересы вводим конкретные страницы (популярные места, названия и т.д.). Проставляем нужный регион.

Далее по выбранной группе мы сможем проанализировать подробный демографический состав аудитории, географию, посмотреть сферы деятельности, какие самые популярные категории страниц, активность пользователей и используемые устройства.

Рис. 4. Скриншот из сервиса Audience Insights: мы можем оценить половозрастной состав аудитории, увидеть наиболее массовый сегмент.

Яндекс.Метрика

Получать достаточно полные сведения о целевой аудитории сайта позволяет Яндекс.Метрика. В отчетах Метрики можно найти информацию о географии пользователей, половозрастных характеристиках, долгосрочных интересах (позволяет увидеть типичные поисковые запросы и поведение пользователей в сети.) и т.д.

Рис. 5. Интерфейс Яндекс.Метрики.

Стандартный отчет «География»

Отчеты > Стандартные отчеты > Посетители > География

Половозрастные характеристики. Отчеты «Возраст» и «Пол»

Отчеты > Стандартные отчеты > Посетители > Возраст

Отчеты > Стандартные отчеты > Посетители > Пол

Долгосрочные характеристики

Отчеты > Стандартные отчеты > Посетители > Долгосрочные интересы

Чтобы понять, какой сегмент аудитории наиболее заинтересован в вашем продукте/услуге и создать свой, кастомизированный, отчет, используем инструмент «Группировки» в любом из вышеперечисленных отчетов. Он позволяет увидеть: активность аудитории и уровень вовлеченности, конверсии, источники трафика для каждого сегмента аудитории.

Вывод

Наиболее полный объем информации о пользователе приносит живое общение: звонки, сбор отзывов и анализ активностей в социальных сетях . Именно там мы получаем подробную информацию о цели покупки (проблеме), о ключевых и дополнительных факторах принятия решения и выявляем возражения.

Социально-демографические данные, половозрастные характеристики, географию, используемые устройства, интересы лучше собирать через веб-сервисы (Яндекс.Метрика, Google Analytics) и сервисы, которые собирают статистику по социальным сетям (Церебро, Таргетхантер, Audience Insights в Facebook).

В следующей статье мы рассмотрим, как собрать информацию, если у вас еще нет реальной аудитории, а в частности:

  1. Как правильно работать с вордстатом и выжать из него максимум информации о ваших персонажах;
  2. Как анализировать блоги, форумы и посты в соцсетях. И как с помощью тщательного анализа блогосферы и соцсетей сформулировать оффер.
  3. Как провести простой конкурентый анализ и на что обратить внимание в первую очередь.

Есть вопросы по сбору информации о целевой аудитории вашей посадочной страницы — welcome в комментарии к статье!
Либо закажите лендинг у нас и мы сами всё сделаем!)

— хотя и нельзя сказать, что смирились с этим. Принятие GDRP усложнило жизнь многим участникам рекламного рынка, но пока крупные игроки вроде Google только от новых требований. Сомнительные практики сбора данных самые разные компании, но все в один голос твердят, что речь идет об обезличенной информации.

Однако отслеживать аудиторию и взаимодействовать с потребителем способна не только интернет-реклама. Технология O2O работает в обоих направлениях, отмечал в Product Lead Mail.Ru Group Игорь Оганесян. Интернет-холдинг уже несколько лет занимается таргетингом рекламы на посетителей оффлайновых торговых точек и сотрудничает с компаниями, которые специализируются на Wi-Fi-аналитике.

Сенсоры, установленные рядом с магазинами, позволяют получить максимально точные идентификаторы и не путать одного пользователя с другим. Оганесян утверждает, что Wi-Fi-аналитики собирают данные исключительно в агрегированном виде и личность конкретного пользователя нигде не фигурирует. При этом поставщики делятся с клиентами информацией о том, как эти данные могут быть применены, и запрашивают их согласие.

Решение для гиперлокального таргетинга рекламы есть у компании «МаксимаТелеком». В мае крупнейший в России оператор публичных сетей Wi-Fi официально устройство MT_BOX, которое собирает MAC-адреса людей, находящихся вблизи какой-либо локации или внутри объекта. Гаджету достаточно, чтобы на мобильном устройстве был включен Wi-Fi, при этом подключаться к нему не требуется. В компании заверяют, что все данные о пользователе деперсонифицированы.

Супертаргетинг при размещении наружной рекламы — вопрос ближайшего будущего, гендиректор oneFactor Роман Постников. К диджитализации и внедрению дополнительного функционала outdoor-рынок подстегивает усиливающаяся конкуренция. Сама oneFactor развивает технологию геотрекинга SmartIndex, в которую интегрировано более 300 тысяч рекламных поверхностей по всей России. В ее основе — анализ агрегированных данных по более чем 210 млн активных абонентов мобильной связи. Точность геопозиционирования составляет 50 метров, при этом технология замеряет число автомобилей и пешеходов, фильтрует передвижения на метро, учитывает поездки в поездах и на автобусах.

Оператор наружной рекламы Russ Outdoor интегрирует в свои digital-конструкции технологию Synaps Labs, которая позволяет таргетировать рекламу на целевую аудиторию. Так, для Vnukovo Outlet Village была запущена с возможностью подсчета конверсии в наружной рекламе. Wi-Fi-датчики «НПО Аналитика» собирали МAC-адреса мобильных устройств в проезжающих мимо автомобилях, после чего выбранной группе показывали рекламу Vnukovo Outlet Village в интернете.


PHD пошло еще дальше в плане взаимодействия с аудиторией и «всю Москву скупили». Именно такую реакцию вызывает их таргетинг рекламы на цифровых экранах. Агентство научилось технологически считать, сколько людей в азимуте щита, что это за люди и с каким доходом. В результате молодая мужская аудитория с определенным уровнем дохода видит сообщение от премиального автобренда, а домохозяйки — продукт из FMCG-категории.

Скоро билборд сможет общаться с потенциальным клиентом — например, отправлять ему ссылки на сайты и другие уведомления. Такую технологию разработали в Сколково. Как пишет Cossa.ru , бизнесмен Борис Кисько запатентовал технологию «SmartCom-Сколково», благодаря которой любая рекламная конструкция сможет персонально взаимодействовать с человеком в радиусе до 150 метров.

Система предполагает установку сниффера, или анализатора трафика, который идентифицирует проходящего мимо человека и связывается с ним через смартфон. Технология рассчитает скорость, вектор движения и продолжительность потенциальных контактов. С помощью «SmartCom-Сколково» рекламодатели смогут собирать большие данные и агрегировать аудиторию наружной рекламы: определять пол, возраст, доход, семейное положение, место проживания и работы.

Технология также позволит привязывать обезличенный профиль пользователя к его потребительскому поведению в сети и фиксировать динамику покупательского поведения. Кроме того, рекламодатели смогут таргетировать и ретаргетировать индивидуальные рекламные сообщения и отслеживать совершённые человеком покупки. Конструкции, подключенные к «SmartCom-Сколково», будут отмечены специальным значком. Команда проекта запустила пилотные проекты с будущей столицей ЧМ по футболу 2022 года Дохой (Катар), московскими транспортными перевозчиками и сетью «Медси».

В скором времени интерактивной станет и реклама в прессе. Устройство SmartComTooth способно отправлять ссылки на статьи или рекламу клиентов издания на смартфон человека в радиусе до 10−15 метров от печатного журнала. Специальную закладку с анализатором уже тестирует журнал Forbеs.


Иногда при разработке сайта или приложения возникает необходимость создать обширную базу данных из справочников или сайтов, но копировать каждую запись из тысячи страниц может занять недели времени и давно уже не используется. Для автоматизации данного процесса существует множество софта для парсинга, которые выполняет сбор всего за несколько минут/часов. Но использование подобного софта новичкам просто невозможно из-за наличия в них кучи настроек, к которым нету нормальных инструкций, по этому я попытаюсь рассказать как настроить и использовать самый универсальный парсер сайтов, который пригодится вам как для наполнения сайтов/приложений, так и сбора иных данных - адресов,телефонов и т.д. (для маркетинга),а в конце вы найдёте видео со всеми настройками.


Для своей работы и создания приложений я долго выискивал хороший парсер, но чаще всего они встречаются заточенными всего для одного ресурса и для одной цели, дабы упросить работу с ним, создав всего одну кнопку “Сделать все за меня”. Но пока ни разу у меня не возникло необходимости их использовать и собирать данные с вконтакте (комментариев к записям мдк) или обсуждения на мейл.ру о новой куртке Джастина Бибера. Потому найдя парсер ContentDownloader – моему счастью не было придела, так как он является универсальным, то есть настроив его он способен собрать данные практически с любого ресурса. К тому же для него существует куча (платных) плагинов, уже настроенных на сбор определенных сведений, телефонов, email-адресов, записей к блогам и т.д., но при наличии умения настройки данного приложения, плагины вам не потребуются.


Для начала необходимо скачать сам ContentDownloader с официального сайта (бета-версию или купить лицензию), либо же найти в сети старую версию с кряком (естественно только для ОЗНАКОМИТЕЛЬНЫХ целей).
Для разбора настройки данной софтины я решил использовать сайт автомобильной тематики и собрать данные по существующим на рынке автомобилям и их ценам, к слову в итоге можно получить неплохую базу данных для подбора автомобиля либо для слежения динамики роста цен на них.

Шаг 1.

Открываем необходимый ресурс и переходим на страницу списка элементов, которые мы будем парсить, в данном случае это страница http://www.avtobazar.ru/ . На этой странице мы попадем на сам сайт продажи автомобилей, но нам необходимо попасть на страницу со списком автомобилей, по этому мы перейдем на страницу поиска нажав соответствующую кнопку на сайте, но не вводя никаких данных, чтобы отобразились все автомобили, либо же введём параметры поиска, например год выпуска, чтоб получить список только за необходимый год.
Адрес страницы со списком выглядит примерно так http://www.avtobazar.ru/autos/search/?f%5Bcity%5D=1&f%5Bmark%5D=&f%5
Bprice_from%5D=&f%5Bprice_to%5D=
&f%5Bcurrency%5D=RUR&f%5Byear_
from%5D=&f%5Byear_to%5D= и включает в себя множество параметров, но для нас будет важным только один – номер страницы на которой мы находимся. Для появления этого параметра перейдем на вторую страницу http://www.avtobazar.ru/autos/search/?f=1&f=&f=&f
=&f=RUR&f=&f=&f=1 .
Шаг 2.
Открываем ContentDownloader и копируем найденный адрес сайта в поле указанное ниже, предварительно заменив номер страницы на такой параметр {num} в итоге у нас выйдет следующая ссылка http://www.avtobazar.ru/autos/search/?f=1&f=&f=
&f=&f=RUR&f
=&f=&f={num } .
Данный параметр необходим для того, чтоб парсер подставил вместо него все номера страниц и не пришлось копировать отдельно каждую ссылку страницы.

Шаг 3.

Задаем какой диапазон страниц мы будем использовать задав начальную, первую страницу(1) и последнюю страницу (90) в соответствующие поля. Шаг изменения параметра num указываем 1. В некоторых случаях номера страниц изменяются более чем на единицу, к примеру номер страниц могут быть следующие 0-5-10-15 и т.д., в таком случае шаг будет равен пяти. После чего добавляем к списку весь заданный диапазон. В итоге в нижней части экрана добавятся все ссылки на страницы из поиска.

Шаг 4.
Хорошо, ссылки на страницы поиска у нас есть, но нас интересует не они,а ссылки на страницы самих автомобилей из этих страниц. Для их сбора нам нужно задать фильтр этих страниц. Для этого открываем список ссылок для любой из добавленных страниц перейдя на соответствующую вкладку и дважды нажав на любую добавленную страницу.


В открывшемся текстовом документы видно все ссылки на странице поиска, страницы каждого автомобиля имеют вид http://www.avtobazar.ru/autos/show/34177/ . В данном случае уникальной особенностью для страниц является часть http://www.avtobazar.ru/autos/show/ . Копируем его и добавляем в фильтр, указав отбирать только ссылки с этой частью.


Шаг 5.
Следующим шагом нам необходимо с каждой страницы поиска выбрать ссылки на конкретные автомобили, выбрав соответствующий пункт меню.


В открывшемся окне добавляем найденные страницы (1) и запускаем сбор ссылок (2).


Шаг 6.
После того как все ссылки будут собраны нам необходимо удалить все страницы поиска из главного окна, нажав на них правой кнопкой и выбрав пункт меню “Очистить список” и вставить найденные ссылки из окна поиска ссылок как указано ниже.


Шаг 7.
Теперь мы получили именно то, что нам нужно было,а именно все ссылки на страницы автомобилей, которые есть на сайте. Теперь выделим какие именно данные нам нужно забрать с этих страниц, для этого возвращаемся на первую вкладку главного окна (1 “контент”) и нажимаем “задать границы парсинга” (2).


Шаг 8.
В открывшемся окне жмём кнопку с троеточием напротив первого параметра.


В открывшемся окне нам необходимо найти место, где указано название автомобиля и выделить уникальные html теги в которые оно заключено. После чего нажимаем “Готово”. Для задания границ второго параметра (цены) выполняем аналогичные действия.


Далее нажав в том же окне кнопку “Настроить шаблон вывода” настраиваем вид, в котором мы получим данные. Задаем два значения которые нам требуется я рекомендую разделить их знаком “;” , так как в дальнейшем это может понадобится для импорта полученных данных в базу данных, например таблицу Exel или SQL.
Шаг 9.
Вот и все, парсер настроен и нам осталось только указать место, куда будет сохранён результат(1) и запустить парсер (2). После завершения работы программы переходим в папку назначения и увидим готовый результат вида:

Kia Cee"d II 1.6i (122Hp) ; 660000 RUR
Mazda Mazda 6 Sedan (GG,GY) 2.3 16V (166 Hp) ; 253000 RUR
Mazda Xedos 6 (CA) 2.0 V6 (144 Hp) ; 170000 RUR
Mercedes-Benz S-klasse (W221) S 500 Lang (388 Hp) ; 950000 RUR
Mercedes-Benz ; 1925000 RUR
Mercedes-Benz C-klasse (W204) C 200 Kompressor (184 Hp) ; 720000 RUR
Mercedes-Benz ; 1345000 RUR

Полученный данные можно импортировать в таблицу exel для сортировки, построения графиков и т.д. указав поставленный нами разделитель страниц “;”.
Как можно увидеть, данный способ настраивается под любые нужды, любое количество данных и виды сайта. Разобравшись на подобном примере и поняв логику работы данной программы, вы сможете собирать необходимые вам данные абсолютно с любого сайта, будь то для наполнения ваших разработок или же в целях маркетинга(фу-фу-фу как нехорошо).



Здравствуйте, уважаемые читатели блога сайт. Не так давно я опубликовал статью « ». Там мы познакомились с этой бесплатной системой аналитики как бы изнутри, т.е. узнали, как собираются данные, как они обрабатываются, хранятся, и как на их основе формируются нужные нам отчеты.

Эти знания безусловно нам пригодятся в дальнейшем. Ну, а сейчас я хочу уже непосредственно перейти к разговору об аналитике, как таковой. Для чего она нужна? Какие способы анализа сайта существуют и какие критерии эффективности при этом стоит отслеживать.

Также мы посмотрим, каким образом осуществляется сбор статистики сайта, какие методы и инструменты при этом чаще всего используются, а главное — каким образом эти самые данные снимаются. В связи с этим мы подробно остановимся на таких понятиях, как посетитель, сессия и хит, которые являются основой всей веб-аналитики. Без понимания этих вещей вам очень трудно будет дальше постигать все тонкости повышения эффективности вашего сайта, о котором мы будем говорить в статьях этой рубрики.

Что отслеживать и как ставить задачи для аналитики?

Из приведенной чуть выше статьи мы с вами узнали, что, по сути, система Google Analytics состоит из нескольких блоков, основными из которых можно считать:

  1. Инструмент сбора данных
  2. Инструменты анализа, обработки и отображения собранных статистических данных

Для чего же нам могут понадобиться подобные системы аналитики ? Давайте посмотрим:

Это в общих чертах, а вообще аналитика нужна именно для улучшения положения дел с вашим сайтом (и бизнесом). Благодаря ей вы сможете что-то измерить и отследить влияние вносимых вами изменений на какие-то важные для вас характеристики (посещаемость, конверсию и т.п.). То, что измерить нельзя, также не получится и осмысленно улучшить, поэтому так много внимания последнее время все SEO специалисты уделяют сбору статистики, ее обработке и анализу. Дело это не простое, но очень перспективное.

с помощью систем подобных Гугл Аналитикса, зависит от типа вашего сайта. В принципе, вариантов не так уж и много, поэтому давайте их просто перечислим:

  1. Продажи — актуально для онлайн-коммерции
  2. Сбор лидов — например, регистраций на сайте, подписок на новостную ленту, заполнений формы заказа и т.п. Актуально для многих видов ресурсов, которые собирают коллекции различных действий пользователей, чтобы потом их монетизировать тем или иным способом.
  3. Вовлеченность аудитории и посещаемость ресурса — актуально для информационных и новостных ресурсов
  4. Помощь пользователям в поиске информации — актуально для информационных ресурсов типа поисковых систем, каталогов, энциклопедий и т.п.
  5. Повышение узнаваемости торговой марки, а также лояльности аудитории к ней — актуально при брендировании, т.е. раскрутке бренда

Соответственно, вам нужно будет понять к какому типу относится ваш проект, и на основе этого вы уже будете выбирать те показатели его эффективности, которые следует отслеживать с помощью системы аналитики (Гугла или Яндекса — не важно). В теории процесс, выглядит довольно-таки просто:

Самое неприятно заключается в том, что все описанное выше, по-хорошему, нужно продумывать еще до того, как вы создаете сайт. Зачастую уже готовый и работающий интернет-проект очень сложно бывает привести к такому виду, что можно было бы мерить нужные показатели эффективности. Без всего этого использование мощнейших систем аналитики на вроде Google Analytics становится не более эффективным, чем забивание гвоздей микроскопом.

Основные варианты сбора статистики вашего сайта

Однако, абстрагируемся от этого и допустим, что по всем вышеозначенным пунктам у вас появились более-менее осмысленные ответы. После этого встает вопрос — а каким образом можно собирать нужные нам для анализа данные. Как я уже упоминал в статье про , технически сбор данных можно реализовать двумя способами :

  1. Собирать их непосредственно на веб-сервере , где находится ваш сайт, фиксируя все запросы к нему. Для этого используются данные журналов и логов сервера, а также специально предназначенные для этого скрипты. Данный способ имеет свои плюсы и минусы:

    В плане технической реализации такой метод представляет из себя программу, которая устанавливается непосредственно на сервер, где, собственно, ваш сайт и расположен. Самые популярные из серверных систем аналитики :

    1. — весьма популярная система, которая зачастую устанавливается хостерами на сервера по умолчанию.
    2. Piwik — очень мощный инструмент, который по возможностям ничем не уступает, например, такой популярной клиентской системе сбора статистики, как Яндекс Метрика (хотя вебвизора в пивике, конечно же, нет).
    3. Loganalyzer — чуть более продвинутая аналитика, чем у Awstat.
    4. Weblog Expert — тоже похож по сути на Awstat.
  2. Но в то же время собирать нужные данные можно и непосредственно в браузерах пользователей , которые ваш сайт посещают. Есть такой клиентоориентированный язык программирования под названием JavaScript, команды которого можно включать в Html код вебстраницы. Как раз на этом принципе и работает большинство счетчиков посещений и систем аналитики вроде Гугл Аналитикса или Яндекс Метрики.

    Вы добавляете на все страницы вашего сайта предлагаемый вам фрагмент кода, который выполняясь будет собирать все необходимые данные из браузеров посетителей вашего сайта (и потом ее передает на сервера системы аналитики, которую вы используете). У этого способа тоже имеются свои плюсы и минусы:

    1. Собранные данные будут не такими точными, как в случае серверной статистики. Степень этой неточности определить довольно сложно, и зависит она как от используемых методов, так и от случайных обстоятельств (в браузерах каких-то пользователей может быть принудительно отключено исполнение команд, записанных на ДжаваСкрипте, или же вы забыли внедрить скрипт в какие-то отдельные страницы своего сайта).
    2. Все данные будут собираться и храниться на серверах третьей стороны (системы аналитики, которую вы используете). Правда, в этом случае будет ограничен срок их хранения, да и ваш доступ к данным в исключительных случаях (утерян пароль, нарушены правила использования и т.п.) может быть ограничен. По сути, эти самые данные и являются вашей платой за бесплатность большинства из этих сервисов, которые могут использовать эту огромную статистическую базу по огромному числу сайтов как в своих целях, так и передавать, например, заинтересованным игрокам рынка поиска за деньги.
    3. То, что массивы с собранным данных не нужно будет хранить на своем сервере, является одновременно и положительным моментом, ибо это не потребует дополнительных затрат, как в случае с серверной статистикой.
    4. Возможности аналитики клиентских систем (тех, кто снимает данные в браузерах пользователей, т.е. клиентах), как правило, серьезно превосходят серверные аналоги.

    Примерами клиентских систем сбора статистики могут служить:

    1. — те ресурсы, которые разместят у себя этот счетчик, автоматически попадают в данный рейтинговый каталог (довольно-таки трастовый).
    2. — еще один счетчик статистики, на основе которой выстраивается рейтинг самых посещаемых сайтов в тематике.
    3. — самый популярный в рунете способ сбора статистики своего сайта.
    4. — довольно популярный в рунете рейтинг сайтов.
    5. — чуть более продвинутая система сбора статистики с рейтингом сайтов, которые установили их счетчик.
    6. — это уже полноценная система сбора и анализа статистических данных сайта, имеющая довольно увесистый бриллиант в своей короне — вебвизор.
    7. — самая продвинутая из всех доступных бесплатно систем аналитики. Вообще, довольно давно Аналитикс назывался немного иначе и был платной системой (несколько сотен долларов в месяц за то, чтобы узнать посещаемость и сопутствующие ей параметры), но потом его купил великий и ужасный Google, после чего сделал доступным всем желающим. Однако, несколько лет назад появилась платная версия Analytics для крупных сайтов, которая имеет расширенный функционал.
    8. Adobe SiteCatalyst — основной конкурент платной версии Гугл Аналитикса. Данный пакет тоже платный, и имеет довольно-таки высокую популярность в буржунете.
    9. WebTrends — тоже довольно мощный инструмент, широко распространенный в буржунете.

    Мы с вами в продолжении этой серии статей будем рассматривать именно клиентские системы сбора статистики, поэтому поговорим о них поподробнее.

Как работают системы аналитики при сборе статистики сайта?

Итак, на практике сбор статистики сайта в клиентской системе осуществляется с помощью внедрения во все его страницы небольшого фрагмента кода, написанного на ДжаваСкрипте. Хотя, по сути, это не сам код, а лишь способ его вызова. Сам же код сбора статистики довольно-таки объемный, и загружается он одновременно с загрузкой этой вебстраницы с серверов Гугла или Яндекса (в случае использования Аналитикса и Метрики, соответственно), если, конечно же, ранее он не был закеширован в браузере пользователя.

Браузер этот код исполняет, запуская его в своем интерпретаторе ДжаваСкрипта. В результате собираются и отправляются на сервера Яндекса или Гугла различные данные (что за страница, откуда на нее пришел посетитель, какие куки хранятся для него в браузере, какое у него разрешение экрана, какой браузер, какая ОС и многое другое). А уже далее собранная статистика хранится в базе данных той системы аналитики, которую решили использовать.

К этим данным уже обращается система аналитики, когда мы через ее веб-интерфейс пытаемся посмотреть те или иные отчеты по своему сайту. На основании этих отчетов мы можем уже проводить дальнейший анализ. Вот и все, очень просто. Если говорить о мобильных приложениях, то, как я уже упоминал в статье про , там для отслеживания используется не ДжаваСкрипт код, а так называемый пакет средств разработчика (SDK). Статистические данные, снятые в мобильных приложениях, отправляются не постоянно, а пакетами через определенное количество времени.

Все собранные кодом отслеживания статистические данные, которые прошли обработку, будут вам доступны в виде отчетов в веб-интерфейсе системы аналитики. В Google Analytics в основе всех отчетов лежат комбинации параметров (метрик) и показателей (измерений) .

Однако для того, чтобы в дальнейшем нам с вами разговаривать на одном языке, нужно будет дать определения тем основным понятиям (терминам), которые мы будем использовать. В общем-то я говорил о них в статье про Гугл Аналитикс (см. ссылку в начале этой публикации), но не мешает это повторить.

При анализе статистики сайта используются три основных понятия: хиты, сессии и пользователи . Все собранные статистические данные в любой системе аналитики организованы иерархически по трехуровневой системы. В самом низу находятся хиты, чуть выше расположены сессии, ну, а в самом верху — пользователи.

Таким образом хиты являются составляющей частью сессии (набор действий, совершенных за время визита данного пользователя на сайт), а набор сессий характеризует уже поведение пользователя на сайте (сколько раз он заходит на сайт и как долго продолжались его визиты). Давайте рассмотрим все это более подробно и досконально:

Чуть подробнее остановимся на кукисах . Это небольшие фрагменты данных в текстовом формате, которые хранятся в кеше браузера. Их довольно часто используют как механизм, позволяющий запоминать посетителя и его предпочтения — хранить сделанные им на сайте настройки, параметры авторизации и что-то еще. При повторном посещение данного сайта браузер считывает записанные для него куки и посетитель попадет в привычный ему интерфейс, ему не требуется при каждом обновлении страницы заново авторизовываться на этом сайте.

Куки можно разделить на два типа — основные (куки того сайта, куда зашел посетитель) и сторонние (они не относятся к этому сайту, но присутствуют на открытой странице). Примером источника сторонних кукисов может служить баннер, отображаемый на странице, но загружающийся со стороннего сервера. В настройках браузерах прием сторонних куков можно отключить, что, собственно, многие и делают.

Тем не менее лимит, отведенный для одной статьи, исчерпан, поэтому продолжим разговор про кукисы и все остальное, что позволит нам освоить науку осмысленного сбора статистики сайта и работы с построенными на ее основе отчетами, в последующих публикациях рубрики « ».

Удачи вам! До скорых встреч на страницах блога сайт

посмотреть еще ролики можно перейдя на
");">

Вам может быть интересно

ОпенСтат - счетчик посещений и рейтинг (бывший SpyLog) , установка и работа со статистикой
Счетчик Яндекса видимый на сайте - его настройка и установка информера Новая книга Ingate: практическое пособие по комплексной веб-аналитике
HotLog - регистрация в рейтинге сайтов и получение кода счетчика посещений
Посещаемость сайта - как проверить статистику посещений своего ресурса или узнать показания счетчика чужого сайта
Как работает Google Analytics и что нового привносит в систему Universal Analytics

Предположим, компании или банку нужно понять, что собой представляют их клиенты, кто пользуется их продуктами. Где вы будете брать информацию?

Источников, которые могут что-то рассказать о клиенте, на самом деле, очень много. Во-первых, тексты на страницах соцсетей: примерно двухсот слов, написанных клиентом, обычно бывает достаточно, чтобы определить его психотип. Во-вторых, о многом говорят фотографии, которые люди выкладывают в соцсетях Instagram, Facebook и подписи к ним. Например, экстравертам нравятся яркие динамичные фото, изображения людей. Интровертам, наоборот, - фотографии предметов, а в оформлении они используют более спокойную цветовую гамму.

Кроме того, любой банк или крупная компания анализируют обратную связь на свои рассылки сообщений: внимательно наблюдают, на какие сообщения и как вы отреагировали, а какие проигнорировали.

Еще один источник - так называемое транзакционное поведение клиента. На что он тратит деньги? И где? Интроверты, например, много покупают в магазинах «Сад и огород», в книжных магазинах, они не скупятся на страховки. Экстраверты больше денег тратят в барах и ресторанах, покупают билеты на концерты.

Важно и то, расходует ли клиент все деньги до копейки или предпочитает делать накопления. Мы используем любую информацию, которая хоть как-то может помочь.

Мы анализируем доходы и расходы клиента примерно за полгода - этого бывает достаточно, чтобы создать его профиль

А если никаких транзакций нет? Если человек сразу после зарплаты снимает все деньги и потом расплачивается наличными?

Безусловно, есть «сложные» клиенты. Но большинство - 75-80% - мы все-таки можем «просчитать». В наше время банковские карты есть почти у всех. И далеко не все, как вы говорите, сразу снимают наличность - большинство все-таки предпочитают хранить ее на картах и расплачиваться ими.

Удобнее купить онлайн-билет на самолет, чем искать в городе представительство авиакомпании. Комфортнее купить платье в интернет-магазине, чем тратить час, чтобы добраться до торгового центра, а потом еще полдня ходить по магазинам, чтобы найти наряд, который понравится. Мы анализируем доходы и расходы клиента примерно за полгода - этого бывает достаточно, чтобы создать его профиль.

И эта информация в том числе влияет на то, даст банк кредит или нет, правильно?

Да, в том числе на это.

Но как тогда вы можете объяснить тот факт, что одному моему знакомому, который уже 4 года официально не работает и получает гонорары наличными, банк постоянно дает мелкие кредиты, а другой знакомой с официальным доходом в 1000 долларов банк отказывает в кредите 5000 долларов? В чем тут подвох?

Я не знаю, о каких банках вы говорите, поэтому мне трудно сказать о причинах.

Сформулируем вопрос иначе. Какой психотип клиента наиболее выгоден банку?

Все зависит от банка и от продуктов, которые он предлагает. Разным людям нужны разные книги, разная еда. И разные банковские продукты. Например, страховка при выезде за рубеж нужна экстравертам, потому что они часто путешествуют. С другой стороны, наша компания использует такие технологии, которые вдохновят интровертов рассмотреть возможность приобретения страховки.

На конференции вы говорили, что большие данные не приносят вреда людям.

Нет, при неправильном использовании они могут нанести серьезный ущерб. Но мы в DataSine делаем все для того, чтобы информация использовалась строго по назначению. Если компания-клиент вызывает у нас какие-то подозрения, мы не будем с ней сотрудничать или ограничим количество предоставляемой информации.

Мы с коллегами работаем над тем, чтобы люди получали только те письма с предложением продуктов, которые действительно им нужны

Собственно, почему я пришел работать в эту компанию? Потому что мне надоело получать неперсонализированные сообщения по электронной почте, мне надоел весь этот спам, который валился в ящик без учета моего типа личности, моих потребностей.

Мы с коллегами работаем над тем, чтобы объем спама сократился, чтобы люди получали только те письма с предложением продуктов, которые действительно им нужны или могут пригодиться. Всю полученную информацию мы используем только для этого - ни в коем случае не во вред клиенту.

Кстати, в Евросоюзе уже появился регламент по защите персональных данных. Думаю, что правительствам других стран нужно последовать нашему примеру.

Какие данные, на ваш взгляд, лучше не выкладывать в интернет, не делать достоянием общественности?

Совершенно точно - медицинские данные. Они не должны нигде разглашаться. Их нельзя ни публиковать, ни монетизировать. Люди сами должны решать, какая информация должна быть публичной, а какая нет.

Об эксперте

Йорган Каллебаут - член Британского психологического общества (BPS), руководитель психологического направления в компании DataSine, где исследует большие данные и их влияние на личность. Стоял у истоков использования big data для персонализации маркетинговых кампаний банков в Европе, Великобритании и России.