Wpisy

Mikrotargetowanie, sukces przedsiębiorstwa i wygrana Trupma w wyborach – jaki jest ich wspólny mianownik?

Przekonanie o tym, że jeden komunikat reklamowy może trafić do masowego odbiorcy, odchodzi do lamusa. Za znacznie skuteczniejsze uważa się precyzyjne określanie mikro grupy docelowej i formułowanie przekazu, który trafi w specyficzne gusty jej członków. Przekonali się o tym nie tylko przedsiębiorcy z branży e-commerce, ale także członkowie sztabu wyborczego Donalda Trumpa. Zapraszamy Cię w świat mikrotargetowania.

Czym jest mikrotargetowanie?

Mikrotargetowanie (nazywane także targetowaniem niszowym – z angielskiego niche targeting) to proces, który polega na dokładnej analizie i selekcjonowaniu konsumentów oraz dzieleniu ich na odpowiednie grupy. Określając grupy docelowe, bierze się pod uwagę między innymi zainteresowania odbiorców, ich oczekiwania, potrzeby i pragnienia, a także demografię. Analizie poddawane są także zachowania konsumenckie. Wszystko po to, aby stworzyć i skierować do nich specyficzny przekaz – taki, który wzbudzi ich maksymalne zainteresowanie.

Celem mikrotargetowania jest jak najdokładniejsza selekcja grupy docelowej, po to, aby przekaz reklamowy trafił wyłącznie (lub w znacznej większości) do osób potencjalnie zainteresowanych danym produktem lub usługą. Mikrotargetowanie stoi nieco w opozycji do kampanii ATL (above the line), których nośnikiem są mass media i które kierują ten sam komunikat do odbiorcy masowego. W mikrotargetowaniu chodzi o dopasowanie przekazów do niewielkich, precyzyjnie dobranych grup.

Wydawać by się mogło, że nie ma w tym nic zaskakującego i innowacyjnego. W praktyce jednak implementacja procesu mikrotargetowania do strategii marketingowej e-commerce jest jedną z najważniejszych dróg do podnoszenia pozycji danej strony w rankingach Google.

Mikrotargetowanie i Big Data, czyli jak poznać użytkowników internetu?

Mikrotargetowanie może być skuteczną formą marketingu i wywoływać reakcje w odbiorcach, szczególnie wtedy, gdy skupia się na analizie profili w mediach społecznościowych. Znajomość zainteresowań odbiorców i wiedza na temat ich potrzeb oraz pragnień może pomóc Ci dopasować przekaz w taki sposób, aby wywołał on określone reakcje. Jednak czy takie poznanie zachowań internautów jest możliwe?  Owszem, jest. Aby to zrozumieć, należy przywołać termin, który wiąże się bezpośrednio z mikrotargetowaniem – pojęciem tym jest Big Data (więcej informacji na ten temat znajdziesz a artykule Systemy Big Data i Internet of Things).

Termin Big Data odnosi się do różnorodnych, dużych i zmiennych zbiorów danych. Ich analiza i przetwarzanie często nie są łatwe, jednak mogą przynieść nową wiedzę i wymierne korzyści. Określenia Big Data używa się także w kontekście elektronicznych śladów, jakie zostawiasz za sobą w sieci. Może to być na przykład kliknięcie „wezmę udział” przy wydarzeniach na Facebooku, każdy „like”, zakupy z użyciem karty płatniczej, aplikacje, z których korzystasz, „meldowanie się” w różnych miejscach za pośrednictwem Facebooka czy zapytania, jakie wpisujesz w wyszukiwarkę. Na co dzień możesz pewnie zauważyć, że to, co wyszukujesz w Google i to, jakie strony odwiedzasz, ma odzwierciedlenie w reklamach, które widzisz w sieci. Na przykład – w popularnym sklepie internetowym szukasz butów trekkingowych, po czym opuszczasz stronę (niezależnie od tego, czy poszukiwania okazały się udane, czy też nie). Co się dzieje potem? Przez najbliższe dni obserwujesz, zarówno na portalach społecznościowych, jak i innych stronach, które odwiedzasz, że większość reklam dotyczy właśnie butów i akcesoriów trekkingowych.

Jak widać, Twoja aktywność w sieci pozostawia ślady, które są skrupulatnie zbierane i analizowane, a potem wykorzystywane na przykład w celach komercyjnych. O tym, co i w jaki sposób można wyczytać na podstawie aktywności w sieci, dowiesz się już za chwilę.

Jakie techniki wykorzystuje się do analizy osobowości internautów?

Istnieją pewne zaawansowane techniki, służące do analizy zachowań i osobowości użytkowników internetu, na czele z użytkownikami mediów społecznościowych. Dwie najbardziej znane metody to OCEAN oraz IBM.

MODEL OCEAN

Został opracowany na początku lat 80. Zgodnie z jego założeniami charakter konkretnej osoby można określić (zmierzyć) przy pomocy pięciu wymiarów osobowości:

  • otwartości (openess),
  • sumienności (conscientiousness),
  • ekstrawersji (extroversion),
  • zgodności (agreeableness),
  • neurotyczności (neuroticism).

Pozyskanie i analiza takich danych mogą dać odpowiedź na pytania dotyczące osobowości, potrzeb i pragnień danej osoby, a także przewidzieć jej zachowania. Niegdyś kłopot stwarzała jednak konieczność wypełniania długiej ankiety w celu zdobycia wartościowych informacji.

Problem został rozwiązany przez psychologa Michała Kosińskiego, studenta i pracownika Centrum Psychometrii w Laboratorium Cavendish uniwersytetu Cambridge. W początkowych etapach badań Kosiński stworzył aplikację dla Facebooka – użytkownicy brali udział w quizie, odpowiadali na pytania dotyczące ich charakteru i zachowania, a na koniec otrzymywali swój model osobowości. Naukowcy z Cambridge natomiast – informacje niezbędne do analizy. Popularność aplikacji była ogromna – swoje dane udostępniły miliony ludzi.

Po obliczeniu wartości OCEAN dla danego użytkownika Michał Kosiński i jego współpracownicy porównywali wynik z aktywnością w sieci danej osoby – co polubiła, co udostępniła na Facebooku, jaką wpisała płeć, jaki wiek, miejsce zamieszkania, edukację itp. Wnioski, jakie wyciągnięto, były zaskakujące. Według Kosińskiego na podstawie 68 polubień na Facebooku można określić np. kolor skóry danego użytkownika, jego orientację seksualną, upodobania polityczne, stosunek do religii, alkoholu, papierosów, narkotyków, stopień inteligencji, a także to, czy jego rodzice do 21. roku życia tej osoby pozostawały w związku, czy też nie. Im więcej razy dana osoba kliknie „like”, tym lepiej da się przewidzieć jej zachowanie. Do tej szczegółowej analizy bierze się pod uwagę także zdjęcia oraz ilość kontaktów, a nawet czujnik ruchu w telefonie (nawet gdy telefon jest offline).

Wykorzystując model OCEAN i analizę aktywności użytkowników internetu można nie tylko przeanalizować dane badanych osób, ale także szukać określonych typów osobowości.

METODA IBM

Metoda ta zwana jest także analizą predykcyjną. Polega na analizie istniejących danych, wyciąganiu z nich wniosków oraz wydobywaniu informacji. Celem jest oczywiście przewidywanie nadchodzących zdarzeń i trendów oraz określanie wzorów zachowań konsumentów.

W analizie predykcyjnej analizuje się niewielką grupę osób, które już skorzystały z Twoich usług lub kupiły Twoje produkty. Na tej podstawie buduje się tak zwany model predykcyjny, który pomaga zidentyfikować zbiór cech wspólnych dla wielu użytkowników. Takimi cechami mogą być np.: wysokość odchodów, miejsce zamieszkania, stan cywilny, liczba dzieci, a nawet konkretne zainteresowania. Istotne jest to, aby wydobyć wyjątkowe cechy, łączące osoby z jednej grupy.

Dane, na podstawie których dokonasz analizy predykcyjnej to np. historia zamówień Twoich klientów czy odpowiedzi na pytania zamieszczone w ankiecie. Istnieje też możliwość zakupu danych konsumenckich i demograficznych – zbieraniem takich informacji zajmują się wyspecjalizowane firmy.

Na podstawie analizy osób, które już skorzystały z Twoich usług, możesz oszacować, jakie charakterystyczne cechy posiadają Twoi klienci i jak budować przekazy reklamowe, które będą odpowiedzią na te cechy.

Przygotowując się do analizy predykcyjnej, możesz zadać sobie kilka pytań, które pomogą Ci określić kierunki działań:

  • Kto jest moim dotychczasowym klientem?
  • Co mają ze sobą wspólnego moi klienci?
  • Które inne osoby mają takie same cechy, co dotychczasowi klienci?
  • Jak dotrzeć do nowych klientów?
  • Jak rozszerzyć bazę klientów, znając ich specyficzne upodobania?

Czy mikrotargetowanie ma związek z sukcesem wyborczym Donalda Trumpa?

Dane pozyskane na podstawie analiz zachowań internautów nie są wykorzystywane wyłącznie w branży e-commerce. O skuteczności mikrotargetowania można przekonać się, analizując przebieg kampanii i wyniki wyborów prezydenckich w Stanach Zjednoczonych z 2016 roku. Sukces wyborczy Donalda Trumpa, według przypuszczeń wielu badaczy, jest oparty w dużej mierze właśnie na mikrotargetowaniu wyborców.

Pod koniec 2014 roku sztab wyborczy Donalda Trumpa zatrudnił firmę Cambridge Analytica, która, w największym uproszczeniu, zajmuje się analizą danych. Michał Kosiński (odpowiedzialny za wdrożenie modelu OCEAN i analizę zachowania internautów), jak sam twierdzi, nie ma nic wspólnego z działaniami tego przedsiębiorstwa. Nie da się jednak ukryć, że firma w dużej mierze oparła swoje działania na wynikach doświadczeń polskiego psychologa.

Przedstawiciele firmy twierdzili, że nie można odnieść sukcesu, planując kampanię wyborczą tylko na podstawie danych demograficznych. Podział społeczeństwa na jednolite grupy i wysyłanie takiego samego przekazu do wszystkich kobiet, tylko dlatego, że mają taką samą płeć, czy do Afroamerykanów, ponieważ łączy ich kolor skóry, jest bezsensowny.

Podczas jednego z wystąpień, założyciel Cambridge Analityca, Alexander Nix, oznajmił, że jego firma opracowała system, który może obliczyć, jaką osobowość ma każdy dorosły obywatel USA. Wykorzystuje się do tego psychologiczną analizę behawioralną na podstawie modelu OCEAN, analizę Big Data i reklamę celową (dopasowującą się do jak najbardziej do charakteru konsumentów).

Ponieważ w USA większość danych osobowych jest na sprzedaż, firma Cambridge Analityca kupiła wszystko, co było możliwe – listy wyborców, wypisy z ksiąg wieczystych, listy członków organizacji, dane medyczne czy subskrypcje czasopism. Dane te porównano z Big Data internautów (np. polubieniami na Facebooku) i obliczono model OCEAN. Wyniki analizy pozwoliły na określenie osobowości wyborców, ich realnych pragnień, potrzeb i obaw.

Dzięki takiej wiedzy komunikaty wyborcze Trumpa mogły trafiać w sedno upodobań różnych grup wyborców. Mówi się, że między innymi tym należy tłumaczyć sprzeczności pojawiające się w wypowiedziach obecnego prezydenta USA.

W trzecim dniu prezydenckiej debaty Trump-Clinton, sztab Trumpa wysłał 175 000 komunikatów (głównie za pośrednictwem Facebooka). Różniły się one minimalnie – tytułami, kolorami, śródtytułami, filmami czy zdjęciami. Wszystko po to, aby jak najbardziej dopasować przekaz do odbiorcy.

Te zaskakujące informacje mogą wydać się nieprawdopodobne i z pewnością nikt nie może w 100% potwierdzić, że firma Cambridge Analityca jest odpowiedzialna za wygraną Donalda Trumpa. Daje to jednak pole do własnej analizy i interpretacji – jak kandydat, którego pozycja w sondażach nie była najwyższa, zdobył poparcie Amerykanów i stał się prezydentem Stanów Zjednoczonych.

Mikrotargetowanie jest zagadnieniem niezwykle interesującym i obszernym. Wyniki wyborów prezydenckich w Stanach Zjednoczonych mogą tylko potwierdzać skuteczność tej metody. W kolejnych wpisach poznasz praktyczne wskazówki na temat mikrotargetowania w mediach społecznościowych, a także sposoby na wdrażanie analizy predykcyjnej w Twojej firmie.

Systemy Big Data i Internet of Things

Internet of Things (Internet rzeczy, IoT) opisuje koncepcję, której twórcą był Kevin Ashton. Oznacza ona ekosystem, gdzie przedmioty komunikują się  z komputerami przez sensory. Rozwój dostępu do sieci sprawił, że idea ta zyskała uznanie wśród firm i jest wskazywana jako jeden z najważniejszych punktów rozwojowych światowej gospodarki. IoT znalazło wiele zastosowań, poczynając od miniaturowych dodatków do ubrań, przez automatykę budynkową, inteligentne miasta czy gospodarkę wodną.

Mówiąc o zastosowaniu podejścia Internet of things należy podkreślić jego wpływ na marketing. Liczba danych wciąż rośnie, a dzięki ekosystemowi możliwe jest ich wygodne zbieranie, przetwarzanie oraz spersonalizowana komunikacja. Dzięki temu podejściu, można w zwiększyć zaangażowanie klientów oraz zagwarantować im wartość dodaną.

Internet of Things

Kolejnym przykładem zastosowania Internet of Things jest wdrożenie rozwiązań klasy PredictiveAsset Management. Są to systemy dzięki którym możliwe jest zbiór i analiza danych opisujących funkcjonowanie maszyn oraz urządzeń. Nie ma znaczenia czy są to funkcjonalności silników samolotów czy turbiny wiatrowej, idea działania jest taka sama. Dane pomiarowe zbierane przez czujniki są wysyłane do systemu centralnego, tam są przechowywane i analizowane. Na ich podstawie opracowywane są modele analityczne, dzięki którym możliwe jest m.in. przewidzenie wystąpień awarii, zbieranie informacji na temat nieprawidłowości działania maszyn lub nieefektywne ich użycie. Dzięki tym danym  możliwe jest opracowanie automatyzacji i budowy inteligentnego systemu. Dzięki temu, Inżynierowie będą mogli natychmiast zareagować w przypadku wystąpienia nieprawidłowości. Dla biznesu oznacza to minimalizację przestojów pracy oraz optymalizację działań zespołów serwisowych. Można zauważyć zalety rozwiązań IoT:

  • Redukcja kosztów,
  • Zwiększenie produktywności,
  • Lepsze wykorzystanie kapitału,
  • Poprawa bezpieczeństwa pracowników,
  • Lepsze relacje z klientami.

Estymacje McKinsey Global Institute pokazują minimalną wartość rynku IoT na świecie, która w 2025 roku osiągnie 4 bln dolarów, przy założeniu dynamicznego scenariusza kwota ta może wzrosnąć do 11 bln. Szacunki Gartnera zakładają, że w 2020 roku ponad 25 mld urządzeń będzie podłączonych do sieci. Jest to bezpieczniejsza wersja estymacji, inne mówią nawet o kilkuset miliardach w ciągu kolejnej dekady.

Big Data

Big data

 Gwałtowny wzrost liczby danych ich zmienność oraz częstotliwość powstawania zostały określone mianem Big Data. Tę nazwę nadaje się także ustrukturyzowanym bądź nie, zbiorom danych, których przetwarzanie za pomocą ogólnie dostępnych rozwiązań informatycznych (np. relacyjnych baz danych) jest niemożliwa. Zwiększenie mocy obliczeniowej i obszarów pamięci jest nieskuteczne. Wynika to z faktu, że te ograniczenia wymagają nowego podejścia do przetwarzania, filtrowania oraz analizy dużych liczb danych.

Analitycy firmy Gartner twierdzą, że Big Data to źródła danych o dużej objętości, zmienności i różnorodności, wymagają one innowacyjnych modeli przetwarzania, dzięki czemu możliwe jest ich zrozumienie i podejmowanie słusznych decyzji.

Big Data nie odnosi się wyłącznie do danych, oznacza również zbiory źródeł i zakłada miary je charakteryzujące, zwane cechami 3V:

  • Volume (ilość danych generowanych w procesach),
  • Variety (różnorodność typów i struktur danych),
  • Velocity (prędkość generowania nowych danch).

Dodatkowo przywoływanymi cechami są veracity, czyli prawdziwość i dopasowania danych, oraz value – wartość generowanych danych w procesach biznesowych, które oznaczane są kolejno jako 4 i 5V.

Kolejnymi charakterystycznymi własnościami Big Data są:

  • zmienność populacji,
  • przetwarzanie danych w źródła,
  • rozproszenie zbiorów danych lub punktów pomiarowych,
  • znaczące zmiany charakteru lub postaci informacji otrzymanych w wyniku analizy masowych danych źródłowych.

Obecnie wyzwaniem jest nie tylko przetwarzanie masowych źródeł danych, ale zmiana sposobu ich zbierania, która pozwoli na gromadzenie i integrację wielu ich typów pochodzących z różnych źródeł. Ich łączenie, których celem jest uzyskanie efektu syngerii i utworzenie nowych informacji jest zadaniem, jakie w przyszłości prawdopodobnie zostanie wykonane.

Big Data i Internet of Things

IoT oraz Big Data są istotnymi partnerami, szczególnie w przedsiębiorstwach. Wiele działań Internet of Things jest niekompletnych, jeśli nie jest wspierane przez Big Data. Wszystkie połączone przyrządy oraz algorytmy potrzebują dużej ilości danych. Organizacje używające IoT muszą wiedzieć o związku z Big Data. Ten rodzaj połączenia sprawia, że nowe rozwiązania mogą dostarczyć przydatnych narzędzi lub usług, a także zbierać dane na ten temat. Zebrane informacje muszą być zgromadzone, przetwarzane oraz analizowane, dzięki czemu można zyskać nowe spostrzeżenia, które pozwolą na poprawę funkcjonowania przedsiębiorstwa.

Internet of Things oraz Big Data są strategicznymi partnerami zwłaszcza w przedsiębiorstwie. Wiele operacji Internet of Things jest niekompletne bez wzmianki o Big Data. Wszystkie podłączone urządzenia, czujniki oraz algorytmy wymagają dużej ilości danych.

Wszystkie organizacje używające IoT muszą brać pod uwagę jego symbiotyczny związek z Big Datą. Dzięki takiemu połączeniu nowe wdrożenia mają duży wpływ, mogą dostarczyć użytecznych narzędzi czy usług, a także gromadzić odpowiednie dane. Podobnie jak w przypadku Big Data, gromadzone dane musza być przetwarzane i analizowane, aby pozyskać nowe informacje i spostrzeżenia, które mogą poprawić działalność przedsiębiorstwa.

Zarządzanie i wyodrębnianie wartości z danych Internet of Things jest dużym wyzwaniem, kreującym wizerunek firmy. Organizacje muszą ustanowić odpowiednią platformę do analizy danych Internetu rzeczy. Dodatkowo należy pamiętać nie wszystkie dane są dla nich tak samo ważne.

Symbiotyczne zależności pomiędzy systemem Big data i Internet of Things możemy zaobserwować w różnych dziedzinach przemysłu, rolnictwie czy systemach społecznych.

Przedsiębiorstwa korzystające z Big Data i Internet of Things

Big Data Internet of Things

UPS

 Jeden z liderów przewoźników na świecie wykorzystuje Big Data, co zapewnia oszczędność pieniędzy, poprawę efektywności oraz zmniejszenie wpływu na środowisko. Firma korzysta z czujników instalowanych na pojazdach dostawczych, dzięki czemu monitorowana jest prędkość, przebieg, liczba przystanków, a nawet sprawność techniczna silnika. Jak podaje UPS, czujniki zbierają ponad 200 danych na temat każdego pojazdu, co skutkuje 80 000 informacji na temat wszystkich pojazdów każdego dnia. Dzięki temu możliwa jest minimalizacja zużycia paliwa bądź emisji szkodliwych substancji.

Big Data jest też wykorzystywana przez UPS w projekcie ORION (On-Road IntegratedOptimization and Navigation). Gromadzenie danych na temat dostaw, efektem jest optymalizacja tras dostarczania oraz podwyższenia wydajności firmy. Przedsiębiorstwo planuje wprowadzić projekt ORION na wszystkich trasach w Ameryce Północnej. Ma się to wydarzyć w 2017 roku.

VirginAtlantic

Firma VirginAtlantic to brytyjskie linie lotnicze, które wykorzystują IoT do połączenia samolotów – Boeing 787 i podłączonych do nich urządzeń ładunkowych. Każdy z nich wyposażony jest w części generujące duże ilości danych. Dyrektor IT – David Bulman, twierdzi że każdy lot może produkować ponad pół terabajta danych. Nie wszystkie ze zbieranych danych są w pełni wykorzystywane,  jednak ich gromadzenie pozwala na przewidywanie i konserwacje samolotów oraz kontrolę zużycia paliwa.

John Deere

Lider w dziedzinie produkcji sprzętu rolniczego stworzył system łączący Big Data z Internet of things, który przy użyciu czujników monitoruje poziom wilgotności, po czym wysyła dane za pośrednictwem połączenia bezprzewodowego. Czujniki środowiskowe pozwalają na pomiar

  • temperatury gleby i powietrza,
  • wilgotności,
  • promieniowania słonecznego,
  • opadów.

Gromadzenie tych danych, pomagają rolnikom ustalić moment osiągnięcia optymalnego poziomu nawilżenia przez rośliny. Dzięki temu optymalizowany jest proces nawilżania.

TempuTech

TempuTech  to kolejny przykład firmy mającej wpływ na rolnictwo dzięki zastosowaniu Big Data i Internet of Things. W ofercie posiada systemy monitorujące optymalne przechowywanie ziarna oraz wykrywanie potencjalnego zagrożenia elewatorów zbożowych. Awarie typu połamanie pasów bądź łożyska są kontrolowane, dzięki monitorowaniu wilgoci i temperatury w pojemnikach z ziarnami. W efekcie możliwe jest odpowiednie ustawienie napowietrzenia oraz wentylacji. Gromadzone w systemie dane są przesyłane do innych rolników, którzy są w stanie przewidzieć zmiany wilgotności i temperatury, dzięki informacjom na temat zmian w pogodzie.

Disney World Magic BandBig data MagicBands

Disney Word Magic wykorzystuje zarówno Big Data jak i Internet of Things. Firma stworzyła Magic Band – opaskę wyposażoną w czujniki, dzięki którym wczasowicze mogą sprawnie poruszać się po całym Disney World. Dzięki nim, możliwe jest zameldowanie w pokojach hotelowych, zakup jedzenia, rezerwacja karnetów oraz korzystanie z atrakcji znajdujących się w parku rozrywki.

Wprowadzenie opasek pozwala firmie na gromadzenie danych na temat przepływu odwiedzających na terenie całego parku. Dzięki temu możliwe jest ugoszczenie większej liczby osób, optymalizacja zarządzania personelem oraz atrakcjami, czy regulacja kolejek w obiektach na terenie parku.

Barcelona, Hiszpania

Barcelona słynie z innowacji technologicznych, każdego roku odbywa się tam Mobile Word Congress. W mieście można znaleźć inteligentne parkometry, które przy użyciu WiFi działają na całym jego terenie. Dzięki temu mieszkańcy mogą uzyskać aktualne informacje na temat wolnych miejsc parkingowych i opłacić je przez telefon.

W Barcelonie można też zobaczyć inteligentne przystanki autobusowe. Informacje na temat czasu odjazdu przedstawiane są na panelach dotykowych. Sieć czujników rozmieszczonych w całym mieście, przedstawia pasażerom informacje na temat temperatury, jakości powietrza, poziomu hałasu oraz ruchu pieszych.

Wszystkie dane, udostępnianie we wcześniej wspomnianych miejscach, pochodzą z systemu Big Data, który gromadzi i analizuje dane z całego miasta. Dzięki temu możliwe jest usprawnienie transportu publicznego, propozycja optymalnych rozwiązań turystycznych, a także wydajny plan wydarzeń kulturowych.

Przemysł 4.0 (Industry 4.0)

Przemysł 4.0. IoT bazuje na Big Data i Internet of Things. Ma on doprowadzić do połączenia maszyn produkcyjnych z siecią  przedsiębiorstwa. Dzięki temu dane zbierane są na bieżąco. W efekcie ma powstać inteligentna fabryka, która pozwoli na produkcję pojedynczych produktów zgodnie z indywidualnymi potrzebami klienta. W tym samym czasie zbierane informacje, pozwalają na przewidywanie i zapobieganie awariom. Skutkiem jest przeciwdziałanie przestojom pracy firmy oraz automatyzacja produkcji i wzrost jej opłacalności.

Internet-of-Things

Lista firm z różnych branż rynku światowego, które korzystają z Big Data i Internet of Things jest bardzo duża. Opisane technologie znalazły zastosowanie w dziedzinach takich jak:

  • rolnictwo,
  • transport,
  • elektronika,
  • medycyna,
  • logistyka.

Big Data i Internet of Things to dwa niezależne zjawiska. Jednak ich powiązanie pozwala na wiele zmian, które pokazują, jak można zoptymalizować działania na wielu płaszczyznach życia ludzkiego.

Mądre maszyny – narzędzia marketingu

Pamiętacie jeszcze o Big Data? Na pewno pamiętacie, trudno o tym obecnie zapomnieć. jeśli komuś się przydarzyła jednak informacyjna luka – polecam moje wyjaśnienia dotyczące tych niewyobrażalnych ilości danych, które bez przerwy pojawiają się w Internecie oraz tego, co można z nimi zrobić.

Big Data operuje na dużej ilości danych o różnej wartości – często niezwykle interesujących dla marketerów jako źródło wiedzy na temat klientów. Jak jednak wykorzystać tę wiedzę, jak ją zanalizować w czasie rzeczywistym, czyli tak, by mieć gotową odpowiedź, gdy tylko pojawi się zapytanie czy wyrażona aktywnością internetową potrzeba klienta? Człowiek jest tu zupełnie bezradny – w przeciwieństwie do maszyn, które bezustannie się uczą. Maszyny uczące się, czyli machine learning, to temat mojego ostatniego postu. Dziś zamierzam przybliżyć Wam zastosowanie uczenia maszynowego w marketingu.

Wbrew pozorom, mądrzejsze maszyny nie przełożą się — przynajmniej w najbliższym czasie – na redukcję pracowników „ludzkich”. Ucząca się maszyna – tak jak każda inna – przeglądów, doskonalenia i obsługi – osiągnięcie spektakularnych efektów jest możliwe po zintegrowaniu odpowiednich procesów, ludzi, treści, danych i informacji. Natychmiastowe korzyści wypływające z automatyzacji marketingu wyraźnie polepszają wydajność, elastyczność i kreatywność w obrębie całej firmy.

Co nam daje maszyna, która bezustannie zbiera i analizuje dane?

Dzięki takiemu rozwiązaniu szybciej, sprawniej i skuteczniej poznajemy klientów. Dowiadujemy się, kto i w jaki sposób do nas trafił, jak korzysta z serwisu i na jakiej płaszczyźnie można/należy zoptymalizować kampanie marketingowe.  Wyniki pracy maszyny pozwalają zbudować strategię i nawiązać kontakt z klientem, wtedy, kiedy on tego rzeczywiście potrzebuje i oczekuje.  Paradoksalnie, udział maszyny w komunikacji z klientem pozwala na budowę osobistej relacji – często przecież podstawą kontaktu są dane wrażliwe, które potencjalny klient ujawnia w sieci.

Wykorzystanie wiedzy maszyn pozwala maksymalne sprzężenie działań wszystkich działów firmy (z naciskiem na sprzedaż) i podniesienie efektów. innowacyjność, kreatywność, komunikatywność, umiejętność szybkiego przyswajania wiedzy, zdolności analityczne – brzmi jak opis idealnego pracownika? Dodajemy do tej wyliczanki „niskie koszty eksploatacji” i już wiemy, dlaczego maszyny uczące są ważnym elementem zespołu. „Kreatywność” może budzić pewne wątpliwości – w końcu omawiamy zalety maszyny. Pamiętać należy, że odpowiednia aplikacja czy oprogramowanie to coś w rodzaju pracownika działu. Jeśli aplikacja zajmuje się przewidywalnymi, powtarzalnymi zadaniami – na przykład przypomina klientom o terminach spotkań, pozostali, żywi członkowie załogi mają czas na obowiązki wymagające większej elastyczności, pomysłowości, natchnienia. Wkład maszyny w pracę działu marketingu najlepiej jest rozpatrywać właśnie przez pryzmat jej wkładu w funkcjonowanie całej komórki, czy nawet firmy.

Warto zwrócić uwagę na kilka narzędzi marketingu, które ułatwiają działania marketingowe i wykorzystują do tego machine learning:

SAS – środowisko stworzone przez SAS Institute. Nazwa pochodzi od angielskiego Statistical Analysis System.

Funkcjonalność obejmuje m.in.:

  • import i przetwarzanie danych, wyszukiwanie informacji, zarządzanie danymi oraz eksploracja danych,
  • generowanie raportów i grafiki,
  • analizę statystyczną,
  • niezależność od platformy systemowej, możliwość prowadzenia zdalnych obliczeń.

SAS jako środowisko programistyczne umożliwia programowanie w różnych językach, w zależności od potrzeb:

  • SAS 4GL – najpopularniejszy język w środowisku SAS
  • SQL – język zapytań do baz danych
  • SCL (Screen Control Language) – budowa aplikacji okienkowych w środowiskach graficznych, np. Windows, XWindow
  • makra
  • możliwość integracji z językami C, COBOL, FORTRAN, PL/I, IBM assembler

IBM Predictive Customer Intelligence personalizuje kontakt z klientem, przedstawiając rekomendacje oparte na zachowaniach zakupowych, aktywności internetowej (w tym społecznościowej) oraz innych czynnikach unikalnych dla konkretnego użytkownika. Zasada działania jest prosta: programowanie w sposób zautomatyzowany zbiera informacje z różnych źródeł wewnętrznych i zewnętrznych oraz modeluje zachowania klientów. Następnie przeprowadza ocenę alternatywnych możliwości i proponuje najlepsze działanie, jakie można podjąć na danym etapie interakcji z klientem — tak, aby proponować trafne oferty właściwym klientom w najlepszym do tego czasie.

IBM Predictive Customer Intelligence realizuje następujące funkcje:

  • Analizy predykcyjne, które pomagają w przewidywaniu zachowań poszczególnych klientów.
  • Zarządzanie procesami decyzyjnymi mające na celu przekształcenie oceny modelu predykcyjnego w rekomendację działania.
  • Oceny w czasie rzeczywistym pozwalające generować i aktualizować prognozy na żądanie.
  • Optymalizacja uwzględniająca więcej niż jedną kampanię z myślą o podejmowaniu jak najkorzystniejszych decyzji dotyczących poszczególnych klientów.
  • Segmentacja klientów w oparciu o wartość w całym okresie trwania relacji — służąca klasyfikacji i zatrzymywaniu klientów.

RapidMiner dostarcza oprogramowanie, rozwiązania i usługi w dziedzinie zaawansowanych analiz, w tym analiz predykcyjnych, data mining i text mining. Pozwala automatycznie i inteligentnie analizować dane – w tym baz danych i tekstu – na dużą skalę. Nasza technologia pozwala firmom na wykonanie przy użyciu inteligentnych decyzji biznesowych oraz działań opartych na metodzie prognozowania. Flagowym produktem jest RapidMiner 4.0, najczęściej stosowana do zaawansowanej analityki platforma na rynku. Setki tysięcy aplikacji są już używane w ponad 50 krajach, zarówno jako samodzielne aplikacje, jak i silniki zintegrowane z własnymi produktami klientów; daje to silną przewagę konkurencyjną. Trudno nie wierzyć w to rozwiązanie, skoro wiemy, że zaufały mu firmy takie jak: EADS GfK, Lufthansa, PayPal, Pepsi, Sanofi, Siemens, Telenor i Volkswagen.

STATISTICA – zintegrowany pakiet oprogramowania statystycznego i analitycznego wydany przez firmę StatSoft. STATISTICA daje szeroki wybór procedur analizy i zarządzania danymi, zapewnia także wizualizację wyników analizy oraz generowanie raportów.

  • 1991. Pierwsza, DOSowa wersja programu STATISTICA. Nowa, zorientowana graficznie linia programów statystycznych została wydana w marcu 1991.
  • 1992. Wersja programu STATISTICA dla komputerów Macintosh
  • 1993. Wersja programu STATISTICA dla systemu Microsoft Windows
  • 1994-1998. Program STATISTICA w wersjach – 4.0, 4.5, 5.0, 5.1 oraz wydania ’97 i ’98
  • 2001. Nowa generacja pakietu STATISTICA. Wydanie wersji 6 programu STATISTICA opiera się na architekturze COM i korzysta z nowych technologii, takich jak wielowątkowość i wsparcie dla przetwarzania współbieżnego.
  • 2002-2004. Wprowadzanie rozwiązań wykorzystujących rozproszone realizowanie zadań oraz rozwiązań bazujących na interfejsie przez WWW.

Cztery narzędzia marketingu  – to tylko dobry początek. W tej dziedzinie wiele się dzieje, jeszcze więcej będzie się działo z czasem. Obserwujemy:)

Real Time WWW Personalization (personalizacja strony www w czasie rzeczywistym)

Nikogo już chyba nie dziwi, że każda, nawet jednorazowo odwiedzana strona internetowa,  częstuje nas reklamami doskonale dopasowanymi do naszych potrzeb – egipskie kurorty wołają poszukujących urlopowej destynacji, na posiadaczy kotów czekają oferty karmy i żwirku, singli kuszą portale randkowe. Reklamy to nie jedyny dowód spersonalizowania: wtyczka społecznościowa pokazuje nam, kto z naszych znajomych już stronę polubił, baner woła nas po imieniu lub nawet pokazuje nam kod promocyjny przeznaczony specjalnie dla nas… Takie zjawiska już nikogo nie dziwią, bo wszyscy wiemy, że Internet patrzy nam na ręce, za pomocą analizy naszych działań wie o nas więcej niż my sami, a wszystko po to, by z tej wiedzy skorzystać komercyjnie. Jeśli ktoś chciałby jednak wiedzieć, jaki konkretnie mechanizm stoi za tą wszechwiedzą strony internetowej, to dobrze trafił, bo dziś wyjaśnię tę kwestię.

Personalizacja strony www w czasie rzeczywistym (ang. Real Time WWW Personalization) to kolejna odsłona tematu, który interesuje mnie od dłuższego czasu. Mnie i zdecydowaną większość obserwatorów sieci. Tematu, który poza częścią teoretyczną ma też marketingową praktykę, a nie ma nic ciekawszego niż algorytmy, które oprócz wymiaru naukowego przeliczają się na poważne pieniądze. Niedawno pisałem o Big Data i marketingowej stronie tego zjawiska. Real Time WWW Personalization  to jedna z marketingowych twarzy umiejętnego zbierania i przetwarzania danych na temat użytkownika Internetu. Celem Real Time Personalization jest dotarcie do użytkownika z komunikatem dopasowanym do jego potrzeb. Świadomość potrzeb internauty wynika z analizowania jego aktywności w sieci w czasie rzeczywistym. Ten czas, ta swoista „natychmiastowość” zbierania, analizowania i wykorzystywania danych to najważniejszy element i podstawa skutecznej spersonalizowanej komunikacji. Personalizacja strony może dotyczyć zarówno treści, jak i formy w jakiej jest ona przedstawiona. Strona główna serwisu może więc powitać internautę jego imieniem lub na podstawie wcześniejszych zakupów czy przeglądanych produktów, wyświetlić mu informacje, które mogą go zainteresować.

Popularnymi formami personalizacji stron internetowych są:
•  rekomendacje konkretnych produktów,
• przypomnienia o koszykach zakupowych,
• posługiwanie się imieniem konsumenta,
• zintegrowana ze stroną wtyczka  mediów społecznościowych.

Ciekawostka:
Marketo.com, jedna z firm zajmujących się narzędziami typu marketing automation, oferuje system, który pozwala tworzyć w czasie rzeczywistym interakcję urządzenia mobilnego z dowolnym systemem CMS. Firma twierdzi, że stosowanie tego rodzaju systemu pozwala zwiększyć do 270% konsumpcje treści.

Jak wygląda schemat, według którego podsuwane są treści?
Obraz2
Załóżmy, że głównym tematem strony internetowej są samochody. „Super Topic” będzie się dzielił według kategorii i tematu. Tematem będą wspomniane auta, natomiast kategorią transport. Temat można podzielić dalej na podtemat i kategorię pokrewną, którymi  mogą być np. diesle – jako temat i części samochodowe jako kategoria. Kategoria ma możliwość związania się z kategorią pokrewną, która w naszym przypadku mogą być opony. Dla każdego tematu i kategorii strona powinna wyszukiwać taksonomie i ontologie. I tak to się kręci.
Pewnym problemem może być zmęczenie użytkownika reklamami. Ma temu zapobiec poniższy system:
Obraz1

Użytkownicy komunikują się z serwerem reklam w sieci. Baza danych 124 i 140 może być fizycznie zintegrowane z serwerem reklam 104 jako jedna lub więcej. Bazy te mogą znajdować się w różnych miejscach.

Sieć 150 może obejmować sieci rozległe (WAN), takie jak internet, sieci lokalne (LAN), sieci obszaru kampusu, miejskich sieci i sieci bezprzewodowych i przewodowych, lub innych sieci, które mogą umożliwić dostęp do sieci komunikacyjnej.

Serwer reklam 104 może zawierać zestaw instrukcji 160, które mogą spowodować, że serwer 104 wykona jedną lub więcej sposobów personalizacji reklam.

Każdy użytkownik posiada „user ID”, na podstawie którego dokonuje się identyfikacja. Polega ona na przejściu z użytkownika internetowego 140, przez serwer reklam 104 i na podstawie historii ruchów w bazie danych 124 dokonuje się personalizacja.

W bazie danych historii ruchu 124 mogą być przechowywane różne rodzaje danych o ruchu w sieci Web. Jak wcześniej wspomniano w oparciu o tą historię do każdego użytkownika (jego ID) zostaje stworzona lista reklam przewidywanych do wyświetlenia dla niego. Reklamy te są przechowywane w bazie danych reklamodawcy 150 gdzie oczekują na wyświetlenie użytkownikom sieci 140. Dodatkowo sekwencja identyfikacji reklam może być przypisana do każdego ogłoszenia w bazie reklamodawcy 150. Umożliwia to sortowanie i wyświetlanie odpowiednio dobranych do siebie reklam.

Kiedy użytkownik sieci 140 wysyła zapytanie do serwera 104, może to następować poprzez przeglądanie serwera 104, wykonuje instrukcje 160 zgodnie z generatorem wyników wcześniejszego wyszukiwania 116. Wyniki wyszukiwania generatora 116 są zapisywane. Zapytania uruchamiają trackera przeglądania 120 do śledzenia danych i przekazują te dane do serwera reklam 104, a następnie są one przechowywane w bazie danych historii ruchu 124.

Dane, takie jak te omówione powyżej, mogą być wykorzystywane przez serwer reklamowy 104 do realizacji metod i algorytmów do personalizowania reklama dostarczania do użytkownika sieci 140 tak, aby zapobiec lub istotnie zredukować ilość reklam powtarzających się.

Istnieją dowody, że doświadczenia indywidualnego użytkownika może mieć wpływ na to jak odbiera on reklamę. Doświadczenia te mogą być pozytywne lub negatywne. Mogą odnosić się do nazwy firmy, logo itp. Doświadczenie to również ma wpływ na kliknięcia na reklamy. 
Do podstawowych narzędzi personalizowania stron należy logowanie i tzw. ciasteczka. Dzięki nim możliwe jest poznanie internauty poprzez zbieranie śladów jego działań. Analiza tych informacji pozwala stworzyć portret użytkownika, czyli poznać go dokładnie, z zainteresowaniami i potrzebami włącznie.
Skarbnicą możliwości dla Real Time WWW Personalization jest oczywiście Google, dzięki dostępowi do niewyobrażalnych ilości danych, ale też do narzędzi marketingowych. Wystarczy wspomnieć o połączonych mocach Ad Words i Google Analytics. Nie jest to jednak jedyne rozwiązanie.
Zaawansowane zespoły internetowe od prawie dwóch dekad dokonują personalizacji opartych na IP i wychodzi im to coraz lepiej. Organizacje takie jak Demandbase, Acxiom i MaxMind używają adresów IP w celu dostarczenia internautom informacji, które mogą okazać się przydatne w danym momencie i miejscu, np. komunikatów pogodowych dostosowanych do lokalizacji.
Wszystkie te schematy i narzędzia wspólnie pracują na to, by strona internetowa czekała na użytkownika w sposób dla niego przydatny, ale też – przede wszystkim – korzystny dla samej strony. Dostosowana do potrzeb odbiorcy strona internetowa może mu skutecznie pomóc w wydawaniu pieniędzy, co dla wszystkich zainteresowanych jest zjawiskiem korzystnym.

Wiedza się opłaca – znaczenie technologii Big Data

Agencja Edelman oraz Centrum Psychometrii Uniwersytetu Cambridge zawarły strategiczne partnerstwo, którego celem jest bliższe poznanie zjawiska Big Data. Analizie poddany zostanie wpływ technologii Big Data na zaufanie konsumentów wobec biznesu, etyczny aspekt zbierania, badania i wykorzystywania danych, szczególnie przez takie sektory jak opieka medyczna czy ubezpieczenia, planowane jest też dokładniejsze niż kiedykolwiek pochylenie się nad kwestiami prywatności użytkowników Internetu. Co to oznacza? Oznacza to, że Big Data to narzędzie ingerujące w sprawy najbardziej intymne, posiadające niewątpliwie ogromną moc, choć wciąż nie do końca zbadaną. Rozwija się szybko, bo biznes dostrzega w nim olbrzymi potencjał, nauka powoli zaczyna dostrzegać zagrożenia.

Samo zjawisko Big Data omówiłem w poprzednim wpisie „Big Data i Internet Of Things – duża sprawa!”, teraz przyszedł czas na krok następny: skoro wiadomo już, czym Big Data jest, należy przyjrzeć się możliwościom, jakie daje. Najważniejsze są oczywiście możliwości przeliczalne na pieniądze, czyli potencjał marketingowy Big Data.

Big Data Marketing – z takim pojęciem spotykamy się coraz częściej. Polega on na wykorzystywaniu różnorodnych informacji o kontakcie w czasie rzeczywistym w celu zwiększenia skuteczności działań marketingowych poprzez spersonalizowaną komunikację ONE – to – ONE. Zdaniem specjalistów, w dzisiejszych czasach jest to konieczność.

Każdego dnia zostawiamy w sieci miliony śladów, gromadzonych w przeróżny sposób, chociażby za pomocą plików cookies. Specjalistyczne narzędzia zbierają te dane i analizują, by – według optymalnego scenariusza – NATYCHMIAST odpowiedzieć na potrzebę użytkownika za pomocą podsunięcia mu najlepszych, najtrafniejszych treści lub konkretnej oferty. Media społecznościowe to niezwykle ważne źródło danych na temat konsumentów – z reguły tam nie zostawiamy niedostrzegalnych dla śmiertelników śladów, tylko konkretne wskazówki – polubienia, udostępnienia, informacje na temat swoich zainteresowań, sytuacji rodzinnej, itd.

Jakie to ma znaczenie dla firm? Szacuje się, że kiepskiej jakości dane mogą kosztować przedsiębiorców aż do 35% dochodów operacyjnych. Według ankiety przeprowadzonej wśród firm znajdujących na liście Fortune 1000 już 10% poprawa użyteczności oraz dostępności danych zwiększyła sprzedaż średnio o 14% na każdego pracownika. Większa widza na temat konsumenta to większe możliwości dotarcia z trafioną ofertą, a więc większy potencjał sprzedażowy.

Najwyraźniej wykorzystanie Big Data zaobserwować można w sektorze bankowym. Czy Wasz bank zaproponował Wam już zniżki wynikające z tego, że robicie zakupy w takim, a nie innym sklepie? Zauważyliście, jak często niewielki nawet dołek finansowy wywołuje lawinę propozycji kredytowych? Dopóki widzicie prosty związek przyczynowo-skutkowy, czyli Wasze upodobania/zwyczaje/potrzeby zna Wasz bank, któremu sami za pomocą działań finansowych podsuwacie stosowne informacje, wszystko wydaje się jasne (choć często irytujące). Wątpliwości pojawiają się w sytuacjach takich jak na przykład koniec umowy z operatorem telefonicznym, który skutkuje propozycjami ze strony pozostałych telekomów. Jeśli zastanawiacie się, kto Was sprzedał, odpowiedz brzmi pewnie: Big Data.

Mechanizm jest prosty: bank/telekom/sklep otrzymuje informację, że wędrowaliście po odpowiedniej stronie internetowej, system czarno na białym wykazuje, które zakładki Was zainteresowały, ile czasu spędziliście na danych podstronach – na tej podstawie błyskawicznie można skonstruować ofertę i zadzwonić z propozycją. Trudno, żeby oferta kredytu, która trafia do Was zaraz po tym, jak spędziliście dwie godziny na przeszukiwaniu internetu w tej sprawie, zupełnie Was nie zainteresowała. Badanie konsumentów pozwala na rezygnację z działań na oślep, z przypadkowych propozycji kierowanych do przypadkowych osób, co samo w sobie generuje oszczędności.

Jakie problemy techniczne napotyka Big Data? Jeśli tylko uświadomimy sobie, jak ogromne ilości danych wchodzą w grę, pomysłów na potencjalne trudności natychmiast będziemy mieli co najmniej kilka. Według badań przeprowadzonych wśród 75 najważniejszych dyrektorów sprzedaży w USA wytypowano trzy największe problemy:

  •  46% uważa ilość dostępnych danych jest największym wyzwanie dla Big Data Marketing;
  • 34% wskazuje, że różnorodność danych ustrukturyzowanych i nie ustrukturyzowanych jest największym problemem;
  • 20% badanych wskazało, że częstotliwość generowania nowych danych oraz tempo ich przesyłu oraz późniejszego gromadzenia i analizowania jest najtrudniejszym zadaniem.

Rozwiązaniem jest zastosowanie narzędzia klasy Marketing Automation. Systemy te pozwalają na pozyskiwanie, gromadzenie oraz analizowanie wymienionych wyżej danych, w czasie zbliżonym do rzeczywistego. Pozwala to na dotarcie do indywidualnych odbiorców, nie wymaga inwestycji w hardware i wszystkie dane trzyma w chmurze obliczeniowej daleko od firmowych systemów. 

Działanie firm, która zajmują się gromadzeniem, przetwarzaniem i dostarczaniem danych instytucjom finansowym, kilkakrotnie opisywał Maciej Samcik. Samcik widzi dwie twarze Big Data: z jednej strony jest to w końcu forma pomocy zagubionym w bankowych możliwościach klientom, z drugiej to doskonałe narzędzie służące manipulacji i tworzeniu potrzeb, a więc w  pewnym sensie prowadzące do naciągania.

O tym, czy Big Data to zjawisko etyczne, często decyduje branża, która sięga po to narzędzie. Dość niewinne wydają się reklamy egipskich kurortów, którymi nagle usiana jest każda oglądana przez nas strona internetowa, tylko dlatego, że w mailu do kolegi napisaliśmy, że marzymy o wakacjach. Problematyczne wydają się skutki wykorzystania naszych internetowych działań przez firmy medyczne, która podsuwają nam leki na bazie diagnozy postawionej w wyniku analizy objawów, które wpisywaliśmy w Google. Makabryczna wręcz wydaje się wizja ciągłych reklam ubezpieczenia na wypadek zachorowania na choroby nowotworowe, tylko dlatego, że często dzielimy się z facebookowymi znajomymi informacjami na temat uciążliwych migren.

Warto tez sobie zadać pytanie: czy użytkownicy świadomi zbierania i przetwarzania danych, zachowują się w sieci naturalnie? Czy ktoś jeszcze wierzy, że da się zupełnie bez śladu kupić przez internet broń lub narkotyki? Z drugiej zaś strony: czy podświadomie nie nastawiamy się coraz bardziej sceptycznie do reklam internetowych? Na te pytania odpowiedzi szuka Agencja Edelman i naukowcy z Cambridge, musimy tylko poczekać na wyniki ich pracy.

Big Data i Internet Of Things – duża sprawa!

Czy odważyłbyś się przejść przez ulicę pełną samochodów na podstawie fotografii zrobionej pięć minut wcześniej?

Takie pytanie postawiła w jednej z reklam firma IBM i doskonale oddaje ono istotę zjawiska Big Data oraz tego, czemu zjawisko to może służyć.

Od początku jednak:

Big Data to jedno z podstawowych, najważniejszych, a jednocześnie najświeższych pojęć z pogranicza Internetu, komunikacji, marketingu, socjologii… długo by wymieniać. Termin Big Data nasuwa na myśl dane i sugeruje, że jest ich dużo. To już jest niezły początek definicji, ale absolutnie nie wyczerpuje to tematu. Osobiście za najbardziej wyczerpujące uważam wyjaśnienie zaprezentowane przez firmę Forrester, koncepcję 4V, zwracającą uwagę na następujące aspekty:

  • volume – ilość danych;
  • variety – różnorodność danych;
  • velocity – szybkość pojawiania się nowych danych i ich analizy w czasie rzeczywistym;
  • value – wartość danych ( niektóre źródła podają zamiast tego variancy – wariancję danych).

Nie tylko ilość danych jest bowiem ważna – a na tę sprawę szczególny nacisk kładą inne dostępne definicje. Istotne jest też różnorodne pochodzenie danych (dane behawioralne, statystyczne, geograficzne, transakcyjne) i ich formaty (ruch na stronie, social media, video, muzyka, dokumenty, aktywność na forach, formularze, ankiety, rozmowy telefoniczne, dane offline), co kładzie kres dotychczasowemu relacyjnemu łączeniu danych pochodzących z takich samych źródeł.

Wiemy więc już, że danych jest wiele i są one zróżnicowane. Tu pojawia się czynnik kolejny: czas. Dane narastają szybko i szybko muszą być zbierane i analizowane. Inaczej tracą wartość. Do tego odnosi się właśnie pytanie, które umieściłem na początku: Big Data dzieje się w czasie rzeczywistym, tylko w tym czasie ma WARTOŚĆ. Jeśli tylko tempo zbierania i analizowania danych jest odpowiednie (czyli: natychmiast!), mają one ogromne znaczenie i potencjał. Czy wszystkie? Oczywiście nie. Znacząca większość informacji, które rodzą się w każdej sekundzie w wielu kanałach komunikacyjnych, nie ma żadnego znaczenia. Dlatego filtrowanie danych jest tak samo ważne, jeśli nie ważniejsze, niż ich gromadzenie.

Big Data jest pojęciem obejmującym zarówno same dane, jak i ich analizę, z naciskiem na czas jej przeprowadzenia. Dane mają wartość TU i TERAZ.

„Dużo” to pojęcie obszerne, jak wyglądają konkretne liczby? Według badań firmy IDC rynek Big Data urośnie z 3,2 mld USD w 2010 do 16,9 mld USD w 2015 roku, przy rocznym przyroście na poziomie 40%. Harvard Business Review przeprowadził ankietę wśród Fortune 1000 i największych agencji rządowych USA. Wynika z niej, że 85% organizacji wdraża Big Data lub jest na etapie planowania jego wykorzystania.

Do czego może służyć zbieranie i analizowanie gigantycznych ilości danych? W poprzednim moim poście omówiony został web mining, wcześniej opisywałem zagadnienie popularne, ale nie zawsze prawidłowo rozumiane przez użytkowników sieci: pliki cookies.  Wszystkie te sprawy łączy jedno: potrzeba zbierania informacji na temat internautów. Po co? Z reguły w takich sytuacjach chodzić może tylko o jedno: pieniądze. Dane na temat użytkowników sieci to przecież informacje o konsumentach z pierwszej ręki. Big Data Marketing to temat, któremu poświęcony będzie mój następny post. Zanim przyjdzie na niego czas, warto poznać inne pojęcie: Internet of Things.

Wyobrażacie sobie, że Wasza lodówka sama usuwa produkty przeterminowane? Wyobrażacie sobie, że żarówka w Waszym domu wie, że niedługo się przepali, więc sama zamawia swoją następczynię? Wyobrażacie sobie, że Wasz budzik dzwoni 5 minut później niż powinien, ponieważ wie, że na trasie do pracy nie czekają na Was korki? Jeśli brzmi to dla Was jak science-ficton, musicie wiedzieć, że taki świat się zbliża. Świat inteligentnych przedmiotów, które są w stanie gromadzić, przetwarzać i odpowiednio wykorzystywać różnorodne dane. Podobne rozwiązania są już stosowane na przykład w samochodach, w których kierowca w czasie rzeczywistym otrzymuje informacje na temat stanu auta, np. wskaźnik ciśnienia powietrza w oponach. Internet of Things jest to technologia, która poszerzy, przyśpieszy i ułatwi interakcje człowieka z przedmiotami, a także przedmiotów z innymi przedmiotami.

Wszystko jednak sprowadza się do danych i ich odpowiedniego wykorzystania, a tu standardowo pojawia sie sprawa ich zbierania, czyli ingerencji w prywatność, z którą chyba musimy się po prostu pogodzić w dobie internetu. Popularność serwisów społecznościowych, w których sami ujawniamy wiele danych wrażliwych, może świadczyć o tym, że dyskrecja i tajemnica nie jest dziś priorytetem. Jeśli dodamy do tego ślady pozostawione w sklepach internetowych, w internetowej bankowości, wyniki wyszukiwania Google – dla dobrego narzędzia rozgryzienie nas to kwestia kilku algorytmów. Takie czasy.