To co aktualnie się dzieje w świecie technologii WWW i w ISPRO

Real Time WWW Personalization (personalizacja strony www w czasie rzeczywistym)

Nikogo już chyba nie dziwi, że każda, nawet jednorazowo odwiedzana strona internetowa,  częstuje nas reklamami doskonale dopasowanymi do naszych potrzeb – egipskie kurorty wołają poszukujących urlopowej destynacji, na posiadaczy kotów czekają oferty karmy i żwirku, singli kuszą portale randkowe. Reklamy to nie jedyny dowód spersonalizowania: wtyczka społecznościowa pokazuje nam, kto z naszych znajomych już stronę polubił, baner woła nas po imieniu lub nawet pokazuje nam kod promocyjny przeznaczony specjalnie dla nas… Takie zjawiska już nikogo nie dziwią, bo wszyscy wiemy, że Internet patrzy nam na ręce, za pomocą analizy naszych działań wie o nas więcej niż my sami, a wszystko po to, by z tej wiedzy skorzystać komercyjnie. Jeśli ktoś chciałby jednak wiedzieć, jaki konkretnie mechanizm stoi za tą wszechwiedzą strony internetowej, to dobrze trafił, bo dziś wyjaśnię tę kwestię.

Personalizacja strony www w czasie rzeczywistym (ang. Real Time WWW Personalization) to kolejna odsłona tematu, który interesuje mnie od dłuższego czasu. Mnie i zdecydowaną większość obserwatorów sieci. Tematu, który poza częścią teoretyczną ma też marketingową praktykę, a nie ma nic ciekawszego niż algorytmy, które oprócz wymiaru naukowego przeliczają się na poważne pieniądze. Niedawno pisałem o Big Data i marketingowej stronie tego zjawiska. Real Time WWW Personalization  to jedna z marketingowych twarzy umiejętnego zbierania i przetwarzania danych na temat użytkownika Internetu. Celem Real Time Personalization jest dotarcie do użytkownika z komunikatem dopasowanym do jego potrzeb. Świadomość potrzeb internauty wynika z analizowania jego aktywności w sieci w czasie rzeczywistym. Ten czas, ta swoista „natychmiastowość” zbierania, analizowania i wykorzystywania danych to najważniejszy element i podstawa skutecznej spersonalizowanej komunikacji. Personalizacja strony może dotyczyć zarówno treści, jak i formy w jakiej jest ona przedstawiona. Strona główna serwisu może więc powitać internautę jego imieniem lub na podstawie wcześniejszych zakupów czy przeglądanych produktów, wyświetlić mu informacje, które mogą go zainteresować.

Popularnymi formami personalizacji stron internetowych są:
•  rekomendacje konkretnych produktów,
• przypomnienia o koszykach zakupowych,
• posługiwanie się imieniem konsumenta,
• zintegrowana ze stroną wtyczka  mediów społecznościowych.

Ciekawostka:
Marketo.com, jedna z firm zajmujących się narzędziami typu marketing automation, oferuje system, który pozwala tworzyć w czasie rzeczywistym interakcję urządzenia mobilnego z dowolnym systemem CMS. Firma twierdzi, że stosowanie tego rodzaju systemu pozwala zwiększyć do 270% konsumpcje treści.

Jak wygląda schemat, według którego podsuwane są treści?
Obraz2
Załóżmy, że głównym tematem strony internetowej są samochody. „Super Topic” będzie się dzielił według kategorii i tematu. Tematem będą wspomniane auta, natomiast kategorią transport. Temat można podzielić dalej na podtemat i kategorię pokrewną, którymi  mogą być np. diesle – jako temat i części samochodowe jako kategoria. Kategoria ma możliwość związania się z kategorią pokrewną, która w naszym przypadku mogą być opony. Dla każdego tematu i kategorii strona powinna wyszukiwać taksonomie i ontologie. I tak to się kręci.
Pewnym problemem może być zmęczenie użytkownika reklamami. Ma temu zapobiec poniższy system:
Obraz1

Użytkownicy komunikują się z serwerem reklam w sieci. Baza danych 124 i 140 może być fizycznie zintegrowane z serwerem reklam 104 jako jedna lub więcej. Bazy te mogą znajdować się w różnych miejscach.

Sieć 150 może obejmować sieci rozległe (WAN), takie jak internet, sieci lokalne (LAN), sieci obszaru kampusu, miejskich sieci i sieci bezprzewodowych i przewodowych, lub innych sieci, które mogą umożliwić dostęp do sieci komunikacyjnej.

Serwer reklam 104 może zawierać zestaw instrukcji 160, które mogą spowodować, że serwer 104 wykona jedną lub więcej sposobów personalizacji reklam.

Każdy użytkownik posiada „user ID”, na podstawie którego dokonuje się identyfikacja. Polega ona na przejściu z użytkownika internetowego 140, przez serwer reklam 104 i na podstawie historii ruchów w bazie danych 124 dokonuje się personalizacja.

W bazie danych historii ruchu 124 mogą być przechowywane różne rodzaje danych o ruchu w sieci Web. Jak wcześniej wspomniano w oparciu o tą historię do każdego użytkownika (jego ID) zostaje stworzona lista reklam przewidywanych do wyświetlenia dla niego. Reklamy te są przechowywane w bazie danych reklamodawcy 150 gdzie oczekują na wyświetlenie użytkownikom sieci 140. Dodatkowo sekwencja identyfikacji reklam może być przypisana do każdego ogłoszenia w bazie reklamodawcy 150. Umożliwia to sortowanie i wyświetlanie odpowiednio dobranych do siebie reklam.

Kiedy użytkownik sieci 140 wysyła zapytanie do serwera 104, może to następować poprzez przeglądanie serwera 104, wykonuje instrukcje 160 zgodnie z generatorem wyników wcześniejszego wyszukiwania 116. Wyniki wyszukiwania generatora 116 są zapisywane. Zapytania uruchamiają trackera przeglądania 120 do śledzenia danych i przekazują te dane do serwera reklam 104, a następnie są one przechowywane w bazie danych historii ruchu 124.

Dane, takie jak te omówione powyżej, mogą być wykorzystywane przez serwer reklamowy 104 do realizacji metod i algorytmów do personalizowania reklama dostarczania do użytkownika sieci 140 tak, aby zapobiec lub istotnie zredukować ilość reklam powtarzających się.

Istnieją dowody, że doświadczenia indywidualnego użytkownika może mieć wpływ na to jak odbiera on reklamę. Doświadczenia te mogą być pozytywne lub negatywne. Mogą odnosić się do nazwy firmy, logo itp. Doświadczenie to również ma wpływ na kliknięcia na reklamy. 
Do podstawowych narzędzi personalizowania stron należy logowanie i tzw. ciasteczka. Dzięki nim możliwe jest poznanie internauty poprzez zbieranie śladów jego działań. Analiza tych informacji pozwala stworzyć portret użytkownika, czyli poznać go dokładnie, z zainteresowaniami i potrzebami włącznie.
Skarbnicą możliwości dla Real Time WWW Personalization jest oczywiście Google, dzięki dostępowi do niewyobrażalnych ilości danych, ale też do narzędzi marketingowych. Wystarczy wspomnieć o połączonych mocach Ad Words i Google Analytics. Nie jest to jednak jedyne rozwiązanie.
Zaawansowane zespoły internetowe od prawie dwóch dekad dokonują personalizacji opartych na IP i wychodzi im to coraz lepiej. Organizacje takie jak Demandbase, Acxiom i MaxMind używają adresów IP w celu dostarczenia internautom informacji, które mogą okazać się przydatne w danym momencie i miejscu, np. komunikatów pogodowych dostosowanych do lokalizacji.
Wszystkie te schematy i narzędzia wspólnie pracują na to, by strona internetowa czekała na użytkownika w sposób dla niego przydatny, ale też – przede wszystkim – korzystny dla samej strony. Dostosowana do potrzeb odbiorcy strona internetowa może mu skutecznie pomóc w wydawaniu pieniędzy, co dla wszystkich zainteresowanych jest zjawiskiem korzystnym.

Wiedza się opłaca – znaczenie technologii Big Data

Agencja Edelman oraz Centrum Psychometrii Uniwersytetu Cambridge zawarły strategiczne partnerstwo, którego celem jest bliższe poznanie zjawiska Big Data. Analizie poddany zostanie wpływ technologii Big Data na zaufanie konsumentów wobec biznesu, etyczny aspekt zbierania, badania i wykorzystywania danych, szczególnie przez takie sektory jak opieka medyczna czy ubezpieczenia, planowane jest też dokładniejsze niż kiedykolwiek pochylenie się nad kwestiami prywatności użytkowników Internetu. Co to oznacza? Oznacza to, że Big Data to narzędzie ingerujące w sprawy najbardziej intymne, posiadające niewątpliwie ogromną moc, choć wciąż nie do końca zbadaną. Rozwija się szybko, bo biznes dostrzega w nim olbrzymi potencjał, nauka powoli zaczyna dostrzegać zagrożenia.

Samo zjawisko Big Data omówiłem w poprzednim wpisie „Big Data i Internet Of Things – duża sprawa!”, teraz przyszedł czas na krok następny: skoro wiadomo już, czym Big Data jest, należy przyjrzeć się możliwościom, jakie daje. Najważniejsze są oczywiście możliwości przeliczalne na pieniądze, czyli potencjał marketingowy Big Data.

Big Data Marketing – z takim pojęciem spotykamy się coraz częściej. Polega on na wykorzystywaniu różnorodnych informacji o kontakcie w czasie rzeczywistym w celu zwiększenia skuteczności działań marketingowych poprzez spersonalizowaną komunikację ONE – to – ONE. Zdaniem specjalistów, w dzisiejszych czasach jest to konieczność.

Każdego dnia zostawiamy w sieci miliony śladów, gromadzonych w przeróżny sposób, chociażby za pomocą plików cookies. Specjalistyczne narzędzia zbierają te dane i analizują, by – według optymalnego scenariusza – NATYCHMIAST odpowiedzieć na potrzebę użytkownika za pomocą podsunięcia mu najlepszych, najtrafniejszych treści lub konkretnej oferty. Media społecznościowe to niezwykle ważne źródło danych na temat konsumentów – z reguły tam nie zostawiamy niedostrzegalnych dla śmiertelników śladów, tylko konkretne wskazówki – polubienia, udostępnienia, informacje na temat swoich zainteresowań, sytuacji rodzinnej, itd.

Jakie to ma znaczenie dla firm? Szacuje się, że kiepskiej jakości dane mogą kosztować przedsiębiorców aż do 35% dochodów operacyjnych. Według ankiety przeprowadzonej wśród firm znajdujących na liście Fortune 1000 już 10% poprawa użyteczności oraz dostępności danych zwiększyła sprzedaż średnio o 14% na każdego pracownika. Większa widza na temat konsumenta to większe możliwości dotarcia z trafioną ofertą, a więc większy potencjał sprzedażowy.

Najwyraźniej wykorzystanie Big Data zaobserwować można w sektorze bankowym. Czy Wasz bank zaproponował Wam już zniżki wynikające z tego, że robicie zakupy w takim, a nie innym sklepie? Zauważyliście, jak często niewielki nawet dołek finansowy wywołuje lawinę propozycji kredytowych? Dopóki widzicie prosty związek przyczynowo-skutkowy, czyli Wasze upodobania/zwyczaje/potrzeby zna Wasz bank, któremu sami za pomocą działań finansowych podsuwacie stosowne informacje, wszystko wydaje się jasne (choć często irytujące). Wątpliwości pojawiają się w sytuacjach takich jak na przykład koniec umowy z operatorem telefonicznym, który skutkuje propozycjami ze strony pozostałych telekomów. Jeśli zastanawiacie się, kto Was sprzedał, odpowiedz brzmi pewnie: Big Data.

Mechanizm jest prosty: bank/telekom/sklep otrzymuje informację, że wędrowaliście po odpowiedniej stronie internetowej, system czarno na białym wykazuje, które zakładki Was zainteresowały, ile czasu spędziliście na danych podstronach – na tej podstawie błyskawicznie można skonstruować ofertę i zadzwonić z propozycją. Trudno, żeby oferta kredytu, która trafia do Was zaraz po tym, jak spędziliście dwie godziny na przeszukiwaniu internetu w tej sprawie, zupełnie Was nie zainteresowała. Badanie konsumentów pozwala na rezygnację z działań na oślep, z przypadkowych propozycji kierowanych do przypadkowych osób, co samo w sobie generuje oszczędności.

Jakie problemy techniczne napotyka Big Data? Jeśli tylko uświadomimy sobie, jak ogromne ilości danych wchodzą w grę, pomysłów na potencjalne trudności natychmiast będziemy mieli co najmniej kilka. Według badań przeprowadzonych wśród 75 najważniejszych dyrektorów sprzedaży w USA wytypowano trzy największe problemy:

  •  46% uważa ilość dostępnych danych jest największym wyzwanie dla Big Data Marketing;
  • 34% wskazuje, że różnorodność danych ustrukturyzowanych i nie ustrukturyzowanych jest największym problemem;
  • 20% badanych wskazało, że częstotliwość generowania nowych danych oraz tempo ich przesyłu oraz późniejszego gromadzenia i analizowania jest najtrudniejszym zadaniem.

Rozwiązaniem jest zastosowanie narzędzia klasy Marketing Automation. Systemy te pozwalają na pozyskiwanie, gromadzenie oraz analizowanie wymienionych wyżej danych, w czasie zbliżonym do rzeczywistego. Pozwala to na dotarcie do indywidualnych odbiorców, nie wymaga inwestycji w hardware i wszystkie dane trzyma w chmurze obliczeniowej daleko od firmowych systemów. 

Działanie firm, która zajmują się gromadzeniem, przetwarzaniem i dostarczaniem danych instytucjom finansowym, kilkakrotnie opisywał Maciej Samcik. Samcik widzi dwie twarze Big Data: z jednej strony jest to w końcu forma pomocy zagubionym w bankowych możliwościach klientom, z drugiej to doskonałe narzędzie służące manipulacji i tworzeniu potrzeb, a więc w  pewnym sensie prowadzące do naciągania.

O tym, czy Big Data to zjawisko etyczne, często decyduje branża, która sięga po to narzędzie. Dość niewinne wydają się reklamy egipskich kurortów, którymi nagle usiana jest każda oglądana przez nas strona internetowa, tylko dlatego, że w mailu do kolegi napisaliśmy, że marzymy o wakacjach. Problematyczne wydają się skutki wykorzystania naszych internetowych działań przez firmy medyczne, która podsuwają nam leki na bazie diagnozy postawionej w wyniku analizy objawów, które wpisywaliśmy w Google. Makabryczna wręcz wydaje się wizja ciągłych reklam ubezpieczenia na wypadek zachorowania na choroby nowotworowe, tylko dlatego, że często dzielimy się z facebookowymi znajomymi informacjami na temat uciążliwych migren.

Warto tez sobie zadać pytanie: czy użytkownicy świadomi zbierania i przetwarzania danych, zachowują się w sieci naturalnie? Czy ktoś jeszcze wierzy, że da się zupełnie bez śladu kupić przez internet broń lub narkotyki? Z drugiej zaś strony: czy podświadomie nie nastawiamy się coraz bardziej sceptycznie do reklam internetowych? Na te pytania odpowiedzi szuka Agencja Edelman i naukowcy z Cambridge, musimy tylko poczekać na wyniki ich pracy.

Web mining, czyli sieć patrzy na Ciebie

Sieć patrzy i próbuje Cię zrozumieć, żeby móc się dostosować do Twoich potrzeb, przede wszystkim zaś, by te potrzeby wykreować – tak w sporym uproszczeniu wyjaśnić można pojęcie web mining. Eksploracja danych w internecie to zjawisko związane z opisywanym już na blogu brakiem anonimowości w internecie, ale też z poruszaną niedawno kwestią coraz powszechniejszej automatyzacji. Data mining to zbiór technik —automatycznego odkrywania nietrywialnych zależności, schematów, wzorców, reguł (ang. patterns) w zbiorach danych (ang. Knowledge Discovery in Databases, KDD) . Jednym z takich zbiorów jest internet, którego eksplorację nazywamy z angielskiego web mining lub web data mining.

Analiza użytkowania sieci pozwala na kontrolę zachowań użytkowników i wysnuwanie wniosków z wyników tej kontroli. Badania mogą na przykład wykazać, że właściwe zachowanie użytkowników różni się od zachowania oczekiwanego podczas projektowania strony.  W efekcie możliwe jest wprowadzenie zmian na stronie tak, by jak najskuteczniej odpowiadała na zapotrzebowanie odbiorców.
Eksploracja zasobów może być przeprowadzona na wiele sposobów, najczęściej jednak realizowana jest według modelu Cross-Industry Standard Process for Data Mining, który składa się z sześciu etapów. 

Etapy modelu Cross-Industry Standard Process for Data Mining:

  1. —Zrozumienie uwarunkowań biznesowych na tym etapie kluczowe jest jasne sformułowanie celów i wymagań dotyczące projektu.
  2. Zrozumienie danych –  zebranie danych i ich poznanie za pomocą eksploracyjnej analizy. Na tym etapie odkryte zostają pierwsze zależności, może też ocenić jakość danych.
  3. Przygotowanie danych  wykonanie przekształceń, czyszczenie danych, usunięcie wartości skrajnych.
  4. —Modelowanie –  wybór i zastosowanie odpowiednich technik modelujących, następnie zaś skalowanie parametrów modelu w celu optymalizacji wyników. Wyróżnia się trzy główne techniki modelowania: —grupowanie, —reguły asocjacyjne i —klasyfikację.
  5. Ewaluacja –  ocena  modeli pod względem jakości i efektywności przed ich wdrożeniem. Na tym etapie konieczne jest ustalenie, czy model spełnia wszystkie założenia z pierwszego etapu.
  6. Wdrożenie – wykorzystanie modeli zgodnie z celami biznesowymi.

 Kilka elementów analizy użytkowania sieci:

  • —Analiza kliknięć (ang. click stream analysis) – do jej zrozumienia konieczna jest znajomość pojęcia strumienia kliknięć. Jest on sekwencją odwiedzanych stron przez użytkownika podczas surfowania w sieci. Oprócz odsłon dane strumienia kliknięć obejmują pliki log, pliki cookies oraz inne dane używane podczas przesyłania stron internetowych z serwera do przeglądarki.
  • —Pliki log serwera  jeszcze przed rozpoczęciem analizy kliknięć niezbędne jest zapoznanie się z rodzajem dostępnych danych do tej analizy. Informacja dotycząca sposobów korzystania z sieci przyjmuje formę plików log serwera. Dla każdego żądania z przeglądarki do serwera generuje się automatycznie odpowiedź, której wynik jest zapisywany właśnie w ten sposób – przyjmuje formę rekordu zapisanego w pojedynczej linii, który jest dołączany do pliku tekstowego znajdującego się na serwerze.
  • Rekord logu serwera EPA zawiera:
    • Pole adresu IP hosta – zawiera adres internetowy IP hosta, który wysyła żądanie. Jeśli nazwa hosta znajduje się w serwerze DNS to ta nazwa jest dostępna.
    • Pole data/czas – zawiera czas żądania.
    • Pole żądanie HTTP – zawiera informację, którą przeglądarka zażądała od serwera. Zasadniczo pole to może być podzielone na cztery części: metoda HTTP, identyfikator zasobu (URL), nagłówek i protokół.
    • Pole kodu odpowiedzi HTTP – trzycyfrowa odpowiedź z serwera na żądanie przeglądarki klienta. Oznacza status żądania, czyli powodzenie, niepowodzenie błąd i ewentualnie typ błędu.
    • Pole wielkości transferu – wskazuje na rozmiar pliku w bajtach, wysyłanego przez serwer do przeglądarki klienta. Wartość ta jest uzupełniona tylko w przypadku pomyślnego zakończenia żądania (pole kodu odpowiedzi sugeruje powodzenie).

Innym sposobem na identyfikację użytkownika są ciasteczka, czyli opisywane już pliki cookies.

I kilka ważnych pytań …

Jakich danych potrzebujemy do przeprowadzenia analizy za pomocą modelu eksploracji danych?
1. Odsłon
2. Tożsamości użytkownika
3. Sesji użytkownika (jakie strony zostały odwiedzone, w jakiej kolejności i ile to trwało)
Odpowiedzi na jakie pytania dostarcza analiza kliknięć?
1. Która strona internetowa jest najpopularniejszym punktem wejścia dla użytkowników?
2. W jakiej kolejności strony są odwiedzane?
3. Które inne witryny skierowały użytkowników na naszą stronę?
4. Ile stron odwiedzają użytkownicy podczas typowej wizyty?
5. Jak długo typowy gość przebywa na naszej stronie?
6. Która strona jest najczęściej punktem wyjścia dla użytkowników?
Jakie są zadania przetwarzania danych z pliku log?
1. Czyszczenie danych
2. Usunięcie wpisów pochodzących od robotów internetowych
3. Identyfikacja każdego użytkownika
4. Identyfikacja sesji
5. Uzupełnienie ścieżek
I najważniejsze: po co nam web mining?
  • Sprzedaż internetowaEksploracja danych może pomóc sprzedawcom internetowym, poprzez dostarczanie im przydatnych i dokładnych trendów dotyczących zachowań nabywczej swoich klientów. Dzięki temu możliwe jest bardziej precyzyjne i skuteczne dotarcie do klienta z dedykowaną ofertą.
  • Bankowość / KredytowanieEksploracja danych może pomóc instytucjom finansowym w obszarach takich jak raportowanie zdolności kredytowej oraz innych informacji kredytowych. Umożliwia oszacowanie poziomu ryzyka związanego z każdym kredytobiorcą.
  • Egzekwowanie prawaEksploracja danych może pomóc w identyfikacji osób podejrzanych oraz przestępców na bazie ich przyzwyczajeń i innych wzorców zachowań.
Czy wśród tych plusów kryją się minusy? Oczywiście, jak zawsze, gdy w grę wchodzi gromadzenie danych:
  • Kwestie bezpieczeństwaIle razy słyszeliście już o wycieku danych? No właśnie. Nawet takie giganty rynkowe jak Sony nie są bezpieczne.
  • Nieetyczne wykorzystanie danychGwarancji na to, że nasze dane wykorzystane będą tylko w dobrym celu, nie uzyskamy nigdzie. Szantaż, dyskryminacja – wszystko się zdarzyć może. Co więcej – techniki zbierania i analizy danych nie są bezwzględnie skuteczne. Wszędzie może wkraść się błąd i użytkownicy mogą ponieść tego konsekwencje.

Podsumowując …

Web mining to szansa na skrojoną na miarę ofertę sprzedawców, na usługi dostosowane do naszych potrzeb, nawet na propozycje wyprzedzające nasze zainteresowania.  Nic jednak za darmo – ceną jest tu nasza prywatność, odnotowanie przez system każdego kliknięcia. Pytanie tylko czy jest to dla nas wysoka cena – doświadczenie pokazuje, że aktualnie większość z nas zgadza się na monitorowanie naszej aktywności w Internecie.

Automatyczne generowanie treści, czyli blog pisze się sam …

Ironia, kpina, intonacja głosu – jest wiele czynników, które sprawiają, że nawet najprostszy komunikat może mieć różne znaczenie. Przetwarzanie naturalnego języka (ang. Natural Language Processing) i związane z tym automatyczne generowanie treści (ang. Automatic Text Generation) to zagadnienia z trudnego pogranicza sztucznej inteligencji i językoznawstwa. Nauka od dawno usiłuje przystosować maszyny do komunikowania w sposób możliwie zbliżony do ludzkiego. Niuanse języka sprawiają, że nie jest to proces łatwy.

NLP – więcej niż algorytm

Komputer przyjmuje dane w formie uproszczonej, jako ciąg znaków, bez rozumienia kontekstu. By poradzić sobie z tym problemem przy odczytywaniu dłuższych ciągów wyrazów, używa się tak zwanego statystycznego NLP. Do tego celu wykorzystywane są liczne algorytmy, które połączone mają doprowadzić do odczytania przez algorytmy prawidłowej treści. Służą temu m.in.: metody stochastyczne, probabilistyczne, czy statystyczne.

Na NLP składa się wiele pomniejszych zagadnień, takich jak: automatyczne streszczanie tekstu (sumaryzacja), tłumaczenia, rozpoznawanie mowy czy wyszukiwanie w tekście konkretnych fragmentów. Nas dziś interesuje najbardziej automatyczne generowanie tekstu.

Na czym to polega?

Za pomocą specjalnych algorytmów przetwarzających dostępne bazy tekstów, oprogramowanie jestwstanie wygenerować spójny tekst. Tekst taki kieruje się do użytkowników, ale też wysyłany być może do innych urządzeń, generując konkretne reakcje. Systemów generowania jest wiele, jednak wciąż nie udało się stworzyć bezwzględnie dokładnego i idealnie skutecznego – wciąż konieczny jest nadzór człowieka.

Jak to się robi?

Istnieje kilka sposobów automatycznego generowania, są to między innymi:

a) Tekst tworzony przy użyciu automatycznych procesów.

Warto zapamiętać: w tym celu sprawdzają się łańcuchy Markowa. Proces Markowa to ciąg zdarzeń, w którym prawdopodobieństwo każdego zdarzenia zależy jedynie od wyniku poprzedniego. Metody te – z racji dostępu do potężnej bazy tekstów – używane równiez przez Google np w translatorze sprawdzają się w postaci tzw. modeli n-gramowych. 

b) Tekst wygenerowany przy użyciu technik automatycznego dobierania synonimów lub przetwarzania słów kluczowych.

Na podstawie artykułu złożonego z 1500 słów, bez problemu można stworzyć 100 praktycznie identycznych, przekazujących te same wiadomości, lecz używających innych słów. Czy to na pewno bezpieczna technika? Wrócimy do sprawy już za chwilę.

c) Łączenie w odpowiedni sposób zawartości niezwiązanych ze sobą dokumentów, instrukcji, czy też prostych ciągów znakowych.

Rozwiązanie najczęściej używane jest w systemach zarządzania procesami biznesowymi (BPM – Business Process Management). Wpływa na obniżenie pracochłonności tworzenia nowych dokumentów, zapewnia ich standaryzację i zgodność, eliminuje błędy i pozwala na automatyzację standardowych, rutynowych czynności związanych z przygotowaniem i wysłaniem dokumentu.

Google przeciwny synonimom

Generowanie odbywać się może na bazie synonimów – system wychwytuje pojedyncze słowa i zastępuje je wyrazami bliskoznacznymi. Możliwa jest też zmiana kolejności wyrażeń. Niby najlepsze są te piosenki, które już znamy, ale w przypadku tekstów generowanych Google mówi stanowcze „nie”, jeśli tylko takowe teksty pojawią się na drodze botów indeksujących Google. W końcu w cenie są publikacje unikalne, o czym mowa na tym blogu była już wielokrotnie przy okazji omawiania sprawy pozycjonowania oraz wyszukiwania semantycznego.

I po co to wszystko?

Automatyczne generowanie tekstów to rozwiązanie praktyczne, szybkie i ekonomiczne. Przydatne jest też w dobie technologii Big DataCloud Computing, gdy w cenie jest ujednolicanie danych w przeróżne statystyki i podsumowania.

W praktyce przekłada się to na:

Tworzenie spersonalizowanych treści,
Business Intelligence,
Raporty finansowe,
Personal fitness,
Sportowe ligi Fantasy,
Treści sportowe,
Analizy internetowe,
Treści w czasie rzeczywistym.
Nieco więcej o tych możliwościach:
  • Tworzenie spersonalizowanych treści – jak coś jest do wszystkiego, to jest do niczego, dlatego warto zamienić jednego rodzaju treści dedykowanego wielkim grupom na dużą ilość artykułów dla pojedynczych użytkowników, bądź małych grup. W treść wkomponować można wzorce i trendy, jako pojedyncze dane.
  • Business Intelligence – dostarczenie raportów dopasowanych specjalnie do każdego działu przedsiębiorstwa. Raporty mają postać nie tylko wykresów czy tabelek, lecz również całych analiz, wszystko zautomatyzowane przez system.
  • Raporty finansowe –  doniesienia na temat wszelkich zmian w teczkach i portfelach finansowych wraz z możliwością dokładnego spersonalizowania porad oraz reklam odpowiednich źródeł – świetna opcja dla biznesu.
  • Personal fitness – coś na czasie w kontekście postanowień noworocznych – pomoc w osiąganiu prywatnych celów życiowych, zbieranie codziennych danych i interpretowanie ich w celu samodoskonalenia się. Alternatywa dla osobistego trenera.

  •  Sportowe ligi Fantasy – ligi Fantasy zbierają fanów dyscyplin sportowych, którzy na podstawie statystyk chcą wytypować najlepszych graczy oraz drużyny. Walka 

    o zdobycie wirtualnych punktów opiera się o inne zasady i zwraca uwagę na trochę inne statystyki, aniżeli zastosowania typowo sportowe.

  • Treści sportowe – sportowe statystyki i artykuły ułożone w wybrany sposób. Pozwala na tworzenie zapowiedzi meczów, raportów z gry zawodników czy też całych rozgrywek. Opisanie i analiza statystyk sportowych dla spersonalizowanych potrzeb.
  • Analizy internetowe – agencje marketingowe udostępniają klientom automatycznie dopasowane informacje, dane na temat działań, zwrotów z inwestycji.

  • Treści w czasie rzeczywistym – platforma działająca w chmurze umożliwia relację na żywo z wybranego przedsięwzięcia, korzystając z wybranych danych ułożonych odpowiednio w czasie.

Powyższe rozwiązania udowadniają, że automatyczne generowanie treści jest tylko pozornie odczłowieczone – w praktyce wszystko prowadzi do stworzenia narzędzi przydatnych, a nawet niezbędnych człowiekowi. Najlepszym tego dowodem jest spersonalizowane dobieranie treści WWW. Wiadomo, że to, co widzimy na ekranach komputerów wędrując po sieci nie jest ani trochę przypadkowe. Informacje i reklamy dopasowane do naszych potrzeb, zainteresowań i oczekiwać to jeden z licznych przykładów Automatic Text Generation. Inteligentny internet, osobisty trener, raporty finansowe – trudno nie lubić zjawiska o takim spektrum działania!

Ciekawostka:
Fred Zimmerman, założyciel firmy Nimble Combinatorial Publishing, przestawił projekt systemu, który na bazie wprowadzonych zagadnień będzie w stanie sam ściągnąć wszelkie niezbędne teksty i stworzyć… książkę. Rola człowieka ograniczałaby się w takim wypadku do korekty i redakcji.  Kroi sie niezły patent na dość wtórne podręczniki czy opracowania, ale czy da się tak stworzyć dzieło warte Nobla? Wątpimy, ale obserwujemy sprawę.

Pliki cookies i spółka, czyli w sieci nigdy nie jesteś anonimowy

Trzy lata temu na wszystkich szanujących się stronach internetowych pojawiły się komunikaty dotyczące cookies. Ciasteczka to dane przechowywane na komputerze lokalnym w postaci pliku tekstowego. Pliki cookies gromadzimy podczas wędrówek po internecie, łącznie składać się one mogą na kompleksowy obraz użytkownika internetu, co wcale nie jest wiadomością dobrą. Internet, który wie o nas za dużo, nie tylko uprzejmie podsuwa nam dopasowane do naszych potrzeb treści, ale stanowi też bank danych, często wrażliwych, które w niepowołanych rękach stanowić mogą potężną broń.  Niestety, sposobów na to, by dowiedzieć się o nas wszystkiego, jest więcej, niż tylko powszechnie znane cookies, zaś czyszczenie historii czy tryb incognito nie gwarantują nam niewidzialności.

Podstępne cookies, czyli na czym problem polega:

Ciasteczka oraz podobne środki wykorzystania nowych technologii wspomagają marketing poprzez jego automatyzację oraz służą jako narzędzia do usprawnienia procesów sprzedażowych. Na podstawie zgromadzonych danych dotyczących zainteresowań konsumenta, czynników demograficznych czy czynności podejmowanych na danej witrynie, oprogramowanie identyfikuje internautę, a następnie kieruje do nich spersonalizowany specjalnie dla nich przekaz marketingowy w postaci reklam, które w szczególności mogą zainteresować zidentyfikowany lead. Również mailowy spam reklamowy oraz wciąganie do baz danych zawdzięczamy ciasteczkom. Wszystko to składa się na automatyzację marketingu i gromadzenie danych przez marketingowców.

Przykłady takich danych to :
• typ przeglądarki,
• pluginy zainstalowane w przeglądarce,
• czas lokalny,
• preferencje językowe,
• typ urządzenia,
• wielkość ekranu urządzenia, głębia kolorów wyświetlacza, czcionki systemowe.

Nie tylko zwykłe cookies – również inne mechanizmy szpiegowskie, na które trafić możemy w internecie:

  • Ciasteczka FLASH – działają w ten sam sposób, co zwykłe cookies, czyli gromadzą dane, jednak ich informacje są używane przez program Adobe Flash Player, który lokalnie je przechowuje. Wykazują one podobne zagrożenie prywatności, jak normalne pliki cookie, jednak nie jest łatwe ich blokowanie, ponieważ ich wykrycie nie jest wspierane natywnie przez przeglądarki internetowe. Jednym ze sposobów, by je wykryć i kontrolować to wykorzystanie rozszerzeń firm trzecich lub dodatków do przeglądarki. Można również odinstalować dodatek Flash dla przeglądarki, jednak może to znacznie ograniczyć nasze możliwości w sieci. Jak działają ciasteczka FLASH? Przeglądarka internetowa odczytuje i tworzy ich kopię, nie wysyłając bezpośrednio pakietów z lokalnej maszyny. W badaniu z 2009 roku, ciasteczka Flash okazały się popularnym sposobem na gromadzenie informacji o użytkowniku na 100 najpopularniejszych stronach WWW.
  • Evercookie – przedrostek „wszech” informuje nas bez ogródek, że mamy do czynienia z poważnym zawodnikiem. „Wszechciastka” to aplikacje oparte na języku JavaScript, które produkują ciasteczka w przeglądarce internetowej. To, co je wyróżnia, to wyjątkowa odporność – usunięcie „wszechciastka” skutkuje jego wskrzeszeniem w innej, dostępnej postaci, np. ciastka Flash.

Co dalej ze zgromadzonymi danymi?

Informacje zebrane przez ciastka trafić mogą w kilka miejsc, a w każdym z tych miejsc zrobić z danymi można naprawdę imponujące rzeczy:

  • Google AdSense – czyli usługa, która umożliwia wydawcom w witrynach partnerskich Google publikować tekst, obrazy, video oraz interaktywne treści reklamowe, które są kierowane do odwiedzających witrynę na podstawie kontekstu stron odwiedzanych przez użytkownika.
  • Google AdWords – system reklamowy, pozwalający na wyświetlanie linków sponsorowanych w wynikach wyszukiwarki Google i na stronach współpracujących w ramach programu AdSense.

Warto pamiętać:

nawet jeśli uważanie, że utrata prywatności nie jest wysoką ceną za spersonalizowane, przydatne reklamy, starajcie się unikać ciastek, chociażby poprzez czyszczenie historii. To ważne – trackery zwyczajnie spowalniają internet i utrudniają korzystanie z niego.

Uważajcie na ciastka!

Modele atrybucji, czyli sprawdź, czy dobrze wydajesz pieniądze

W dobie powszechnej cyfryzacji każda firma dysponuje dziesiątkami potencjalnych kanałów dotarcia do klienta. Trudność polega na tym, że nie każda komunikacja skutkuje odczuwalnym sukcesem sprzedażowym, każda za to generuje koszty. Czy jest jakiś sposób na to, by sprawdzić skuteczność działań marketingowych? Oczywiście, że jest. Jedną z odpowiedzi są modele atrybucji, czyli praktyka śledzenia i wyceny wszystkich punktów stykowych (touchpoint) marketingu, które prowadzą do pożądanego wyniku. Bazuje na potężnej kombinacji algorytmów predykcyjnych i zintegrowanych analiz.

Gdzie znaleźć można atrybucję w praktyce?

W ciągu ostatnich dwóch lat Google stworzył solidne podstawy w atrybucji Multi-Channel Funnels i Attribution Model Comparison Tool w Google Analytics (oraz dodatkowe narzędzia do AdWords i sieci reklamowej Google). Obecnie poszerzane są możliwości atrybucji z Data-Driven Attribution w Google Analytics Premium – za pomocą modeli algorytmicznych i zestawów raportów mających na celu przewidywanie atrybucji.

Jak to działa?

Model Data-Driven Attribution jest aktywowany przez porównanie konwersji dla ścieżek zakupowych i prawdopodobieństwa związanego z konwersją zdarzeń występujących w odpowiedniej kolejności. Różnice w strukturze ścieżki oraz w prawdopodobieństwie konwersji są podstawą dla algorytmu, który oblicza wagi kanałów marketingowych. Im większy wpływ na prezencję kanałów marketingowych ma prawdopodobieństwo konwersji, tym większa jest waga tego kanału w modelu atrybucji.

Co to konkretnie oznacza dla reklamodawcy?

Data-Driven Attribution w Google Analytics Premium pozwala na analizę drogi klienta do produktu, niezależnie od efektów tej podróży. Umożliwia pomiar wielkości sprzedaży i liczby konwersji. Zapewnia wgląd w to, jak użytkownicy korzystają i jak dotarli do witryny. Metodologia modelowania Google oparta jest na statystykach i zasadach ekonomicznych. Automatycznie przypisuje wartości do touchpointów marketingowych, czyli kontaktów klientów z produktem. Dzięki temu możliwa jest ocena przydatności kanałów reklamowych, a nawet słów kluczowych i weryfikacja nakładów na poszczególne działania marketingowe. Co ciekawe, system monitoruje, czy cele kampanii (np. kierowane do określonej strefy geograficznej, odpowiedni czas) są spełnione i czy treści nie są umieszczane w niewidocznych obszarach strony.

Skutki, czyli zalety Data-Driven Attribution.

Model automatycznie rozdziela środki na różne kanały marketingowe, ale automatycznie wcale nie oznacza, że dzieje się to w sposób przypadkowy czy bezmyślny. Użytkownik ma możliwość zdefiniowania własnych miar sukcesu, takich jak np. liczba transakcji typu e-commerce. Model jest dostosowywany i regularnie odświeżany w oparciu o dane. Dzięki unikalnemu narzędziu: Model Explorer, użytkownik ma pełen wgląd i możliwość zrozumienia działania modelu, jak i sposób obliczania wartości touchpointów. Warto zwrócić uwagę na niezwykle czytelne i proste w obsłudze funkcjonowanie tego narzędzia: dane są jasne i podlegają dowolnemu sortowaniu i analizie – wszystko po to, by wskazówki były realnym wsparciem.

Podsumowując, czyli dlaczego polecam?

Data-Driven Attribution to szansa na ustalenie optymalnego budżetu akcji marketingowych. Modelowanie nieliniowe pozwala dostosować i poprawić skuteczność kampanii w całościowy i dokładny sposób. Ponadto raporty ukazują jak poszczególne kanały wpływają na siebie, co daje pełen obraz prawdziwej wartości każdego kanału. Co ważne, dowiadujemy się w ten sposób, które taktyki w kampanii nie są skuteczne i należy je zmienić bądź udoskonalić, aby dotrzeć do konsumenta.

A to już prosta droga do sukcesu!

 

 

Google Partners Connect w ISPRO – relacja

Swatanie postrzegane jest różnie, jednak jeśli jesteśmy więcej niż pewni, że relacja ma szanse na sukces, ponieważ strony łączy podobny światopogląd, zainteresowania i cele biznesowe, dlaczego by nie spróbować? W ostatni czwartek ISPRO podjęło próbę połączenia dwóch ważnych inicjatyw: z jednej strony firmy Luxoft, naszego strategicznego klienta, z drugiej światowego potentata – Google,  dla którego jesteśmy dumnym „Partnerem”. Pretekstem do spotkania było AdWords – reklamowe oblicze Google.

23 października stolica na chwilę wróciła do Krakowa, bo to właśnie tu zorganizowaliśmy transmisję konferencji z udziałem specjalistów Google, którzy tłumaczyli, dlaczego współczesny biznes nie ma szans na przetrwanie bez AdWords. Jako partner Google mieliśmy możliwość zaproszenia dowolnych gości do wspólnego oglądania i komentowania projekcji – postawiliśmy na naszego strategicznego klienta. Interesy naszych klientów są naszymi interesami, dlatego w trosce o reklamową kondycję zaprzyjaźnionej firmy, wyszliśmy z inicjatywą wspólnego czerpania marketingowych i internetowych korzyści płynących do nas ze streamingu przygotowanego przez ekipę Google Partners.

Spotkanie było kameralne, ale profesjonalne – dyskusja na temat faktów i mitów związanych z reklamowaniem za pomocą AdWords, marketingowych możliwości i roli wyszukiwarki w budowaniu pozycji firmy przybrała wyższą temperaturę. Dyskusja po spotkaniu to jednak dopiero początek zgłębiania tajników AdWords – przedstawiciele firmy otrzymali od nas materiały informacyjne oraz obietnice wsparcia przy dalszym, dogłębnym studiowaniu zasad i korzyści płynących ze stosowania AdWords.

Przedstawiciele klienta uzyskali przydatną wiedzę, ISPRO zyskało wdzięczność klienta za pamięć i organizację spotkania – w podtrzymaniu relacji jest to bezcenny zysk. Jesteśmy wdzięczni Google za pretekst do zorganizowania tego wydarzenia (że o wdzięczności za AdWords nie wspomnimy nawet).

Polecamy się na przyszłość i zachęcamy do obejrzenia zdjęć ze spotkania.

Google Partners Connect – reklama Adwords obnażona

O tym, że Google potęgą jest i basta, przekonywać Was nie muszę. Wiecie doskonale, jak ważna jest pozycja w wyszukiwarce, wiecie też pewnie, że obecność tam nie musi być tylko efektem przypadku – to może i powinien być skutek przemyślanych i zaplanowanych działań, rozłożonych w czasie dla określonych grup odbiorców. W tym momencie wchodzimy na grunt reklamy Adwords w Google, które to narzędzie stanowi aktualnie podstawę wszelkich strategii promocyjnych w sieci wyszukiwania. AdWords może być biznesowym sprzymierzeńcem każdego przedsiębiorcy, jeśli tylko pozna on tajniki reklamowania się za pomocą tego rozwiązania. Jeśli interesuje Was ta jedna z najskuteczniejszych form dotarcia do klientów – dotrzyjcie na konferencję, której współorganizatorem jest również ISPRO.

Już 23 października tajemnice AdWords przedstawią Wam specjaliści z Google – czyli źródło najpewniejsze z pewnych. Przygotujcie się na ogromne ilości informacji, które na zawsze zmienią Wasze podejście do reklamy, promocji, a nawet funkcjonowania firmy. Jeśli tylko jesteście gotowi na rewolucję – zarezerwujcie sobie czas 23 października. Gwarantujemy merytoryczną, twórczą dyskusję w kreatywnym gronie. Prawie 300 agencji, będących członkami programu Google Partners, to nieprzebrane źródło inspiracji i możliwość wymiany doświadczeń. O godzinie 10:00 ruszy lawina, a Wasze spojrzenie na biznes nigdy już nie będzie takie samo.

 W konferencji Google Partners Connect wezmą udział m.in.:


Artur Waliszewski
Regional Business
Managing Director CEE

Przemysław Modrzewski
Senior Analytical Lead

Dawid Papież
Retail Industry Manager
Jako szef polskiego Google, jest odpowiedzialny za określanie i wdrażanie strategii rozwoju działalności biznesowej Google w Polsce, a także w pozostałych krajach Europy Środkowo-Wschodniej. Wcześniej pełnił funkcję członka zarządu największej polskiej firmy internetowej Onet.pl. Jest absolwentem Akademii Ekonomicznej w Krakowie. Jeden z pierwszych w Polsce
certyfikowanych trenerów Google AdWords. Prelegent na studiach ALK i SWPS. Autor książek „Google AdWords w praktyce” i „Reklama w Google dla małych i średnich przedsiębiorstw” i wielu artykułów z zakresu marketingu internetowego.
Absolwent Uniwersytetu
Ekonomicznego w Krakowie. Zanim trafił do Google pracował w branży technologii mobilnych. W Google od 2010 roku. Obecnie należy do zespołu obsługującego sektor handlu detalicznego. Na co dzień doradza, jak tworzyć skuteczne strategie w obszarze marketingu online.