Wpisy dotyczące szeroko pojętego SEO, SEM i e-Marketingu

Jak zostać badaczem SEO w weekend – dobra analiza SEO

Oczywiście: znawcą SEO nikt nie zostanie w weekend, a już na pewno na poziom eksperta nie wskakuje się za pomocą przeczytania jego posta, nawet posta na tym blogu. Jednym tekstem i w jeden weekend można jednak zrobić krok w stronę lepszego zrozumienia SEO. Jeden tekst może być źródłem patentu na skuteczne podejście do sprawy. Mam nadzieję, że ten tekst będzie na to szansą.

Badanie, analizowanie i zgłębianie SEO zaczyna się w momencie, kiedy przestajemy przyjmować na wiarę wszystko, co nam pokazuje Google. Prawdziwe SEO rodzi się w chwili, kiedy patrzymy na statystki i zastanawiamy się, skąd wzięły się dane, które są nam prezentowane, jakie zjawiska miały na nie wpływ i jak my możemy je kształtować. Możemy zakończyć działanie na etapie, kiedy Google informuje, że wprowadził nowy algorytm i że jest 200 czynników, od których zależy nasze pozycjonowanie. Możemy też jednak próbować dowiedzieć się, co to za czynniki są i jak możemy je wykorzystać lub przechytrzyć. Jak każda nauka, analiza  SEO wymaga pytań, wątpliwości i dociekań. Ciekawość dziecka, żądza wiedzy i otwartość na wyzwania to podstawowe cechy specjalisty SEO.

To jest ciekawy paradoks SEO: z jednej strony wymaga od nas stawiania pytań, z drugiej zaś – nie gwarantuje żadnych pewnych odpowiedzi. Pozycjonowanie i walka z Google to ciągłe bazowanie na domysłach. Niektórzy domyślają się trafniej niż inni, co winduje ich na pozycję liderów. Najskuteczniejszym wstępem udanego szacowania reguł Google jest analiza statystyk, przede wszystkim zaś szukanie między nimi korelacji. Konieczne jest spojrzenie panoramiczne, wieloaspektowe, porównywanie i szukanie zależności. Tak pracują najlepsi.

Istnieje wiele popularnych teorii, którym można zawierzyć lub nie – dotyczy to na przykład wpływu popularności w social media na pozycjonowanie w wyszukiwarce. Dość częste jest myślenie, że wpływ ten jest bardzo poważny i bardzo pozytywny. Badacz SEO nie idzie jednak tropem takich ogólnych przekonań, tylko gromadzi dane i porównuje je, tak długo, aż uda mu się dostrzec, jak w rzeczywistości układa się współpraca między mediami społecznościowymi i Google. Samodzielne wysnucie wniosków i budowanie strategii na podstawie analizy SEO daje większe szanse na sukces niż spokojne dreptanie utartą ścieżką stereotypów.

Skuteczna analiza SEO – jak zacząć?

SEO to działanie na danych, które należy gromadzić i analizować. Dla wielu pierwszym skojarzeniem ze słowem „analiza” jest Excel i jest to bardzo dobre skojarzenie. Microsoft Excel to narzędzie jednocześnie proste i szalenie skomplikowane – wszystko zależy od tego, na jak zaawansowanym poziomie z niego korzystamy. Oczywistym jest, że im bardziej zaawansowany poziom, tym większy potencjał, dlatego warto zgłębić istotę i funkcjonalność arkuszy kalkulacyjnych. W sieci, ale też w realu, znaleźć można wiele kursów i podręczników, które uczą, jak z Excela wyciągnąć to, co najlepsze. Uwierzcie, pomaga uporządkować nawet największe ilości najbardziej różnorodnych danych. Warto pamiętać, że Excel to pomysł na porządkowanie danych, przydatne są jednak też narzędzia, które owe dane zbierają.

Kolejnym krokiem jest zrozumienie istoty tego, na czym działasz, czyli metryki i tego, czym w rzeczywistości są one dla strony.  Najlepszym sposobem na zbadanie tej sprawy jest przebrnięcie przez wiele stron i wiele metryk, tak, by ich idea i wartość stały się jasne.

Kiedy już wiesz, na czym pracujesz i jakie masz do tego narzędzia, możesz postawić pytania. Pytania są po to, by wiedzieć, które obszary są interesujące. Pytania są też po to, by przyniosły odpowiedzi, na których będzie można zbudować strategię działania. Pytanie nie może być ogólne, czyli nie pytamy (choć pytamy:)), jak mieć dobrą pozycję w wyszukiwarce. Znacznie lepszym pytaniem jest: „Jaki wpływ na pozycjonowanie ma posiadanie przez stronę mobilnej wersji?”.

Takie pytanie to punkt zaczepienia – od tej pory wiemy już, czego szukamy, jakie dane są nam potrzebne. Gromadzimy wszelkie możliwe informacje, z naciskiem na przeszukiwanie wyników wyszukiwania, a nie publikacji na branżowych blogach. Zbieramy materiał dowodowy, porównujemy, zestawiamy i już mamy pierwsze własne spostrzeżenia.

Następnym krokiem jest dobudowywanie pytań, na przykład o powiązanie mediów społecznościowych i pozycjonowania. Takie pytanie generuje kolejne przeszukania, porównania i zestawienia, na końcu dając nam wynik, który jest istotny nie tylko sam w sobie, ale jest już czynnikiem, którego wpływ na pozycjonowanie możemy porównać z innymi potencjalnymi czynnikami.

Świetną przykładową analizę w odniesieniu do swoich narzędzie przeprowadził SEMrush. Zbadane zostały powiązania między pozycjonowaniem stron a aktywnością wokół nich w mediach społecznościowych. Hipoteza badawcza brzmiała: „share’owanie poprawia statystyki”. Czy na pewno?

Metryki

Po użyciu kilku metryk (które przykładowo pokazuje estymację ruchu przychodzącego dla danego słowa kluczowego) okazało się , że korelacja miedzy share’owaniem treści a pozycjonowaniem strony wynosi jedynie 1%. Dla tych samych stron i aktywności sprawdzono jednak powiązania między aktywnościami społecznościowymi a rosnącą liczbą słów kluczowych, okazało się, że korelacja wynosi 59%, a to już jest solidna wartość. Jednocześnie nasuwa się wniosek, że każdy problem należy podejść z kilku stron, bo nie zawsze jedna prawdziwa odpowiedź jest wyczerpaniem tematu.

Google nieustannie utrzymuje, że aktywność w mediach społecznościowych nie wpływa bezpośrednio na algorytm. Specjaliści zgadzają się z tym założeniem. Korelacja na poziomie 70% występuje między liczbą domen linkujących a share’ami. Jak podaje Majestic SEO może wzrosnąć do 81% jeśli strona, do której linkujemy cieszy się zaufaniem Google. 76% wynika z korelacji między liczbą słów kluczowych a ilością linków pochodzących z zaufanych stron oraz udostępnień w social media.

Wnioski

Wszystko to prowadzi do prostego wniosku, że Google faworyzuje wzrastające ilości słów kluczowych i zaufane domeny. Powyższy wywód prosty i trafny, a przede wszystkim umiejetnie udowadniający, że warto każdą sprawę sprawdzić wszechstronnie.

Patrząc na te dane nasuwa się wniosek, że social shares i zaplecze jakościowych back-linków pomaga zdobyć dobrą pozycję. Dlatego jeśli tworzysz treść można stwierdzić, że kluczowe wskaźniki efektywności to podlinkowanie treści oraz „rozgłos” zdobyty w mediach społecznościowych.

Podsumowując: ciekawość i analityczny umysł (lub analityczny arkusz kalkulacyjny), jak najwięcej danych i jak najwięcej pytań stawianych tym danym to podstawa sukcesu każdego badacza SEO. Jeśli chcemy zajmować się pozycjonowaniem skutecznie i tworzyć dobrą analizę SEO, obudźmy w sobie ciekawość na wiosnę:).

 

Serwis przyjazny urządzeniom mobilnym – Google Mobile Friendly Update

User is a king – zdecydował Google niedawno, pozbawiając w ten sposób tronu władcę dotychczasowego – content. Sprawę wieszczyło już na początku roku wielu specjalistów SEO, czas zdaje się potwierdzać te domniemania. Nadeszła nowa epoka, gdy największą zaletą, jaką w oczach Google może mieć strona internetowa, jest wszechstronne zapewnienie wygody użytkownikowi – czyli serwis przyjazny urządzeniom mobilnym. Ma być szybko, sprawnie, wygodnie, intuicyjnie, przede wszystkim zaś strony mają być dostępne bez względu na to, czy user zamierza zwiedzać www za pomocą podarowanego na Pierwszą Komunię PC, służbowego laptopa, super sprawnego smartfona czy jakiegokolwiek innego urządzenia.

Oczywiście – wszystko to są w pewnym stopniu plotki, ponieważ decyzje Google często obwieszczane są z opóźnieniem lub wcale. Niekiedy zmiany wprowadzane są z zaskoczenia, czasem stopniowo. W znacznym stopniu specjaliści uprawiają więc swoiste wróżby, ewentualnie hazard, tak jak ja, kiedy staram się przewidzieć, które narzędzia SEO mogą być przydatne – tak jak robiłem to w ostatnim poście. W tym wypadku są jednak dowody potwierdzające przypuszczenia – Google udostępnił jakiś czas temu narzędzie pozwalające skontrolować, czy i jak strona funkcjonuje mobilnie. Od tej pory plotki dotyczące zainteresowaniem giganta z Mountain View tym aspektem funkcjonowania strony, zmieniły się w pewniaka. Sam Google zapowiada zmiany od końca kwietnia. Swoją drogą: narzędzie do badania mobilności nie jest doskonałe, ale trudno mu odmówić skuteczności. Polecam bliższe zaznajomienie z tematem – nie tylko dostajemy informację, że nie działamy mobilnie, ale też wskazówki, jaki zmiany są konkretnie potrzebne (np. rozmiar tekstu).

Jeszcze niedawno wielu specjalistów od SEO z lekceważeniem odnosiło się do statystyk dla stron mobilnych.  Nie było przewinieniem nie wiedzieć, że strona standardowa i mobilna mają w ogóle osobne rankingi. Pod koniec stycznia 2015 roku taką wiedzę posiadł już chyba każdy. Oczywiście wiedza nie wzięła się z komunikatu, tylko z nagłych i zaskakujących zmian statystyk. Na forach SEO, szczególnie zagranicznych, zapanował popłoch. Zlecieć z dnia na dzień z TOP10 na piątą stronę? Pod koniec stycznia takie zdarzenia były powszechne. Zresztą – przypadki gwałtownego awansu stron, które nawet administrator słabo kojarzył – też się zdarzały.

Wtedy cały świat SEO zrozumiał, że jeśli wersji mobile nie przewidywały plany na 2015, to właśnie zaczęły. Nie tylko wersja mobilna ma to znaczenie – chodzi o komfort użytkowania (UX – User Experience).  Google skoncentrował się na rynku mobilnym, który rozumieć należy jako łatwy, powszechny dostęp z dowolnego urządzenia – przede wszystkim mobilnego: smartfona, tabletu, itp. Dodatkowo ważne stało się tempo ładowania strony. Nagle treści zeszły na drugi plan, na pierwszy wysunęła się łatwość ich odnalezienia i czytania/oglądania. Czy to przypadek ? – nie sądzę w końcu Google to twórca najbardziej popularnego systemu operacyjnego wykorzystywanego na urządzeniach mobilnych [źródło: ranking.pl].

Na początku roku można było odnotować pierwsze symptomy zmian, na przykład w wynikach wyszukiwania pojawiły się oznaczenia „mobilefriendly”. Realizacji mobilności są dwa rodzaje: mobilna wersja strony lub aplikacja. Google raczej nie dyskryminuje żadnej z tych opcji – jeśli tylko użytkownicy mobilnych urządzeń mogą korzystać wygodnie z Twoich treści, Google jest zadowolony.

Można myśleć, że sprawa jest wydumana – chociaż nie oszukujmy się – to uzasadniony postępem technologicznym znak czasów. Można mówić, że ta niewielka zmiana zbyt dużo nie zepsuje. Wystarczy jednak sobie wyobrazić, co to będzie dla statystyk strony, a co za tym idzie – dla np. zysków firmy – jeśli okaże się, że w pewnym sensie nieuprzejmie traktujemy 30% klientów. Tyle właśnie może trafiać do nas mobilnie. Jeśli nie będziemy na nich przygotowani – Google uprzejmie skieruje ich na inną, bardziej przyjazną stronę.

Brzmi strasznie? Polecam sklikanie narzędzia Google, zapoznanie się ze wskazówkami i rozsądny plan zmian ASAP. Od razu będzie Wam się lepiej spało.

Najlepsze narzędzia SEO online 2015

Dobry analityk SEO wie jak wykorzystać istniejące narzędzia do analiz i odpowiedzi na pytanie – czego Google wymaga od konkretnej strony. To ciężka praca ponieważ przed specjalistami SEO Google stawia wciąż nowe wymagania. Oczywiście specjaliści nie spodziewają się rewolucji – jednak gigant z Mountain View wciąż ma przede wszystkim na uwadze dobro odbiorców treści prezentowanych w sieci. Jak wynika z mniej lub bardziej oficjalnych, ostatnich plotek – nacisk na „wartościowe, unikalne treści” powoli staje się coraz lżejszy, znaczenia zaś nabiera komfort użytkowania strony. na łaskawość Google liczyć będą mogły strony działające też na urządzeniach mobilnych, dbające o bezpieczeństwo internautów (https://), nawigowane intuicyjnie i  szybko podające oczekiwane przez Internautów treści.

Nowe wymagania Google zmuszają nas do sięgnięcia po nowe narzędzia SEO online (a tych w 2015 roku zapowiada się sporo) oraz do świeżego spojrzenia na rozwiązania już znane. Przegląd nowości i niezbędnych klasyków przeprowadziłem już rok temu – sporo moich typów potwierdziło skuteczność, trudno więc odmówić sobie przyjemności ponownego sondowania rynku.

Niektóre narzędzia nadają się świetnie do przeprowadzania analiz, inne najlepiej raportują, jeszcze inne są niezastąpione przy analizach linkowania. Są jednak rozwiązania, które nadają się do wszystkiego, są niezwykle wszechstronne i samowystarczalne i tak jak rok temu przywołać muszę w tym miejscu złoty Graal SEO-wców – MOZa. Nie oszukujemy się, nie znajdziemy raczej żadnego rankingu narzędzie SEO bez tego zawodnika. Wart odnotowania z MOZowej stajnie jest chociażby Open Site Explorer, całkiem zgrabne rozwiązanie dla użytkowników spragnionych dogłębnych analiz linków.

Inna sprawa, którą trzeba mieć na oku: rosnąca moc Twittera. Wiesz, że coś się dzieje, ale nie wiesz do końca co, a przede wszystkim – co z tym zrobić dla dobra Twojej strony? MOZ ma na to narzędzie: Followerwonk. Miejcie na uwadze Twittera, rośnie w siłę, warto mieć w nim sojusznika. Ciekawym rozwiązaniem w zakresie dbania o swoje interesy w mediach społecznościowych jest Sprout Social. Interakcja to zjawisko lubiane przez Google, więc Twoja strona powinna być ulubieńcem wszelkich Facebooków i siedliskiem wszystkich możliwych społecznościowych wtyczek, dlatego warto mieć pomoc w rozsądnym zarządzaniu kampaniami. Google ofcjalnie twierdzi, że social media nie mają wpływu na pozycjonowanie, ale nie oszukujmy się – pośrednio mają. Dlatego nie można sobie pozwolić na lekceważenie w tej sprawie.

Innym klasykiem, który warto mieć pod ręką, jest SEMrush.com. Pozwala zajrzeć wszędzie tam, dokąd nie zaprowadzi nas Google Analytics. Skoro o tym podstawowym rozwiązaniu mowa – Google często ze sporym opóźnieniem komunikuje zmiany, jednak sygnały – i to całkiem czytelne – daje na bieżąco. Tak było choćby z zakładką „Obsługa na urządzeniach przenośnych” w Narzędziach Google dla webmasterów. Nagle stało się jasne, że mobilność w SEO ma znaczenie. Trudno tylko powiedzieć, czy duże, ogromneczy jeszcze znikome.

Trudno się nie zgodzić z tymi, którzy do działań analitycznych polecają Majestic SEO. Wystarczy zajrzeć do ich listy dostępnych narzędzi, żeby zrozumieć, że potrafią sprawdzić i zbadać wszystko. Nawet to, o czym nigdy byś nie pomyślał, zastanawiając się nad czynnikami mającymi wpływ na Twoją stronę: linki, adresy, domeny, otoczenie. Odnotują, zbadają, dostarczą informacje.

Jeśli komuś sen z powiek spędza wizja zduplikowanego contentu – a powinna, bo to jeden z najsilniejszych alergenów Google, powinien sięgnąć po odpowiednią broń. Wart polecenia na takie okazje jest Siteliner czy Sitechecker. Dobrze jest też mieć Screaming Froga, który umożliwia gruntowne sprawdzenie serwisu oraz wszystkich jego podstron (nagłówki, title i description, linkowanie wewnętrzne, canonicale oraz przekierowania). Jak wspominałem na początku, użytkownikowi ma być u nas wygodnie, trzeba więc sprawdzać, czy wszystko działa jak powinno.

Na liście czynników budujących komfort internauty, a więc wpływających na naszą pozycję w wynikach wyszukiwania, wymieniłem prędkość ładowania strony. Jak sprawa ta wygląda w przypadku naszej strony – sprawdzić to można szybko, łatwo i za darmo. Niech to będzie w tym roku jeden z ważniejszych adresów: PageSpeedInsights.

Podsumowując, dzięki użyciu powyższych narzędzi SEO Wasz serwis ma duże szanse dobrze zaprezentować się przed Google-em …

Mądre maszyny – narzędzia marketingu

Pamiętacie jeszcze o Big Data? Na pewno pamiętacie, trudno o tym obecnie zapomnieć. jeśli komuś się przydarzyła jednak informacyjna luka – polecam moje wyjaśnienia dotyczące tych niewyobrażalnych ilości danych, które bez przerwy pojawiają się w Internecie oraz tego, co można z nimi zrobić.

Big Data operuje na dużej ilości danych o różnej wartości – często niezwykle interesujących dla marketerów jako źródło wiedzy na temat klientów. Jak jednak wykorzystać tę wiedzę, jak ją zanalizować w czasie rzeczywistym, czyli tak, by mieć gotową odpowiedź, gdy tylko pojawi się zapytanie czy wyrażona aktywnością internetową potrzeba klienta? Człowiek jest tu zupełnie bezradny – w przeciwieństwie do maszyn, które bezustannie się uczą. Maszyny uczące się, czyli machine learning, to temat mojego ostatniego postu. Dziś zamierzam przybliżyć Wam zastosowanie uczenia maszynowego w marketingu.

Wbrew pozorom, mądrzejsze maszyny nie przełożą się — przynajmniej w najbliższym czasie – na redukcję pracowników „ludzkich”. Ucząca się maszyna – tak jak każda inna – przeglądów, doskonalenia i obsługi – osiągnięcie spektakularnych efektów jest możliwe po zintegrowaniu odpowiednich procesów, ludzi, treści, danych i informacji. Natychmiastowe korzyści wypływające z automatyzacji marketingu wyraźnie polepszają wydajność, elastyczność i kreatywność w obrębie całej firmy.

Co nam daje maszyna, która bezustannie zbiera i analizuje dane?

Dzięki takiemu rozwiązaniu szybciej, sprawniej i skuteczniej poznajemy klientów. Dowiadujemy się, kto i w jaki sposób do nas trafił, jak korzysta z serwisu i na jakiej płaszczyźnie można/należy zoptymalizować kampanie marketingowe.  Wyniki pracy maszyny pozwalają zbudować strategię i nawiązać kontakt z klientem, wtedy, kiedy on tego rzeczywiście potrzebuje i oczekuje.  Paradoksalnie, udział maszyny w komunikacji z klientem pozwala na budowę osobistej relacji – często przecież podstawą kontaktu są dane wrażliwe, które potencjalny klient ujawnia w sieci.

Wykorzystanie wiedzy maszyn pozwala maksymalne sprzężenie działań wszystkich działów firmy (z naciskiem na sprzedaż) i podniesienie efektów. innowacyjność, kreatywność, komunikatywność, umiejętność szybkiego przyswajania wiedzy, zdolności analityczne – brzmi jak opis idealnego pracownika? Dodajemy do tej wyliczanki „niskie koszty eksploatacji” i już wiemy, dlaczego maszyny uczące są ważnym elementem zespołu. „Kreatywność” może budzić pewne wątpliwości – w końcu omawiamy zalety maszyny. Pamiętać należy, że odpowiednia aplikacja czy oprogramowanie to coś w rodzaju pracownika działu. Jeśli aplikacja zajmuje się przewidywalnymi, powtarzalnymi zadaniami – na przykład przypomina klientom o terminach spotkań, pozostali, żywi członkowie załogi mają czas na obowiązki wymagające większej elastyczności, pomysłowości, natchnienia. Wkład maszyny w pracę działu marketingu najlepiej jest rozpatrywać właśnie przez pryzmat jej wkładu w funkcjonowanie całej komórki, czy nawet firmy.

Warto zwrócić uwagę na kilka narzędzi marketingu, które ułatwiają działania marketingowe i wykorzystują do tego machine learning:

SAS – środowisko stworzone przez SAS Institute. Nazwa pochodzi od angielskiego Statistical Analysis System.

Funkcjonalność obejmuje m.in.:

  • import i przetwarzanie danych, wyszukiwanie informacji, zarządzanie danymi oraz eksploracja danych,
  • generowanie raportów i grafiki,
  • analizę statystyczną,
  • niezależność od platformy systemowej, możliwość prowadzenia zdalnych obliczeń.

SAS jako środowisko programistyczne umożliwia programowanie w różnych językach, w zależności od potrzeb:

  • SAS 4GL – najpopularniejszy język w środowisku SAS
  • SQL – język zapytań do baz danych
  • SCL (Screen Control Language) – budowa aplikacji okienkowych w środowiskach graficznych, np. Windows, XWindow
  • makra
  • możliwość integracji z językami C, COBOL, FORTRAN, PL/I, IBM assembler

IBM Predictive Customer Intelligence personalizuje kontakt z klientem, przedstawiając rekomendacje oparte na zachowaniach zakupowych, aktywności internetowej (w tym społecznościowej) oraz innych czynnikach unikalnych dla konkretnego użytkownika. Zasada działania jest prosta: programowanie w sposób zautomatyzowany zbiera informacje z różnych źródeł wewnętrznych i zewnętrznych oraz modeluje zachowania klientów. Następnie przeprowadza ocenę alternatywnych możliwości i proponuje najlepsze działanie, jakie można podjąć na danym etapie interakcji z klientem — tak, aby proponować trafne oferty właściwym klientom w najlepszym do tego czasie.

IBM Predictive Customer Intelligence realizuje następujące funkcje:

  • Analizy predykcyjne, które pomagają w przewidywaniu zachowań poszczególnych klientów.
  • Zarządzanie procesami decyzyjnymi mające na celu przekształcenie oceny modelu predykcyjnego w rekomendację działania.
  • Oceny w czasie rzeczywistym pozwalające generować i aktualizować prognozy na żądanie.
  • Optymalizacja uwzględniająca więcej niż jedną kampanię z myślą o podejmowaniu jak najkorzystniejszych decyzji dotyczących poszczególnych klientów.
  • Segmentacja klientów w oparciu o wartość w całym okresie trwania relacji — służąca klasyfikacji i zatrzymywaniu klientów.

RapidMiner dostarcza oprogramowanie, rozwiązania i usługi w dziedzinie zaawansowanych analiz, w tym analiz predykcyjnych, data mining i text mining. Pozwala automatycznie i inteligentnie analizować dane – w tym baz danych i tekstu – na dużą skalę. Nasza technologia pozwala firmom na wykonanie przy użyciu inteligentnych decyzji biznesowych oraz działań opartych na metodzie prognozowania. Flagowym produktem jest RapidMiner 4.0, najczęściej stosowana do zaawansowanej analityki platforma na rynku. Setki tysięcy aplikacji są już używane w ponad 50 krajach, zarówno jako samodzielne aplikacje, jak i silniki zintegrowane z własnymi produktami klientów; daje to silną przewagę konkurencyjną. Trudno nie wierzyć w to rozwiązanie, skoro wiemy, że zaufały mu firmy takie jak: EADS GfK, Lufthansa, PayPal, Pepsi, Sanofi, Siemens, Telenor i Volkswagen.

STATISTICA – zintegrowany pakiet oprogramowania statystycznego i analitycznego wydany przez firmę StatSoft. STATISTICA daje szeroki wybór procedur analizy i zarządzania danymi, zapewnia także wizualizację wyników analizy oraz generowanie raportów.

  • 1991. Pierwsza, DOSowa wersja programu STATISTICA. Nowa, zorientowana graficznie linia programów statystycznych została wydana w marcu 1991.
  • 1992. Wersja programu STATISTICA dla komputerów Macintosh
  • 1993. Wersja programu STATISTICA dla systemu Microsoft Windows
  • 1994-1998. Program STATISTICA w wersjach – 4.0, 4.5, 5.0, 5.1 oraz wydania ’97 i ’98
  • 2001. Nowa generacja pakietu STATISTICA. Wydanie wersji 6 programu STATISTICA opiera się na architekturze COM i korzysta z nowych technologii, takich jak wielowątkowość i wsparcie dla przetwarzania współbieżnego.
  • 2002-2004. Wprowadzanie rozwiązań wykorzystujących rozproszone realizowanie zadań oraz rozwiązań bazujących na interfejsie przez WWW.

Cztery narzędzia marketingu  – to tylko dobry początek. W tej dziedzinie wiele się dzieje, jeszcze więcej będzie się działo z czasem. Obserwujemy:)

Machine learning – samodoskonalenie z problemami

Oglądaliście film „Ona” („Her„) Spike’a Jonza? Jeśli nie – polecam. Fascynująca historia miłości człowieka i systemu komputerowego mówiącego głosem Scarlett Johansson. Wzruszający zapis rozwoju maszyny, która uczy się bycia człowiekiem w najbardziej ludzkim obszarze – uczuć i emocji. Brzmi jak science-fiction w opcji romantycznej, trąca rojeniami na temat sztucznej inteligencji, które rozgrzewały wyobraźnię w latach 90? Trochę na pewno, jednak pamiętać należy, że maszyny uczące się (czy uczenie maszyn – machine learning) to nie jest już tylko filmowa fikcja. Od lat 90. zmieniło się sporo.  Skoro o filmach mowa – faktów poszukać można w „Najmądrzejszej maszynie na świecie” – dokumentalnym wprowadzeniu w świat maszyn, które mogą być mądrzejsze niż ludzie.

Machine learning to stosunkowo młoda dziedzina interdyscyplinarna zajmująca się sztuczną inteligencją. Interdyscyplinarność oznacza tu styk robotyki, informatyki i statystyki. Głównym jej celem jest stworzenie automatycznego systemu potrafiącego doskonalić się przy pomocy gromadzonego doświadczenia (czyli danych) i nabywania na tej podstawie nowej wiedzy, czyli ciągły rozwój wynikający z nieustannego przetwarzania informacji i wyciągania z nich wniosków.

Uczenie maszynowe dotyczy głównie ewoucji oprogramowania stosowanego zwłaszcza w innowacyjnych technologiach i przemyśle. Odpowiednie algorytmy mają pozwolić oprogramowaniu na zautomatyzowanie procesu pozyskiwania i analizy danych do ulepszania i rozwoju własnego systemu. Uczenie się może być rozpatrywane jako konkretyzacja algorytmu, czyli dobór parametrów, nazywanych wiedzą lub umiejętnością. Służy do tego wiele typów metod pozyskiwania oraz reprezentowania wiedzy. Jeśli słysząc „algorytm” natychmiast myślicie „Google” to macie rację – kolejne, coraz bardziej zaawansowane algorytmy tej wyszukiwarki to po prostu kolejne etapy rozwoju wynikającego z odpowiedniego zastosowania zgromadzonej wiedzy.

Jakie może mieć to zastosowanie? Coraz mądrzejsze maszyny to większa efektywność, wydajność i bezawaryjność oraz redukcja kosztów. Czyli warto.

machine learning

W ogólnym schemacie uczenia się mamy do czynienia z systemem uczącym się i środowiskiem, w którym system musi się dynamicznie dostosowywać do zmieniających się warunków (np. systemy sterowania). Nie da się w tych warunkach uniknąć problemów, które są złożone i trudne do opisu. Często nie ma wystarczających modeli teoretycznych albo ich uzyskanie  jest zbyt kosztowne czy mało wiarygodne.

Uczenie maszynowe przynieść ma konkretne skutki:

  • tworzenie nowych pojęć
  • wykrywanie nieznanych prawidłowości w danych
  • formułowanie reguł decyzyjnych
  • przyswajanie nowych pojęć i struktur przy pomocy uogólnienia i analogii
  • modyfikowanie, uogólnianie i precyzowanie danych
  • zdobywanie wiedzy poprzez interakcję z otoczeniem
  • formułowanie wiedzy zrozumiałej dla człowieka

W praktyce oznacza to rozwiązania takie jak:

  • oprogramowanie do rozpoznawania mowy:
    • automatyczne tłumaczenie
    • rozpoznawanie mowy ludzkiej
    • dyktowanie komputerowi
    • interfejsy użytkownika sterowane głosem
    • automatyzacja głosem czynności domowych
    • interaktywne biura obsługi
    • rozwój robotów
  • automatyczna nawigacja i sterowanie:
    • kierowanie pojazdem (ALVINN)
    • odnajdywanie drogi w nieznanym środowisku
    • kierowanie statkiem kosmicznym (NASA Remote Agent)
    • automatyzacja systemów produkcji i wydobycia (przemysł, górnictwo)
  • analiza i klasyfikacja danych:
    • systematyka obiektów astronomicznych (NASA Sky Survey)
    • rozpoznawanie chorób na podstawie symptomów
    • modelowanie i rozwijanie terapii lekowych
    • rozpoznawania pisma na podstawie przykładów
    • klasyfikowanie danych do grup tematycznych wg kryteriów
    • aproksymacja nieznanej funkcji na podstawie próbek
    • ustalanie zależności funkcyjnych w danych
    • przewidywanie trendów na rynkach finansowych na podstawie danych mikro i makro ekonomicznych

Jeszcze bardziej praktycznie? Przywołajmy Cleverbota.

Cleverbot to aplikacja internetowa, która rozmawia z ludźmi. Chatbota stworzył Rollo Carpenter (razem z podobną aplikacją internetową, Jabberwacky). Wraz ze współpracownikami odbył z nim kilkanaście tysięcy rozmów w pierwszej dekadzie jego działania. Od momentu udostępnienia w Internecie w 1997 liczba rozmów przekroczyła 150 milionów. Cleverbot jest też obecnie aplikacją dostępną za 0,99 USD. Inaczej niż w przypadku innych chatbotów, odpowiedzi Cleverbota nie są zaprogramowane. Zamiast tego „uczy się” on na podstawie danych uzyskanych od ludzi, którzy piszą w polu pod logiem Cleverbota, a system znajduje słowa kluczowe lub całe frazy pasujące do danych wejściowych. Po przeszukaniu zebranych rozmów udziela odpowiedzi opartej o to, co ludzie odpowiedzieli na tę treść, kiedy to Cleverbot ją napisał. Cleverbot brał udział w formalnym teście Turinga w czasie festiwalu Techniche w Indian Institute of Technology Guwahati 3 sierpnia 2011. Na podstawie 334 głosów został uznany za ludzkiego w 59,3% (ludzie uzyskali w tym teście 63.3%). Wynik 50.05% lub więcej jest często uznawany za zaliczenie testu. Oprogramowanie obsługiwało w czasie testu tylko 1 lub 2 jednoczesne pytania, a w internecie Cleverbot rozmawia z 10 000 ludzi na raz.

Za mało przykładów? ASIMO, czyli Zaawansowany Postęp w Innowacyjnej Mobilności to humanoidalny robot pokazany światu 31 października 2000 roku. Stworzyła go Honda i wbrew powszechnemu mniemaniu, nie uczciła (podobno) nazwą pisarza science fiction Isaaca Asimova. ASIMO jest jedenastym udanym modelem dwunożnego robota. Uważany jest za jeden z najbardziej rozwiniętych technicznie chodzących robotów na świecie. Projekt rozwijał się od roku 1986, kiedy to stworzono pierwszy model E0. ASIMO może chodzić do przodu, do tyłu, w bok, biegać, omijać przeszkody, zawracać i wchodzić w interakcję z otoczeniem. Celem producenta jest stworzenie robota, który będzie pomocny w codziennym życiu człowieka.

Tak wygląda ten przystojniaczek. Czy scenariusz „Her” wciąż wydaje Wam się nierealny?

robo

Jak uczy się maszyna? Uczenie maszynowe i jego powodzenie zależą od wyboru odpowiedniej metody formułującej problem, zbioru uczącego (czyli doświadczeń) oraz sposobu uczenia się nowych pojęć.

Metody maszynowego uczenia się:

  • wnioskowanie wartości funkcji logicznej z przykładów
  • uczenie drzew decyzyjnych (ang. Decision Tree Learning) – drzewo decyzyjne to graficzna metoda wspomagania procesu decyzyjnego, stosowana w teorii decyzji. Algorytm drzew decyzyjnych jest również stosowany w uczeniu maszynowym do pozyskiwania wiedzy na podstawie przykładów. Jest to schemat o strukturze drzewa decyzji i ich możliwych konsekwencji. Zadaniem drzew decyzyjnych może być zarówno stworzenie planu, jak i rozwiązanie problemu decyzyjnego. Metoda drzew decyzyjnych jest szczególnie przydatna w problemach decyzyjnych z licznymi, rozgałęziającymi się wariantami
  • uczenie Bayesowskie (ang. Bayesian Learning) – metody oparte na twierdzeniu sformułowanym przez XVIII-wiecznego matematyka Thomasa Bayesa odgrywają znaczną i ostatnio rosnącą rolę w dziedzinie sztucznej inteligencji, zwłaszcza w uczeniu się maszyn. Można ogólnie powiedzieć, że wzór Bayesa stał się podstawą do rozwoju teorii i algorytmów różnych form wnioskowania probabilistycznego.
  • uczenie z przykładów (ang. Instance-based Learning) – w odróżnieniu od metod uczenia, które konstruują ogólny, tzw. jawny opis funkcji docelowej, który dostarcza dane uczące, uczenie tego typu po prostu zapamiętuje przykłady. Uogólnianie nad tymi przykładami jest odwlekane do czasu, aż nowy przykład (zadanie) ma być klasyfikowane. Za każdym razem, kiedy przychodzi nowe zapytanie (przykład), badane są jego powiązania z zapamiętanymi już przykładami, aby ustalić wartość docelowej funkcji nowego przykładu.
  • uczenie się zbioru reguł (ang. Learning Sets of Rules) – zbiór reguł w postaci klauzul Hornowskich może być interpretowany jako program w np. języku Prolog
  • analityczne uczenie (ang. Analytical Learning) – metody uczenia indukcyjnego (wykorzystują sieci neuronowe, drzewa decyzyjne), wymagają pewnej liczby przykładów aby osiągnąć pewien poziom uogólnienia. Analityczne uczenie stosuje wiedzę aprioryczną i wnioskowanie dedukcyjne do powiększania informacji dostarczanej przez przykłady uczące.
  • połączenie indukcyjnego i analitycznego uczenia (ang. Combining Inductive and Analytical Learning) – czyste indukcyjne uczenie formułuje ogólne hipotezy poprzez znalezienie empirycznych regularności w przykładach uczących. Natomiast czyste analityczne uczenie stosuje aprioryczną wiedzę do otrzymania ogólnych hipotez dedukcyjnie. Połączenie obu podejść daje korzyści: lepszą poprawność i trafność uogólniania gdy dostępna jest wiedza aprioryczna oraz szukanie zależności w obserwowanych danych uczących do wypracowania szybkiej wiedzy apriorycznej.
  • uczenie przez wzmacnianie (ang. Reinforcement Learning) – uczenie przez wzmacnianie to metoda wyznaczania optymalnej polityki sterowania przez agenta w nieznanym mu środowisku, na podstawie interakcji z tym środowiskiem. Jedyną informacją, na której agent się opiera jest sygnał wzmocnienia (poprzez wzorowanie się na pojęciu wzmocnienia z nauk behawioralnych w psychologii), który osiąga wysoką wartość (nagrodę), gdy agent podejmuje poprawne decyzje lub niską (karę) gdy podejmuje decyzje błędnie.

Wszystko to brzmi dobrze, ale problemów nie brakuje i jak na razie są one poważne:

Poza etapem tworzenia systemu powstają następujące problemy:

  • zbyt mała lub zbyt duża zależność systemu od środowiska, w którym się znajduje co może prowadzić do niepełnej analizy danych lub błędnej interpretacji
  • wiarygodność i poprawność generowanych wniosków, według Poppera „wiedza zdobyta w wyniku obserwacji ma charakter jedynie domyślny”, a rozumowanie indukcyjne nie może być w pełni udowodnione, a jedynie sfalsyfikowane
  • niekompletne lub częściowo sprzeczne dane
  • niezdefiniowanie ograniczeń dziedzinowych, może prowadzić do zbyt daleko idących uogólnień i błędnych wniosków

W związku z powyższymi problemami przyjęto następujące postulaty, które wiedza generowana przez systemy powinna spełniać:

  • wiedza generowana przez system powinna podlegać kontroli i ocenie człowieka, według podanych przez niego kryteriów
  • system powinien być zdolny do udzielenia wyjaśnienia w przypadku problemu
  • wiedza powinna być zrozumiała dla człowieka, czyli wyrażalna w opisie i modelu myślowym przez niego przyjętym

Jaki etap rozwoju – wbrew tym problemom – osiągnęło uczenie maszynowe i w jaki sposób znajduje ono zastosowanie w marketingu? O tym już w następnym odcinku:)

Neuromarketing, czyli co kieruje naszymi decyzjami

Przebieg procesu decyzyjnego klienta to jedno z zagadnień najbardziej interesujących marketingowców. Jak szybko i pod wpływem jakich czynników zapadają decyzje zakupowe? Co przesądza o atrakcyjności towaru lub usługi? Te pytania są ważne dla każdego sprzedawcy, najważniejsze jednak jest to, w jaki sposób na te decyzje wpływać, jak nimi kierować, jak kreować potrzeby?

Odpowiedzi na to szuka neuromarketing, czyli dziedzina nauki, której celem jest znalezienie odpowiednich narzędzi i algorytmów pozwalających zajrzeć w umysły kupujących, namierzenie swoistego ośrodka decyzyjnego. Neuromarketing pozwala na sprawną analizę obserwacji oraz czytelną prezentację wyników.

Patrick Renvoisé, współzałożyciel firmy SalesBrain San Francisco, zdefiniował neuromarketing następująco: „To nauka o tym, jak ludzie używają mózgu do podejmowania decyzji – która wykorzystuje nowe narzędzia, aby spojrzeć na to co dzieje się w głowach konsumentów”.

Jedno jest pewne: klient podejmuje decyzje kierując się emocjami, a nie świadomym myśleniem. Decyzje już podjęte tłumaczy sobie w sposób racjonalny.

Automatyzacja neuromarketingu to proces wprowadzania do badań neuromarketingowych maszyn oraz programów zbierających oraz przetwarzających dane np. biometryczne. Pozwala na sprawną analizę obserwacji oraz czytelną prezentację wyników. Jej wysoka istotność spowodowana jest możliwością zebrania dodatkowych danych, które często bez pomocy komputera nie byłyby możliwe do opisania.

Badanie ludzkiego mózgu – to nie  tylko fraza jak z horroru wątpliwej klasy, ale też poważny obszar działań naukowych. Polegają one na obserwacji procesów zachodzących w ludzkim mózgu w rzeczywistym kontakcie z reklamą lub produktem.

Mózg człowieka składa się z trzech warstw: pierwszej – odpowiadającej za podejmowanie decyzji, drugiej – odpowiadającej za emocje oraz trzeciej – odpowiadającej za myślenie logiczne i dedukcję. Oddziaływanie na pierwszą z nich może przynieść sukces przedsiębiorcy.

Techniki stosowane do badań ludzkiego mózgu dzielimy na kilka rodzajów.

Techniki neuroobrazowania:

– tomografia komputerowa,

– pozytonowa tomografia emisyjna (PET),

– tomografia emisyjna pojedynczego fotonu (SPECT),

– dyfuzyjna tomografia optyczna (DOT),

– przezczaszkowa stymulacja magnetyczna (TMS),

– rezonans magnetyczny (MRI),

– funkcjonalny rezonans magnetyczny (fMRI).

Techniki oparte na pomiarze elektrycznej i magnetycznej aktywności mózgu:

– elektroencefalografia (EEG),

– potencjały wywołane – technika ERP,

– magnetoencefalografia (MEG),

– technika jednoczesnego pomiaru EEG i fMRI.

Ważną kwestią dotyczącą neuromarketingu jest kontrowersyjne skojarzenie go z manipulacją umysłem konsumenta. Autorzy badań zapewniają, że nie mają zamiaru pozbawiać człowieka wolnej woli, która jest niezbywalnym składnikiem naszego człowieczeństwa. Nie jest do końca uspokajające ponieważ wiadomo, że wyniki badań naukowych mają służyć nie tylko lekarzom i psychologom, ale również szefom wielkich korporacji, którzy nastawieni są głównie na zysk.

Badanie mimiki twarzy – dużo (informacji), tanio i szybko – takie metody badawcze lubimy najbardziej. Polega ono na analizowaniu twarzy klienta oglądającego reklamę pod kątem symptomów określających jego emocje (np: uśmiech, szeroko otwarte oczy, uniesione brwi). Oczywiście sprawa jest dość ryzykowna, bo zdarzają się twarze bez wyrazu i inne pokerowe zagrywki.

W algorytmach można wyszczególnić trzy podejścia ze względu na sposób opisu twarzy: twarz jako jeden spójny obiekt, twarz jako zbiór cech odpowiadających opisowi poszczególnych jej elementów (nos, oczy, brwi, usta itd.) oraz połączenie tych technik.

Przykładowe kombinacje mimiczne górnej części twarzy:

ispro_jpg2

Eyetracking – bardziej zaawansowane, pogłębione, bardziej wiarygodne, ale wymagające też odpowiednich technologii badanie okulograficzne. Polega ono na śledzeniu ruchu gałek ocznych klienta oglądającego reklamę. Wskazuje, które elementy, w jakiej kolejności i jak długo były oglądane przez badanego, co w oczywisty sposób ujawnia, co było mniej, a co bardziej interesującego. Pozwala to na opracowanie reklam, ale też całych stron internetowych, zwracających uwagę grupy docelowej, implementujących w świadomości oglądającego pożądane informacje i skojarzenia, komunikujących odpowiednie treści.

Metody pomiaru ruchów oczu:

–  elektrookulografia,

– okulografia refleksyjna,

– metoda cewki probierczej,

– wideookulografia.

Sposoby prezentacji wyników badań okulograficznych:

– mapy cieplne (heat maps, hot spots) i mapy uwagowe (focus maps),

– ścieżki wzroku (gaze plots),

– obszary zainteresowań AOI (areas of interest).

Techniki biometryczne:

– biometria tęczówki oka (iris recognition),

– biometria siatkówki oka (retina recognition),

– biometria układu żył (vein recognition),

– biometria dłoni (hand and finger geometry),

– biometria twarzy (face recognition),

– biometria linii papilarnych palca (fingerprint recognition),

– biometria głosu (voice verification, speaker identification),

– biometria podpisu odręcznego (sign verification, sound signature technology, SignHear),

– rozpoznawanie chodu (gait recognition, gait signature),

– dynamika naciskania klawiszy na klawiaturze (keystroke dynamics),

– rozpoznawanie ucha (ear recognition),

– rozpoznawanie ruchu oka (eye-movements recognition).

ispro_jpg

Neuromarketing jak każda dziedzina nauki, którą przeliczyć można na konkretne pieniądze pochodzące z zastosowania jej wyników, rozwija się szybko. Mimo że z naukowego punktu widzenia nie ma zgodności co do rzetelności pomiarów neuromarketingowych, gdyż nie wiadomo, co powinno być warunkiem kontrolnym, zastosowanie eyetrackingu i podobnych technik jako narzędzi służących do optymalizacji strony internetowej nie powinno już nikogo dziwić. Zadziwić nas mogą ewentualnie kolejne kroki, odkrycia i coraz bardziej zaawansowane techniki zaglądania w umysły:).

Mobilny system CRM

Żyjemy w czasach bezustannej komunikacji, co spowodowane jest przede wszystkim rozwojem technologii mobilnych. Smartfony czy tablety, które szturmem zdobyły większość torebek, aktówek, kieszeni i dłoni, gwarantują nam dostęp do wszystkiego w każdej chwili. Poręczne urządzenie, szybki Internet i proszę bardzo – na wyciągnięcie dłoni jest Facebook ze wszystkimi dalszymi i bliższymi znajomymi, skrzynka mailowa, zasoby sieci od horoskopów, przez newsy ze świata polityki i finansów, po przepis na naleśniki. Skype przez ocean z dowolnego punktu miasta, ławki w parku, kolejki w spożywczym? Ze smartfonem nie jest to żaden problem. Urządzenia mobilne to jednak nie tylko doskonałe uprzyjemniacze czasu, pogromcy nudy w korkach czy sposób na komunikowanie z najbliższymi. To też proste i niezwykle efektywne narzędzie biznesowe.

crm

 

Jak wynika z tego prostego schematu, podstawą sukcesu w biznesie jest skuteczne zarządzanie kontaktami, czyli CRM (Customer Relationship Management).

Z uwagi na charakterystykę CRM możemy wyróżnić kilka jego modyfikacji:

eCRM – CRM ulokowany w Internecie – elektroniczne zarządzanie relacjami z klientami,

ECRM – program CRM obejmujący ogólnoorganizacyjny przegląd klientów,

PRM – zarządzanie relacjami z partnerami,

cCRM – zarządzanie sytuacjami, w których klienci mają możliwość bezpośredniej interakcji z firmą, zazwyczaj przez Internet,

SRM – zarządzanie relacjami z dostawcami,

mCRM– „przenośny CRM”, przekazywanie informacji klientom, dostawcom i partnerom handlowym za pośrednictwem technologii bezprzewodowych.

Tę uproszczoną charakterystykę i podział CRM należy szybko połączyć ze wstępem dotyczącym technologii mobilnych, bo ze spotkania tych dwóch spraw biorą się zadowoleni klienci, a więc żywe pieniądze.

mCRM gwarantuje nieprzerwany i niezależny od czasu i miejsca dostęp do korporacyjnych informacji.

Mobilny CRM jest instrumentem do bieżącej, codziennej interakcji klienta z firmą. Jest on definiowany jako zestaw narzędzi ułatwiający zarządzanie relacjami z klientami, dostawcami i partnerami, z wykorzystaniem technologii bezprzewodowych. Pozwala on pracownikom terenowym czy handlowcom korzystać w dowolnym czasie i miejscu z w pełni funkcjonalnego systemu CRM poprzez urządzenia mobilne, takie jak PDA, telefony komórkowe, dwukierunkowe pagery, komputery przenośne itp.

Podstawą koncepcji mCRM są następujące założenia:

1.  Komunikacja ma na celu budowanie i utrzymywanie relacji między firmą a jej klientami.

2.  Komunikacja dotycząca obszaru sprzedaży, marketingu i obsługi, prowadzona jest za pomocą urządzeń mobilnych.

3.  Komunikacja może być zainicjowana albo przez firmę, albo przez klienta.

4.  Komunikacja może odbywać się poprzez SMS (short message service), MMS (multimedia service), aplikacje i przeglądarki internetowe.

5.  Jedną ze stron procesu komunikacji musi być człowiek (wyposażony w urządzenie mobilne).

6.  Urządzenie mobilne jest traktowane jako komplementarny kanał dla działań CRM, a nie jako substytut kanału tradycyjnego.

mCRM to wyzwanie dla programistów, ponieważ jego podstawą powinna być sprawna i wielofunkcyjna aplikacja. Typowa aplikacja mCRM opiera się na architekturze webowej i umożliwia klientowi samoobsługę w zakresie dostępu do informacji, pomocy na życzenie oraz możliwości uzyskania wsparcia ze strony pracownika firmy. Powinna ona nie tylko zawierać standardowe informacje asortymentowe i korporacyjne ze strony WWW, ale również udostępniać klientowi możliwość samodzielnej realizacji podstawowych działań, takich jak zakup produktów lub usług, złożenie reklamacji, uzyskanie informacji o statusie swojej sprawy, sprawdzenia stanu płatności lub zmiany danych konta użytkownika.

mCRM to tez doskonałe rozwiązanie dla pracowników zdalnych, którzy mają dzięki temu w swoim urządzeniu mobilny kluczowe informacje i dane. W zależności od kategorii działalności przedsiębiorstwa mogą to być szczegółowe dane na temat kontrahentów (obroty, regularność zamówień, poziom zadłużenia), narzędzia pozwalające na szybką analizę danych, ułatwiające podejmowanie decyzji i udzielenie odpowiedzi na pytanie klienta bądź zintegrowane funkcjonalności usprawniające pracę (kalendarz, menedżer zadań, system wymiany informacji). Wszystkie te rozwiązania mogą mieć pozytywny wpływ na podejmowane decyzje biznesowe, a w połączeniu z rozwiązaniami mobilnymi umożliwiają bieżący i szybki dostęp.

Wprowadzenie mobilnych systemów CRM generuje zwiększoną sprzedaż. Badanie przeprowadzone przez Innopol Technologies pokazuje, że w firmach, które wprowadziły mCRM, aż 65% akwizytorów osiągnęło maksymalną dopuszczalną wysokość sprzedaży w przeciwieństwie do zaledwie 22% w firmach pozbawionych takich rozwiązań. Dzięki mCRM sprzedawcy nie tracą czasu na poszukiwanie dobrych kontaktów bądź źródeł informacji, mogą natomiast skupić się na wiarygodnych klientach pragnących dokonać transakcji.

Zamknięcie procesu sprzedaży z mniejszą liczbą interakcji pozwala sprzedawcom na poświęcenie większej ilości czasu na poszukiwanie i pozyskiwanie nowych klientów, co zwiększa ich potencjał zarobkowy, przyczyniając się także do skrócenia cyklu sprzedaży. System CRM w zależności od zakresu działalności firmy może zostać dostosowany do jej indywidualnych potrzeb – przekazując na miejscu kluczowe informacje takie jak dostępność zapasów czy obecny poziom cen.

Systemy mCRM są wykorzystywane nie tylko do przechowywania informacji –  funkcjonują też jako platforma do składania zamówień zaraz po uzyskaniu wstępnej zgody nabywcy, co skutkuje szybszym planowaniem i produkcją, skraca czas dostawy, a więc zwiększa zadowolenie klienta. Omawiane rozwiązania skonstruowane są w taki sposób, aby ułatwić wgląd do istotnych dla odbiorcy informacji. Alokacja informacji prowadzi do skutecznego zarządzania i pozwala uniknąć chaosu spowodowanego nadmierną ilością danych.

Ogólna charakterystyka i rozbudowana lista zalet systemów mCRM za nami, teraz czas na konkretny przykład zastosowania – Funnela.crm2

Funnela to oparta na modelu SaaS platforma dedykowana małym oraz średnim przedsiębiorstwom służąca do zarządzania relacjami z klientem. Aplikacja dostępna jest na wszystkie urządzenia zaopatrzone w przeglądarkę internetową.

Co ciekawego tu znajdziemy?

  • Kontakty – Rozbudowana książka adresowa. Przechowywanie informacji o klientach, wygodne przeglądanie kartotek za pomocą wbudowanych filtrów.
  • Sprzedaż – Monitorowanie okazji sprzedażowych firmy. Wbudowany kalendarz i lista zadań. Moduł pozwala na bieżące śledzenie etapu, na którym dana transakcja się znajduje.
  • Faktury – Korzystając ze słownika produktów i usług można przygotować ofertę dla klienta. Moduł umożliwia szybkie generowanie faktur VAT oraz umów pro-forma na podstawie wprowadzonych danych. Przygotowane dokumenty można wysłać pocztą elektroniczną.
  • Raporty – Analiza i zestawienia najważniejszych aspektów w firmie w formie wykresów. Umożliwiony dostęp do zestawienia pracowników z największą liczbą wykonanych zadań. Pozyskanie dowolnych informacji z systemu, także w postaci plików do pobrania do późniejszej analizy.
  • Kokpit – Zawiera informacje o podstawowych danych, listę zaległych
    i nadchodzących zadań oraz spotkań. Zawiera również historię działań własnych oraz współpracowników.
  • Poczta – Wbudowany klient pocztowy umożliwia łatwe łącznie wiadomości z danymi z innych modułów. Masowa wysyłka poczty pozwala na dotarcie z  ofertą do wszystkich zainteresowanych. Gotowe szablony oraz wzorce wiadomości.
  • Zadania –Tworzenie i nadzór zadań. Możliwość śledzenia stanu realizacji wybranego zadania przez każdego użytkownika, który posiada odpowiednie uprawnienia.
  • Kalendarze – Planowanie spotkań i tworzenie wydarzeń zarówno w swoim, jak i współdzielonych kalendarzach.

Podsumowując: wszystko! Wszystko, co zapewne ma każdy przedsiębiorca w postaci notatek, papierowego kalendarza, masy arkuszy, dokumentów i stosownego oprogramowania, wszystko, co jest niezbędne w pracy, z tą różnicą, że w postaci superskondensowanej, dostępnej w każdej chwili i niezwykle wygodnej. mCRM – to się opłaca!

Real Time WWW Personalization (personalizacja strony www w czasie rzeczywistym)

Nikogo już chyba nie dziwi, że każda, nawet jednorazowo odwiedzana strona internetowa,  częstuje nas reklamami doskonale dopasowanymi do naszych potrzeb – egipskie kurorty wołają poszukujących urlopowej destynacji, na posiadaczy kotów czekają oferty karmy i żwirku, singli kuszą portale randkowe. Reklamy to nie jedyny dowód spersonalizowania: wtyczka społecznościowa pokazuje nam, kto z naszych znajomych już stronę polubił, baner woła nas po imieniu lub nawet pokazuje nam kod promocyjny przeznaczony specjalnie dla nas… Takie zjawiska już nikogo nie dziwią, bo wszyscy wiemy, że Internet patrzy nam na ręce, za pomocą analizy naszych działań wie o nas więcej niż my sami, a wszystko po to, by z tej wiedzy skorzystać komercyjnie. Jeśli ktoś chciałby jednak wiedzieć, jaki konkretnie mechanizm stoi za tą wszechwiedzą strony internetowej, to dobrze trafił, bo dziś wyjaśnię tę kwestię.

Personalizacja strony www w czasie rzeczywistym (ang. Real Time WWW Personalization) to kolejna odsłona tematu, który interesuje mnie od dłuższego czasu. Mnie i zdecydowaną większość obserwatorów sieci. Tematu, który poza częścią teoretyczną ma też marketingową praktykę, a nie ma nic ciekawszego niż algorytmy, które oprócz wymiaru naukowego przeliczają się na poważne pieniądze. Niedawno pisałem o Big Data i marketingowej stronie tego zjawiska. Real Time WWW Personalization  to jedna z marketingowych twarzy umiejętnego zbierania i przetwarzania danych na temat użytkownika Internetu. Celem Real Time Personalization jest dotarcie do użytkownika z komunikatem dopasowanym do jego potrzeb. Świadomość potrzeb internauty wynika z analizowania jego aktywności w sieci w czasie rzeczywistym. Ten czas, ta swoista „natychmiastowość” zbierania, analizowania i wykorzystywania danych to najważniejszy element i podstawa skutecznej spersonalizowanej komunikacji. Personalizacja strony może dotyczyć zarówno treści, jak i formy w jakiej jest ona przedstawiona. Strona główna serwisu może więc powitać internautę jego imieniem lub na podstawie wcześniejszych zakupów czy przeglądanych produktów, wyświetlić mu informacje, które mogą go zainteresować.

Popularnymi formami personalizacji stron internetowych są:
•  rekomendacje konkretnych produktów,
• przypomnienia o koszykach zakupowych,
• posługiwanie się imieniem konsumenta,
• zintegrowana ze stroną wtyczka  mediów społecznościowych.

Ciekawostka:
Marketo.com, jedna z firm zajmujących się narzędziami typu marketing automation, oferuje system, który pozwala tworzyć w czasie rzeczywistym interakcję urządzenia mobilnego z dowolnym systemem CMS. Firma twierdzi, że stosowanie tego rodzaju systemu pozwala zwiększyć do 270% konsumpcje treści.

Jak wygląda schemat, według którego podsuwane są treści?
Obraz2
Załóżmy, że głównym tematem strony internetowej są samochody. „Super Topic” będzie się dzielił według kategorii i tematu. Tematem będą wspomniane auta, natomiast kategorią transport. Temat można podzielić dalej na podtemat i kategorię pokrewną, którymi  mogą być np. diesle – jako temat i części samochodowe jako kategoria. Kategoria ma możliwość związania się z kategorią pokrewną, która w naszym przypadku mogą być opony. Dla każdego tematu i kategorii strona powinna wyszukiwać taksonomie i ontologie. I tak to się kręci.
Pewnym problemem może być zmęczenie użytkownika reklamami. Ma temu zapobiec poniższy system:
Obraz1

Użytkownicy komunikują się z serwerem reklam w sieci. Baza danych 124 i 140 może być fizycznie zintegrowane z serwerem reklam 104 jako jedna lub więcej. Bazy te mogą znajdować się w różnych miejscach.

Sieć 150 może obejmować sieci rozległe (WAN), takie jak internet, sieci lokalne (LAN), sieci obszaru kampusu, miejskich sieci i sieci bezprzewodowych i przewodowych, lub innych sieci, które mogą umożliwić dostęp do sieci komunikacyjnej.

Serwer reklam 104 może zawierać zestaw instrukcji 160, które mogą spowodować, że serwer 104 wykona jedną lub więcej sposobów personalizacji reklam.

Każdy użytkownik posiada „user ID”, na podstawie którego dokonuje się identyfikacja. Polega ona na przejściu z użytkownika internetowego 140, przez serwer reklam 104 i na podstawie historii ruchów w bazie danych 124 dokonuje się personalizacja.

W bazie danych historii ruchu 124 mogą być przechowywane różne rodzaje danych o ruchu w sieci Web. Jak wcześniej wspomniano w oparciu o tą historię do każdego użytkownika (jego ID) zostaje stworzona lista reklam przewidywanych do wyświetlenia dla niego. Reklamy te są przechowywane w bazie danych reklamodawcy 150 gdzie oczekują na wyświetlenie użytkownikom sieci 140. Dodatkowo sekwencja identyfikacji reklam może być przypisana do każdego ogłoszenia w bazie reklamodawcy 150. Umożliwia to sortowanie i wyświetlanie odpowiednio dobranych do siebie reklam.

Kiedy użytkownik sieci 140 wysyła zapytanie do serwera 104, może to następować poprzez przeglądanie serwera 104, wykonuje instrukcje 160 zgodnie z generatorem wyników wcześniejszego wyszukiwania 116. Wyniki wyszukiwania generatora 116 są zapisywane. Zapytania uruchamiają trackera przeglądania 120 do śledzenia danych i przekazują te dane do serwera reklam 104, a następnie są one przechowywane w bazie danych historii ruchu 124.

Dane, takie jak te omówione powyżej, mogą być wykorzystywane przez serwer reklamowy 104 do realizacji metod i algorytmów do personalizowania reklama dostarczania do użytkownika sieci 140 tak, aby zapobiec lub istotnie zredukować ilość reklam powtarzających się.

Istnieją dowody, że doświadczenia indywidualnego użytkownika może mieć wpływ na to jak odbiera on reklamę. Doświadczenia te mogą być pozytywne lub negatywne. Mogą odnosić się do nazwy firmy, logo itp. Doświadczenie to również ma wpływ na kliknięcia na reklamy. 
Do podstawowych narzędzi personalizowania stron należy logowanie i tzw. ciasteczka. Dzięki nim możliwe jest poznanie internauty poprzez zbieranie śladów jego działań. Analiza tych informacji pozwala stworzyć portret użytkownika, czyli poznać go dokładnie, z zainteresowaniami i potrzebami włącznie.
Skarbnicą możliwości dla Real Time WWW Personalization jest oczywiście Google, dzięki dostępowi do niewyobrażalnych ilości danych, ale też do narzędzi marketingowych. Wystarczy wspomnieć o połączonych mocach Ad Words i Google Analytics. Nie jest to jednak jedyne rozwiązanie.
Zaawansowane zespoły internetowe od prawie dwóch dekad dokonują personalizacji opartych na IP i wychodzi im to coraz lepiej. Organizacje takie jak Demandbase, Acxiom i MaxMind używają adresów IP w celu dostarczenia internautom informacji, które mogą okazać się przydatne w danym momencie i miejscu, np. komunikatów pogodowych dostosowanych do lokalizacji.
Wszystkie te schematy i narzędzia wspólnie pracują na to, by strona internetowa czekała na użytkownika w sposób dla niego przydatny, ale też – przede wszystkim – korzystny dla samej strony. Dostosowana do potrzeb odbiorcy strona internetowa może mu skutecznie pomóc w wydawaniu pieniędzy, co dla wszystkich zainteresowanych jest zjawiskiem korzystnym.

Wiedza się opłaca – znaczenie technologii Big Data

Agencja Edelman oraz Centrum Psychometrii Uniwersytetu Cambridge zawarły strategiczne partnerstwo, którego celem jest bliższe poznanie zjawiska Big Data. Analizie poddany zostanie wpływ technologii Big Data na zaufanie konsumentów wobec biznesu, etyczny aspekt zbierania, badania i wykorzystywania danych, szczególnie przez takie sektory jak opieka medyczna czy ubezpieczenia, planowane jest też dokładniejsze niż kiedykolwiek pochylenie się nad kwestiami prywatności użytkowników Internetu. Co to oznacza? Oznacza to, że Big Data to narzędzie ingerujące w sprawy najbardziej intymne, posiadające niewątpliwie ogromną moc, choć wciąż nie do końca zbadaną. Rozwija się szybko, bo biznes dostrzega w nim olbrzymi potencjał, nauka powoli zaczyna dostrzegać zagrożenia.

Samo zjawisko Big Data omówiłem w poprzednim wpisie „Big Data i Internet Of Things – duża sprawa!”, teraz przyszedł czas na krok następny: skoro wiadomo już, czym Big Data jest, należy przyjrzeć się możliwościom, jakie daje. Najważniejsze są oczywiście możliwości przeliczalne na pieniądze, czyli potencjał marketingowy Big Data.

Big Data Marketing – z takim pojęciem spotykamy się coraz częściej. Polega on na wykorzystywaniu różnorodnych informacji o kontakcie w czasie rzeczywistym w celu zwiększenia skuteczności działań marketingowych poprzez spersonalizowaną komunikację ONE – to – ONE. Zdaniem specjalistów, w dzisiejszych czasach jest to konieczność.

Każdego dnia zostawiamy w sieci miliony śladów, gromadzonych w przeróżny sposób, chociażby za pomocą plików cookies. Specjalistyczne narzędzia zbierają te dane i analizują, by – według optymalnego scenariusza – NATYCHMIAST odpowiedzieć na potrzebę użytkownika za pomocą podsunięcia mu najlepszych, najtrafniejszych treści lub konkretnej oferty. Media społecznościowe to niezwykle ważne źródło danych na temat konsumentów – z reguły tam nie zostawiamy niedostrzegalnych dla śmiertelników śladów, tylko konkretne wskazówki – polubienia, udostępnienia, informacje na temat swoich zainteresowań, sytuacji rodzinnej, itd.

Jakie to ma znaczenie dla firm? Szacuje się, że kiepskiej jakości dane mogą kosztować przedsiębiorców aż do 35% dochodów operacyjnych. Według ankiety przeprowadzonej wśród firm znajdujących na liście Fortune 1000 już 10% poprawa użyteczności oraz dostępności danych zwiększyła sprzedaż średnio o 14% na każdego pracownika. Większa widza na temat konsumenta to większe możliwości dotarcia z trafioną ofertą, a więc większy potencjał sprzedażowy.

Najwyraźniej wykorzystanie Big Data zaobserwować można w sektorze bankowym. Czy Wasz bank zaproponował Wam już zniżki wynikające z tego, że robicie zakupy w takim, a nie innym sklepie? Zauważyliście, jak często niewielki nawet dołek finansowy wywołuje lawinę propozycji kredytowych? Dopóki widzicie prosty związek przyczynowo-skutkowy, czyli Wasze upodobania/zwyczaje/potrzeby zna Wasz bank, któremu sami za pomocą działań finansowych podsuwacie stosowne informacje, wszystko wydaje się jasne (choć często irytujące). Wątpliwości pojawiają się w sytuacjach takich jak na przykład koniec umowy z operatorem telefonicznym, który skutkuje propozycjami ze strony pozostałych telekomów. Jeśli zastanawiacie się, kto Was sprzedał, odpowiedz brzmi pewnie: Big Data.

Mechanizm jest prosty: bank/telekom/sklep otrzymuje informację, że wędrowaliście po odpowiedniej stronie internetowej, system czarno na białym wykazuje, które zakładki Was zainteresowały, ile czasu spędziliście na danych podstronach – na tej podstawie błyskawicznie można skonstruować ofertę i zadzwonić z propozycją. Trudno, żeby oferta kredytu, która trafia do Was zaraz po tym, jak spędziliście dwie godziny na przeszukiwaniu internetu w tej sprawie, zupełnie Was nie zainteresowała. Badanie konsumentów pozwala na rezygnację z działań na oślep, z przypadkowych propozycji kierowanych do przypadkowych osób, co samo w sobie generuje oszczędności.

Jakie problemy techniczne napotyka Big Data? Jeśli tylko uświadomimy sobie, jak ogromne ilości danych wchodzą w grę, pomysłów na potencjalne trudności natychmiast będziemy mieli co najmniej kilka. Według badań przeprowadzonych wśród 75 najważniejszych dyrektorów sprzedaży w USA wytypowano trzy największe problemy:

  •  46% uważa ilość dostępnych danych jest największym wyzwanie dla Big Data Marketing;
  • 34% wskazuje, że różnorodność danych ustrukturyzowanych i nie ustrukturyzowanych jest największym problemem;
  • 20% badanych wskazało, że częstotliwość generowania nowych danych oraz tempo ich przesyłu oraz późniejszego gromadzenia i analizowania jest najtrudniejszym zadaniem.

Rozwiązaniem jest zastosowanie narzędzia klasy Marketing Automation. Systemy te pozwalają na pozyskiwanie, gromadzenie oraz analizowanie wymienionych wyżej danych, w czasie zbliżonym do rzeczywistego. Pozwala to na dotarcie do indywidualnych odbiorców, nie wymaga inwestycji w hardware i wszystkie dane trzyma w chmurze obliczeniowej daleko od firmowych systemów. 

Działanie firm, która zajmują się gromadzeniem, przetwarzaniem i dostarczaniem danych instytucjom finansowym, kilkakrotnie opisywał Maciej Samcik. Samcik widzi dwie twarze Big Data: z jednej strony jest to w końcu forma pomocy zagubionym w bankowych możliwościach klientom, z drugiej to doskonałe narzędzie służące manipulacji i tworzeniu potrzeb, a więc w  pewnym sensie prowadzące do naciągania.

O tym, czy Big Data to zjawisko etyczne, często decyduje branża, która sięga po to narzędzie. Dość niewinne wydają się reklamy egipskich kurortów, którymi nagle usiana jest każda oglądana przez nas strona internetowa, tylko dlatego, że w mailu do kolegi napisaliśmy, że marzymy o wakacjach. Problematyczne wydają się skutki wykorzystania naszych internetowych działań przez firmy medyczne, która podsuwają nam leki na bazie diagnozy postawionej w wyniku analizy objawów, które wpisywaliśmy w Google. Makabryczna wręcz wydaje się wizja ciągłych reklam ubezpieczenia na wypadek zachorowania na choroby nowotworowe, tylko dlatego, że często dzielimy się z facebookowymi znajomymi informacjami na temat uciążliwych migren.

Warto tez sobie zadać pytanie: czy użytkownicy świadomi zbierania i przetwarzania danych, zachowują się w sieci naturalnie? Czy ktoś jeszcze wierzy, że da się zupełnie bez śladu kupić przez internet broń lub narkotyki? Z drugiej zaś strony: czy podświadomie nie nastawiamy się coraz bardziej sceptycznie do reklam internetowych? Na te pytania odpowiedzi szuka Agencja Edelman i naukowcy z Cambridge, musimy tylko poczekać na wyniki ich pracy.

Big Data i Internet Of Things – duża sprawa!

Czy odważyłbyś się przejść przez ulicę pełną samochodów na podstawie fotografii zrobionej pięć minut wcześniej?

Takie pytanie postawiła w jednej z reklam firma IBM i doskonale oddaje ono istotę zjawiska Big Data oraz tego, czemu zjawisko to może służyć.

Od początku jednak:

Big Data to jedno z podstawowych, najważniejszych, a jednocześnie najświeższych pojęć z pogranicza Internetu, komunikacji, marketingu, socjologii… długo by wymieniać. Termin Big Data nasuwa na myśl dane i sugeruje, że jest ich dużo. To już jest niezły początek definicji, ale absolutnie nie wyczerpuje to tematu. Osobiście za najbardziej wyczerpujące uważam wyjaśnienie zaprezentowane przez firmę Forrester, koncepcję 4V, zwracającą uwagę na następujące aspekty:

  • volume – ilość danych;
  • variety – różnorodność danych;
  • velocity – szybkość pojawiania się nowych danych i ich analizy w czasie rzeczywistym;
  • value – wartość danych ( niektóre źródła podają zamiast tego variancy – wariancję danych).

Nie tylko ilość danych jest bowiem ważna – a na tę sprawę szczególny nacisk kładą inne dostępne definicje. Istotne jest też różnorodne pochodzenie danych (dane behawioralne, statystyczne, geograficzne, transakcyjne) i ich formaty (ruch na stronie, social media, video, muzyka, dokumenty, aktywność na forach, formularze, ankiety, rozmowy telefoniczne, dane offline), co kładzie kres dotychczasowemu relacyjnemu łączeniu danych pochodzących z takich samych źródeł.

Wiemy więc już, że danych jest wiele i są one zróżnicowane. Tu pojawia się czynnik kolejny: czas. Dane narastają szybko i szybko muszą być zbierane i analizowane. Inaczej tracą wartość. Do tego odnosi się właśnie pytanie, które umieściłem na początku: Big Data dzieje się w czasie rzeczywistym, tylko w tym czasie ma WARTOŚĆ. Jeśli tylko tempo zbierania i analizowania danych jest odpowiednie (czyli: natychmiast!), mają one ogromne znaczenie i potencjał. Czy wszystkie? Oczywiście nie. Znacząca większość informacji, które rodzą się w każdej sekundzie w wielu kanałach komunikacyjnych, nie ma żadnego znaczenia. Dlatego filtrowanie danych jest tak samo ważne, jeśli nie ważniejsze, niż ich gromadzenie.

Big Data jest pojęciem obejmującym zarówno same dane, jak i ich analizę, z naciskiem na czas jej przeprowadzenia. Dane mają wartość TU i TERAZ.

„Dużo” to pojęcie obszerne, jak wyglądają konkretne liczby? Według badań firmy IDC rynek Big Data urośnie z 3,2 mld USD w 2010 do 16,9 mld USD w 2015 roku, przy rocznym przyroście na poziomie 40%. Harvard Business Review przeprowadził ankietę wśród Fortune 1000 i największych agencji rządowych USA. Wynika z niej, że 85% organizacji wdraża Big Data lub jest na etapie planowania jego wykorzystania.

Do czego może służyć zbieranie i analizowanie gigantycznych ilości danych? W poprzednim moim poście omówiony został web mining, wcześniej opisywałem zagadnienie popularne, ale nie zawsze prawidłowo rozumiane przez użytkowników sieci: pliki cookies.  Wszystkie te sprawy łączy jedno: potrzeba zbierania informacji na temat internautów. Po co? Z reguły w takich sytuacjach chodzić może tylko o jedno: pieniądze. Dane na temat użytkowników sieci to przecież informacje o konsumentach z pierwszej ręki. Big Data Marketing to temat, któremu poświęcony będzie mój następny post. Zanim przyjdzie na niego czas, warto poznać inne pojęcie: Internet of Things.

Wyobrażacie sobie, że Wasza lodówka sama usuwa produkty przeterminowane? Wyobrażacie sobie, że żarówka w Waszym domu wie, że niedługo się przepali, więc sama zamawia swoją następczynię? Wyobrażacie sobie, że Wasz budzik dzwoni 5 minut później niż powinien, ponieważ wie, że na trasie do pracy nie czekają na Was korki? Jeśli brzmi to dla Was jak science-ficton, musicie wiedzieć, że taki świat się zbliża. Świat inteligentnych przedmiotów, które są w stanie gromadzić, przetwarzać i odpowiednio wykorzystywać różnorodne dane. Podobne rozwiązania są już stosowane na przykład w samochodach, w których kierowca w czasie rzeczywistym otrzymuje informacje na temat stanu auta, np. wskaźnik ciśnienia powietrza w oponach. Internet of Things jest to technologia, która poszerzy, przyśpieszy i ułatwi interakcje człowieka z przedmiotami, a także przedmiotów z innymi przedmiotami.

Wszystko jednak sprowadza się do danych i ich odpowiedniego wykorzystania, a tu standardowo pojawia sie sprawa ich zbierania, czyli ingerencji w prywatność, z którą chyba musimy się po prostu pogodzić w dobie internetu. Popularność serwisów społecznościowych, w których sami ujawniamy wiele danych wrażliwych, może świadczyć o tym, że dyskrecja i tajemnica nie jest dziś priorytetem. Jeśli dodamy do tego ślady pozostawione w sklepach internetowych, w internetowej bankowości, wyniki wyszukiwania Google – dla dobrego narzędzia rozgryzienie nas to kwestia kilku algorytmów. Takie czasy.

Web mining, czyli sieć patrzy na Ciebie

Sieć patrzy i próbuje Cię zrozumieć, żeby móc się dostosować do Twoich potrzeb, przede wszystkim zaś, by te potrzeby wykreować – tak w sporym uproszczeniu wyjaśnić można pojęcie web mining. Eksploracja danych w internecie to zjawisko związane z opisywanym już na blogu brakiem anonimowości w internecie, ale też z poruszaną niedawno kwestią coraz powszechniejszej automatyzacji. Data mining to zbiór technik —automatycznego odkrywania nietrywialnych zależności, schematów, wzorców, reguł (ang. patterns) w zbiorach danych (ang. Knowledge Discovery in Databases, KDD) . Jednym z takich zbiorów jest internet, którego eksplorację nazywamy z angielskiego web mining lub web data mining.

Analiza użytkowania sieci pozwala na kontrolę zachowań użytkowników i wysnuwanie wniosków z wyników tej kontroli. Badania mogą na przykład wykazać, że właściwe zachowanie użytkowników różni się od zachowania oczekiwanego podczas projektowania strony.  W efekcie możliwe jest wprowadzenie zmian na stronie tak, by jak najskuteczniej odpowiadała na zapotrzebowanie odbiorców.
Eksploracja zasobów może być przeprowadzona na wiele sposobów, najczęściej jednak realizowana jest według modelu Cross-Industry Standard Process for Data Mining, który składa się z sześciu etapów. 

Etapy modelu Cross-Industry Standard Process for Data Mining:

  1. —Zrozumienie uwarunkowań biznesowych na tym etapie kluczowe jest jasne sformułowanie celów i wymagań dotyczące projektu.
  2. Zrozumienie danych –  zebranie danych i ich poznanie za pomocą eksploracyjnej analizy. Na tym etapie odkryte zostają pierwsze zależności, może też ocenić jakość danych.
  3. Przygotowanie danych  wykonanie przekształceń, czyszczenie danych, usunięcie wartości skrajnych.
  4. —Modelowanie –  wybór i zastosowanie odpowiednich technik modelujących, następnie zaś skalowanie parametrów modelu w celu optymalizacji wyników. Wyróżnia się trzy główne techniki modelowania: —grupowanie, —reguły asocjacyjne i —klasyfikację.
  5. Ewaluacja –  ocena  modeli pod względem jakości i efektywności przed ich wdrożeniem. Na tym etapie konieczne jest ustalenie, czy model spełnia wszystkie założenia z pierwszego etapu.
  6. Wdrożenie – wykorzystanie modeli zgodnie z celami biznesowymi.

 Kilka elementów analizy użytkowania sieci:

  • —Analiza kliknięć (ang. click stream analysis) – do jej zrozumienia konieczna jest znajomość pojęcia strumienia kliknięć. Jest on sekwencją odwiedzanych stron przez użytkownika podczas surfowania w sieci. Oprócz odsłon dane strumienia kliknięć obejmują pliki log, pliki cookies oraz inne dane używane podczas przesyłania stron internetowych z serwera do przeglądarki.
  • —Pliki log serwera  jeszcze przed rozpoczęciem analizy kliknięć niezbędne jest zapoznanie się z rodzajem dostępnych danych do tej analizy. Informacja dotycząca sposobów korzystania z sieci przyjmuje formę plików log serwera. Dla każdego żądania z przeglądarki do serwera generuje się automatycznie odpowiedź, której wynik jest zapisywany właśnie w ten sposób – przyjmuje formę rekordu zapisanego w pojedynczej linii, który jest dołączany do pliku tekstowego znajdującego się na serwerze.
  • Rekord logu serwera EPA zawiera:
    • Pole adresu IP hosta – zawiera adres internetowy IP hosta, który wysyła żądanie. Jeśli nazwa hosta znajduje się w serwerze DNS to ta nazwa jest dostępna.
    • Pole data/czas – zawiera czas żądania.
    • Pole żądanie HTTP – zawiera informację, którą przeglądarka zażądała od serwera. Zasadniczo pole to może być podzielone na cztery części: metoda HTTP, identyfikator zasobu (URL), nagłówek i protokół.
    • Pole kodu odpowiedzi HTTP – trzycyfrowa odpowiedź z serwera na żądanie przeglądarki klienta. Oznacza status żądania, czyli powodzenie, niepowodzenie błąd i ewentualnie typ błędu.
    • Pole wielkości transferu – wskazuje na rozmiar pliku w bajtach, wysyłanego przez serwer do przeglądarki klienta. Wartość ta jest uzupełniona tylko w przypadku pomyślnego zakończenia żądania (pole kodu odpowiedzi sugeruje powodzenie).

Innym sposobem na identyfikację użytkownika są ciasteczka, czyli opisywane już pliki cookies.

I kilka ważnych pytań …

Jakich danych potrzebujemy do przeprowadzenia analizy za pomocą modelu eksploracji danych?
1. Odsłon
2. Tożsamości użytkownika
3. Sesji użytkownika (jakie strony zostały odwiedzone, w jakiej kolejności i ile to trwało)
Odpowiedzi na jakie pytania dostarcza analiza kliknięć?
1. Która strona internetowa jest najpopularniejszym punktem wejścia dla użytkowników?
2. W jakiej kolejności strony są odwiedzane?
3. Które inne witryny skierowały użytkowników na naszą stronę?
4. Ile stron odwiedzają użytkownicy podczas typowej wizyty?
5. Jak długo typowy gość przebywa na naszej stronie?
6. Która strona jest najczęściej punktem wyjścia dla użytkowników?
Jakie są zadania przetwarzania danych z pliku log?
1. Czyszczenie danych
2. Usunięcie wpisów pochodzących od robotów internetowych
3. Identyfikacja każdego użytkownika
4. Identyfikacja sesji
5. Uzupełnienie ścieżek
I najważniejsze: po co nam web mining?
  • Sprzedaż internetowaEksploracja danych może pomóc sprzedawcom internetowym, poprzez dostarczanie im przydatnych i dokładnych trendów dotyczących zachowań nabywczej swoich klientów. Dzięki temu możliwe jest bardziej precyzyjne i skuteczne dotarcie do klienta z dedykowaną ofertą.
  • Bankowość / KredytowanieEksploracja danych może pomóc instytucjom finansowym w obszarach takich jak raportowanie zdolności kredytowej oraz innych informacji kredytowych. Umożliwia oszacowanie poziomu ryzyka związanego z każdym kredytobiorcą.
  • Egzekwowanie prawaEksploracja danych może pomóc w identyfikacji osób podejrzanych oraz przestępców na bazie ich przyzwyczajeń i innych wzorców zachowań.
Czy wśród tych plusów kryją się minusy? Oczywiście, jak zawsze, gdy w grę wchodzi gromadzenie danych:
  • Kwestie bezpieczeństwaIle razy słyszeliście już o wycieku danych? No właśnie. Nawet takie giganty rynkowe jak Sony nie są bezpieczne.
  • Nieetyczne wykorzystanie danychGwarancji na to, że nasze dane wykorzystane będą tylko w dobrym celu, nie uzyskamy nigdzie. Szantaż, dyskryminacja – wszystko się zdarzyć może. Co więcej – techniki zbierania i analizy danych nie są bezwzględnie skuteczne. Wszędzie może wkraść się błąd i użytkownicy mogą ponieść tego konsekwencje.

Podsumowując …

Web mining to szansa na skrojoną na miarę ofertę sprzedawców, na usługi dostosowane do naszych potrzeb, nawet na propozycje wyprzedzające nasze zainteresowania.  Nic jednak za darmo – ceną jest tu nasza prywatność, odnotowanie przez system każdego kliknięcia. Pytanie tylko czy jest to dla nas wysoka cena – doświadczenie pokazuje, że aktualnie większość z nas zgadza się na monitorowanie naszej aktywności w Internecie.

Automatyczne generowanie treści, czyli blog pisze się sam …

Ironia, kpina, intonacja głosu – jest wiele czynników, które sprawiają, że nawet najprostszy komunikat może mieć różne znaczenie. Przetwarzanie naturalnego języka (ang. Natural Language Processing) i związane z tym automatyczne generowanie treści (ang. Automatic Text Generation) to zagadnienia z trudnego pogranicza sztucznej inteligencji i językoznawstwa. Nauka od dawno usiłuje przystosować maszyny do komunikowania w sposób możliwie zbliżony do ludzkiego. Niuanse języka sprawiają, że nie jest to proces łatwy.

NLP – więcej niż algorytm

Komputer przyjmuje dane w formie uproszczonej, jako ciąg znaków, bez rozumienia kontekstu. By poradzić sobie z tym problemem przy odczytywaniu dłuższych ciągów wyrazów, używa się tak zwanego statystycznego NLP. Do tego celu wykorzystywane są liczne algorytmy, które połączone mają doprowadzić do odczytania przez algorytmy prawidłowej treści. Służą temu m.in.: metody stochastyczne, probabilistyczne, czy statystyczne.

Na NLP składa się wiele pomniejszych zagadnień, takich jak: automatyczne streszczanie tekstu (sumaryzacja), tłumaczenia, rozpoznawanie mowy czy wyszukiwanie w tekście konkretnych fragmentów. Nas dziś interesuje najbardziej automatyczne generowanie tekstu.

Na czym to polega?

Za pomocą specjalnych algorytmów przetwarzających dostępne bazy tekstów, oprogramowanie jestwstanie wygenerować spójny tekst. Tekst taki kieruje się do użytkowników, ale też wysyłany być może do innych urządzeń, generując konkretne reakcje. Systemów generowania jest wiele, jednak wciąż nie udało się stworzyć bezwzględnie dokładnego i idealnie skutecznego – wciąż konieczny jest nadzór człowieka.

Jak to się robi?

Istnieje kilka sposobów automatycznego generowania, są to między innymi:

a) Tekst tworzony przy użyciu automatycznych procesów.

Warto zapamiętać: w tym celu sprawdzają się łańcuchy Markowa. Proces Markowa to ciąg zdarzeń, w którym prawdopodobieństwo każdego zdarzenia zależy jedynie od wyniku poprzedniego. Metody te – z racji dostępu do potężnej bazy tekstów – używane równiez przez Google np w translatorze sprawdzają się w postaci tzw. modeli n-gramowych. 

b) Tekst wygenerowany przy użyciu technik automatycznego dobierania synonimów lub przetwarzania słów kluczowych.

Na podstawie artykułu złożonego z 1500 słów, bez problemu można stworzyć 100 praktycznie identycznych, przekazujących te same wiadomości, lecz używających innych słów. Czy to na pewno bezpieczna technika? Wrócimy do sprawy już za chwilę.

c) Łączenie w odpowiedni sposób zawartości niezwiązanych ze sobą dokumentów, instrukcji, czy też prostych ciągów znakowych.

Rozwiązanie najczęściej używane jest w systemach zarządzania procesami biznesowymi (BPM – Business Process Management). Wpływa na obniżenie pracochłonności tworzenia nowych dokumentów, zapewnia ich standaryzację i zgodność, eliminuje błędy i pozwala na automatyzację standardowych, rutynowych czynności związanych z przygotowaniem i wysłaniem dokumentu.

Google przeciwny synonimom

Generowanie odbywać się może na bazie synonimów – system wychwytuje pojedyncze słowa i zastępuje je wyrazami bliskoznacznymi. Możliwa jest też zmiana kolejności wyrażeń. Niby najlepsze są te piosenki, które już znamy, ale w przypadku tekstów generowanych Google mówi stanowcze „nie”, jeśli tylko takowe teksty pojawią się na drodze botów indeksujących Google. W końcu w cenie są publikacje unikalne, o czym mowa na tym blogu była już wielokrotnie przy okazji omawiania sprawy pozycjonowania oraz wyszukiwania semantycznego.

I po co to wszystko?

Automatyczne generowanie tekstów to rozwiązanie praktyczne, szybkie i ekonomiczne. Przydatne jest też w dobie technologii Big DataCloud Computing, gdy w cenie jest ujednolicanie danych w przeróżne statystyki i podsumowania.

W praktyce przekłada się to na:

Tworzenie spersonalizowanych treści,
Business Intelligence,
Raporty finansowe,
Personal fitness,
Sportowe ligi Fantasy,
Treści sportowe,
Analizy internetowe,
Treści w czasie rzeczywistym.
Nieco więcej o tych możliwościach:
  • Tworzenie spersonalizowanych treści – jak coś jest do wszystkiego, to jest do niczego, dlatego warto zamienić jednego rodzaju treści dedykowanego wielkim grupom na dużą ilość artykułów dla pojedynczych użytkowników, bądź małych grup. W treść wkomponować można wzorce i trendy, jako pojedyncze dane.
  • Business Intelligence – dostarczenie raportów dopasowanych specjalnie do każdego działu przedsiębiorstwa. Raporty mają postać nie tylko wykresów czy tabelek, lecz również całych analiz, wszystko zautomatyzowane przez system.
  • Raporty finansowe –  doniesienia na temat wszelkich zmian w teczkach i portfelach finansowych wraz z możliwością dokładnego spersonalizowania porad oraz reklam odpowiednich źródeł – świetna opcja dla biznesu.
  • Personal fitness – coś na czasie w kontekście postanowień noworocznych – pomoc w osiąganiu prywatnych celów życiowych, zbieranie codziennych danych i interpretowanie ich w celu samodoskonalenia się. Alternatywa dla osobistego trenera.

  •  Sportowe ligi Fantasy – ligi Fantasy zbierają fanów dyscyplin sportowych, którzy na podstawie statystyk chcą wytypować najlepszych graczy oraz drużyny. Walka 

    o zdobycie wirtualnych punktów opiera się o inne zasady i zwraca uwagę na trochę inne statystyki, aniżeli zastosowania typowo sportowe.

  • Treści sportowe – sportowe statystyki i artykuły ułożone w wybrany sposób. Pozwala na tworzenie zapowiedzi meczów, raportów z gry zawodników czy też całych rozgrywek. Opisanie i analiza statystyk sportowych dla spersonalizowanych potrzeb.
  • Analizy internetowe – agencje marketingowe udostępniają klientom automatycznie dopasowane informacje, dane na temat działań, zwrotów z inwestycji.

  • Treści w czasie rzeczywistym – platforma działająca w chmurze umożliwia relację na żywo z wybranego przedsięwzięcia, korzystając z wybranych danych ułożonych odpowiednio w czasie.

Powyższe rozwiązania udowadniają, że automatyczne generowanie treści jest tylko pozornie odczłowieczone – w praktyce wszystko prowadzi do stworzenia narzędzi przydatnych, a nawet niezbędnych człowiekowi. Najlepszym tego dowodem jest spersonalizowane dobieranie treści WWW. Wiadomo, że to, co widzimy na ekranach komputerów wędrując po sieci nie jest ani trochę przypadkowe. Informacje i reklamy dopasowane do naszych potrzeb, zainteresowań i oczekiwać to jeden z licznych przykładów Automatic Text Generation. Inteligentny internet, osobisty trener, raporty finansowe – trudno nie lubić zjawiska o takim spektrum działania!

Ciekawostka:
Fred Zimmerman, założyciel firmy Nimble Combinatorial Publishing, przestawił projekt systemu, który na bazie wprowadzonych zagadnień będzie w stanie sam ściągnąć wszelkie niezbędne teksty i stworzyć… książkę. Rola człowieka ograniczałaby się w takim wypadku do korekty i redakcji.  Kroi sie niezły patent na dość wtórne podręczniki czy opracowania, ale czy da się tak stworzyć dzieło warte Nobla? Wątpimy, ale obserwujemy sprawę.