Wpisy dotyczące szeroko pojętego SEO, SEM i e-Marketingu

Big Data i Internet Of Things – duża sprawa!

Czy odważyłbyś się przejść przez ulicę pełną samochodów na podstawie fotografii zrobionej pięć minut wcześniej?

Takie pytanie postawiła w jednej z reklam firma IBM i doskonale oddaje ono istotę zjawiska Big Data oraz tego, czemu zjawisko to może służyć.

Od początku jednak:

Big Data to jedno z podstawowych, najważniejszych, a jednocześnie najświeższych pojęć z pogranicza Internetu, komunikacji, marketingu, socjologii… długo by wymieniać. Termin Big Data nasuwa na myśl dane i sugeruje, że jest ich dużo. To już jest niezły początek definicji, ale absolutnie nie wyczerpuje to tematu. Osobiście za najbardziej wyczerpujące uważam wyjaśnienie zaprezentowane przez firmę Forrester, koncepcję 4V, zwracającą uwagę na następujące aspekty:

  • volume – ilość danych;
  • variety – różnorodność danych;
  • velocity – szybkość pojawiania się nowych danych i ich analizy w czasie rzeczywistym;
  • value – wartość danych ( niektóre źródła podają zamiast tego variancy – wariancję danych).

Nie tylko ilość danych jest bowiem ważna – a na tę sprawę szczególny nacisk kładą inne dostępne definicje. Istotne jest też różnorodne pochodzenie danych (dane behawioralne, statystyczne, geograficzne, transakcyjne) i ich formaty (ruch na stronie, social media, video, muzyka, dokumenty, aktywność na forach, formularze, ankiety, rozmowy telefoniczne, dane offline), co kładzie kres dotychczasowemu relacyjnemu łączeniu danych pochodzących z takich samych źródeł.

Wiemy więc już, że danych jest wiele i są one zróżnicowane. Tu pojawia się czynnik kolejny: czas. Dane narastają szybko i szybko muszą być zbierane i analizowane. Inaczej tracą wartość. Do tego odnosi się właśnie pytanie, które umieściłem na początku: Big Data dzieje się w czasie rzeczywistym, tylko w tym czasie ma WARTOŚĆ. Jeśli tylko tempo zbierania i analizowania danych jest odpowiednie (czyli: natychmiast!), mają one ogromne znaczenie i potencjał. Czy wszystkie? Oczywiście nie. Znacząca większość informacji, które rodzą się w każdej sekundzie w wielu kanałach komunikacyjnych, nie ma żadnego znaczenia. Dlatego filtrowanie danych jest tak samo ważne, jeśli nie ważniejsze, niż ich gromadzenie.

Big Data jest pojęciem obejmującym zarówno same dane, jak i ich analizę, z naciskiem na czas jej przeprowadzenia. Dane mają wartość TU i TERAZ.

„Dużo” to pojęcie obszerne, jak wyglądają konkretne liczby? Według badań firmy IDC rynek Big Data urośnie z 3,2 mld USD w 2010 do 16,9 mld USD w 2015 roku, przy rocznym przyroście na poziomie 40%. Harvard Business Review przeprowadził ankietę wśród Fortune 1000 i największych agencji rządowych USA. Wynika z niej, że 85% organizacji wdraża Big Data lub jest na etapie planowania jego wykorzystania.

Do czego może służyć zbieranie i analizowanie gigantycznych ilości danych? W poprzednim moim poście omówiony został web mining, wcześniej opisywałem zagadnienie popularne, ale nie zawsze prawidłowo rozumiane przez użytkowników sieci: pliki cookies.  Wszystkie te sprawy łączy jedno: potrzeba zbierania informacji na temat internautów. Po co? Z reguły w takich sytuacjach chodzić może tylko o jedno: pieniądze. Dane na temat użytkowników sieci to przecież informacje o konsumentach z pierwszej ręki. Big Data Marketing to temat, któremu poświęcony będzie mój następny post. Zanim przyjdzie na niego czas, warto poznać inne pojęcie: Internet of Things.

Wyobrażacie sobie, że Wasza lodówka sama usuwa produkty przeterminowane? Wyobrażacie sobie, że żarówka w Waszym domu wie, że niedługo się przepali, więc sama zamawia swoją następczynię? Wyobrażacie sobie, że Wasz budzik dzwoni 5 minut później niż powinien, ponieważ wie, że na trasie do pracy nie czekają na Was korki? Jeśli brzmi to dla Was jak science-ficton, musicie wiedzieć, że taki świat się zbliża. Świat inteligentnych przedmiotów, które są w stanie gromadzić, przetwarzać i odpowiednio wykorzystywać różnorodne dane. Podobne rozwiązania są już stosowane na przykład w samochodach, w których kierowca w czasie rzeczywistym otrzymuje informacje na temat stanu auta, np. wskaźnik ciśnienia powietrza w oponach. Internet of Things jest to technologia, która poszerzy, przyśpieszy i ułatwi interakcje człowieka z przedmiotami, a także przedmiotów z innymi przedmiotami.

Wszystko jednak sprowadza się do danych i ich odpowiedniego wykorzystania, a tu standardowo pojawia sie sprawa ich zbierania, czyli ingerencji w prywatność, z którą chyba musimy się po prostu pogodzić w dobie internetu. Popularność serwisów społecznościowych, w których sami ujawniamy wiele danych wrażliwych, może świadczyć o tym, że dyskrecja i tajemnica nie jest dziś priorytetem. Jeśli dodamy do tego ślady pozostawione w sklepach internetowych, w internetowej bankowości, wyniki wyszukiwania Google – dla dobrego narzędzia rozgryzienie nas to kwestia kilku algorytmów. Takie czasy.

Web mining, czyli sieć patrzy na Ciebie

Sieć patrzy i próbuje Cię zrozumieć, żeby móc się dostosować do Twoich potrzeb, przede wszystkim zaś, by te potrzeby wykreować – tak w sporym uproszczeniu wyjaśnić można pojęcie web mining. Eksploracja danych w internecie to zjawisko związane z opisywanym już na blogu brakiem anonimowości w internecie, ale też z poruszaną niedawno kwestią coraz powszechniejszej automatyzacji. Data mining to zbiór technik —automatycznego odkrywania nietrywialnych zależności, schematów, wzorców, reguł (ang. patterns) w zbiorach danych (ang. Knowledge Discovery in Databases, KDD) . Jednym z takich zbiorów jest internet, którego eksplorację nazywamy z angielskiego web mining lub web data mining.

Analiza użytkowania sieci pozwala na kontrolę zachowań użytkowników i wysnuwanie wniosków z wyników tej kontroli. Badania mogą na przykład wykazać, że właściwe zachowanie użytkowników różni się od zachowania oczekiwanego podczas projektowania strony.  W efekcie możliwe jest wprowadzenie zmian na stronie tak, by jak najskuteczniej odpowiadała na zapotrzebowanie odbiorców.
Eksploracja zasobów może być przeprowadzona na wiele sposobów, najczęściej jednak realizowana jest według modelu Cross-Industry Standard Process for Data Mining, który składa się z sześciu etapów. 

Etapy modelu Cross-Industry Standard Process for Data Mining:

  1. —Zrozumienie uwarunkowań biznesowych na tym etapie kluczowe jest jasne sformułowanie celów i wymagań dotyczące projektu.
  2. Zrozumienie danych –  zebranie danych i ich poznanie za pomocą eksploracyjnej analizy. Na tym etapie odkryte zostają pierwsze zależności, może też ocenić jakość danych.
  3. Przygotowanie danych  wykonanie przekształceń, czyszczenie danych, usunięcie wartości skrajnych.
  4. —Modelowanie –  wybór i zastosowanie odpowiednich technik modelujących, następnie zaś skalowanie parametrów modelu w celu optymalizacji wyników. Wyróżnia się trzy główne techniki modelowania: —grupowanie, —reguły asocjacyjne i —klasyfikację.
  5. Ewaluacja –  ocena  modeli pod względem jakości i efektywności przed ich wdrożeniem. Na tym etapie konieczne jest ustalenie, czy model spełnia wszystkie założenia z pierwszego etapu.
  6. Wdrożenie – wykorzystanie modeli zgodnie z celami biznesowymi.

 Kilka elementów analizy użytkowania sieci:

  • —Analiza kliknięć (ang. click stream analysis) – do jej zrozumienia konieczna jest znajomość pojęcia strumienia kliknięć. Jest on sekwencją odwiedzanych stron przez użytkownika podczas surfowania w sieci. Oprócz odsłon dane strumienia kliknięć obejmują pliki log, pliki cookies oraz inne dane używane podczas przesyłania stron internetowych z serwera do przeglądarki.
  • —Pliki log serwera  jeszcze przed rozpoczęciem analizy kliknięć niezbędne jest zapoznanie się z rodzajem dostępnych danych do tej analizy. Informacja dotycząca sposobów korzystania z sieci przyjmuje formę plików log serwera. Dla każdego żądania z przeglądarki do serwera generuje się automatycznie odpowiedź, której wynik jest zapisywany właśnie w ten sposób – przyjmuje formę rekordu zapisanego w pojedynczej linii, który jest dołączany do pliku tekstowego znajdującego się na serwerze.
  • Rekord logu serwera EPA zawiera:
    • Pole adresu IP hosta – zawiera adres internetowy IP hosta, który wysyła żądanie. Jeśli nazwa hosta znajduje się w serwerze DNS to ta nazwa jest dostępna.
    • Pole data/czas – zawiera czas żądania.
    • Pole żądanie HTTP – zawiera informację, którą przeglądarka zażądała od serwera. Zasadniczo pole to może być podzielone na cztery części: metoda HTTP, identyfikator zasobu (URL), nagłówek i protokół.
    • Pole kodu odpowiedzi HTTP – trzycyfrowa odpowiedź z serwera na żądanie przeglądarki klienta. Oznacza status żądania, czyli powodzenie, niepowodzenie błąd i ewentualnie typ błędu.
    • Pole wielkości transferu – wskazuje na rozmiar pliku w bajtach, wysyłanego przez serwer do przeglądarki klienta. Wartość ta jest uzupełniona tylko w przypadku pomyślnego zakończenia żądania (pole kodu odpowiedzi sugeruje powodzenie).

Innym sposobem na identyfikację użytkownika są ciasteczka, czyli opisywane już pliki cookies.

I kilka ważnych pytań …

Jakich danych potrzebujemy do przeprowadzenia analizy za pomocą modelu eksploracji danych?
1. Odsłon
2. Tożsamości użytkownika
3. Sesji użytkownika (jakie strony zostały odwiedzone, w jakiej kolejności i ile to trwało)
Odpowiedzi na jakie pytania dostarcza analiza kliknięć?
1. Która strona internetowa jest najpopularniejszym punktem wejścia dla użytkowników?
2. W jakiej kolejności strony są odwiedzane?
3. Które inne witryny skierowały użytkowników na naszą stronę?
4. Ile stron odwiedzają użytkownicy podczas typowej wizyty?
5. Jak długo typowy gość przebywa na naszej stronie?
6. Która strona jest najczęściej punktem wyjścia dla użytkowników?
Jakie są zadania przetwarzania danych z pliku log?
1. Czyszczenie danych
2. Usunięcie wpisów pochodzących od robotów internetowych
3. Identyfikacja każdego użytkownika
4. Identyfikacja sesji
5. Uzupełnienie ścieżek
I najważniejsze: po co nam web mining?
  • Sprzedaż internetowaEksploracja danych może pomóc sprzedawcom internetowym, poprzez dostarczanie im przydatnych i dokładnych trendów dotyczących zachowań nabywczej swoich klientów. Dzięki temu możliwe jest bardziej precyzyjne i skuteczne dotarcie do klienta z dedykowaną ofertą.
  • Bankowość / KredytowanieEksploracja danych może pomóc instytucjom finansowym w obszarach takich jak raportowanie zdolności kredytowej oraz innych informacji kredytowych. Umożliwia oszacowanie poziomu ryzyka związanego z każdym kredytobiorcą.
  • Egzekwowanie prawaEksploracja danych może pomóc w identyfikacji osób podejrzanych oraz przestępców na bazie ich przyzwyczajeń i innych wzorców zachowań.
Czy wśród tych plusów kryją się minusy? Oczywiście, jak zawsze, gdy w grę wchodzi gromadzenie danych:
  • Kwestie bezpieczeństwaIle razy słyszeliście już o wycieku danych? No właśnie. Nawet takie giganty rynkowe jak Sony nie są bezpieczne.
  • Nieetyczne wykorzystanie danychGwarancji na to, że nasze dane wykorzystane będą tylko w dobrym celu, nie uzyskamy nigdzie. Szantaż, dyskryminacja – wszystko się zdarzyć może. Co więcej – techniki zbierania i analizy danych nie są bezwzględnie skuteczne. Wszędzie może wkraść się błąd i użytkownicy mogą ponieść tego konsekwencje.

Podsumowując …

Web mining to szansa na skrojoną na miarę ofertę sprzedawców, na usługi dostosowane do naszych potrzeb, nawet na propozycje wyprzedzające nasze zainteresowania.  Nic jednak za darmo – ceną jest tu nasza prywatność, odnotowanie przez system każdego kliknięcia. Pytanie tylko czy jest to dla nas wysoka cena – doświadczenie pokazuje, że aktualnie większość z nas zgadza się na monitorowanie naszej aktywności w Internecie.

Automatyczne generowanie treści, czyli blog pisze się sam …

Ironia, kpina, intonacja głosu – jest wiele czynników, które sprawiają, że nawet najprostszy komunikat może mieć różne znaczenie. Przetwarzanie naturalnego języka (ang. Natural Language Processing) i związane z tym automatyczne generowanie treści (ang. Automatic Text Generation) to zagadnienia z trudnego pogranicza sztucznej inteligencji i językoznawstwa. Nauka od dawno usiłuje przystosować maszyny do komunikowania w sposób możliwie zbliżony do ludzkiego. Niuanse języka sprawiają, że nie jest to proces łatwy.

NLP – więcej niż algorytm

Komputer przyjmuje dane w formie uproszczonej, jako ciąg znaków, bez rozumienia kontekstu. By poradzić sobie z tym problemem przy odczytywaniu dłuższych ciągów wyrazów, używa się tak zwanego statystycznego NLP. Do tego celu wykorzystywane są liczne algorytmy, które połączone mają doprowadzić do odczytania przez algorytmy prawidłowej treści. Służą temu m.in.: metody stochastyczne, probabilistyczne, czy statystyczne.

Na NLP składa się wiele pomniejszych zagadnień, takich jak: automatyczne streszczanie tekstu (sumaryzacja), tłumaczenia, rozpoznawanie mowy czy wyszukiwanie w tekście konkretnych fragmentów. Nas dziś interesuje najbardziej automatyczne generowanie tekstu.

Na czym to polega?

Za pomocą specjalnych algorytmów przetwarzających dostępne bazy tekstów, oprogramowanie jestwstanie wygenerować spójny tekst. Tekst taki kieruje się do użytkowników, ale też wysyłany być może do innych urządzeń, generując konkretne reakcje. Systemów generowania jest wiele, jednak wciąż nie udało się stworzyć bezwzględnie dokładnego i idealnie skutecznego – wciąż konieczny jest nadzór człowieka.

Jak to się robi?

Istnieje kilka sposobów automatycznego generowania, są to między innymi:

a) Tekst tworzony przy użyciu automatycznych procesów.

Warto zapamiętać: w tym celu sprawdzają się łańcuchy Markowa. Proces Markowa to ciąg zdarzeń, w którym prawdopodobieństwo każdego zdarzenia zależy jedynie od wyniku poprzedniego. Metody te – z racji dostępu do potężnej bazy tekstów – używane równiez przez Google np w translatorze sprawdzają się w postaci tzw. modeli n-gramowych. 

b) Tekst wygenerowany przy użyciu technik automatycznego dobierania synonimów lub przetwarzania słów kluczowych.

Na podstawie artykułu złożonego z 1500 słów, bez problemu można stworzyć 100 praktycznie identycznych, przekazujących te same wiadomości, lecz używających innych słów. Czy to na pewno bezpieczna technika? Wrócimy do sprawy już za chwilę.

c) Łączenie w odpowiedni sposób zawartości niezwiązanych ze sobą dokumentów, instrukcji, czy też prostych ciągów znakowych.

Rozwiązanie najczęściej używane jest w systemach zarządzania procesami biznesowymi (BPM – Business Process Management). Wpływa na obniżenie pracochłonności tworzenia nowych dokumentów, zapewnia ich standaryzację i zgodność, eliminuje błędy i pozwala na automatyzację standardowych, rutynowych czynności związanych z przygotowaniem i wysłaniem dokumentu.

Google przeciwny synonimom

Generowanie odbywać się może na bazie synonimów – system wychwytuje pojedyncze słowa i zastępuje je wyrazami bliskoznacznymi. Możliwa jest też zmiana kolejności wyrażeń. Niby najlepsze są te piosenki, które już znamy, ale w przypadku tekstów generowanych Google mówi stanowcze „nie”, jeśli tylko takowe teksty pojawią się na drodze botów indeksujących Google. W końcu w cenie są publikacje unikalne, o czym mowa na tym blogu była już wielokrotnie przy okazji omawiania sprawy pozycjonowania oraz wyszukiwania semantycznego.

I po co to wszystko?

Automatyczne generowanie tekstów to rozwiązanie praktyczne, szybkie i ekonomiczne. Przydatne jest też w dobie technologii Big DataCloud Computing, gdy w cenie jest ujednolicanie danych w przeróżne statystyki i podsumowania.

W praktyce przekłada się to na:

Tworzenie spersonalizowanych treści,
Business Intelligence,
Raporty finansowe,
Personal fitness,
Sportowe ligi Fantasy,
Treści sportowe,
Analizy internetowe,
Treści w czasie rzeczywistym.
Nieco więcej o tych możliwościach:
  • Tworzenie spersonalizowanych treści – jak coś jest do wszystkiego, to jest do niczego, dlatego warto zamienić jednego rodzaju treści dedykowanego wielkim grupom na dużą ilość artykułów dla pojedynczych użytkowników, bądź małych grup. W treść wkomponować można wzorce i trendy, jako pojedyncze dane.
  • Business Intelligence – dostarczenie raportów dopasowanych specjalnie do każdego działu przedsiębiorstwa. Raporty mają postać nie tylko wykresów czy tabelek, lecz również całych analiz, wszystko zautomatyzowane przez system.
  • Raporty finansowe –  doniesienia na temat wszelkich zmian w teczkach i portfelach finansowych wraz z możliwością dokładnego spersonalizowania porad oraz reklam odpowiednich źródeł – świetna opcja dla biznesu.
  • Personal fitness – coś na czasie w kontekście postanowień noworocznych – pomoc w osiąganiu prywatnych celów życiowych, zbieranie codziennych danych i interpretowanie ich w celu samodoskonalenia się. Alternatywa dla osobistego trenera.

  •  Sportowe ligi Fantasy – ligi Fantasy zbierają fanów dyscyplin sportowych, którzy na podstawie statystyk chcą wytypować najlepszych graczy oraz drużyny. Walka 

    o zdobycie wirtualnych punktów opiera się o inne zasady i zwraca uwagę na trochę inne statystyki, aniżeli zastosowania typowo sportowe.

  • Treści sportowe – sportowe statystyki i artykuły ułożone w wybrany sposób. Pozwala na tworzenie zapowiedzi meczów, raportów z gry zawodników czy też całych rozgrywek. Opisanie i analiza statystyk sportowych dla spersonalizowanych potrzeb.
  • Analizy internetowe – agencje marketingowe udostępniają klientom automatycznie dopasowane informacje, dane na temat działań, zwrotów z inwestycji.

  • Treści w czasie rzeczywistym – platforma działająca w chmurze umożliwia relację na żywo z wybranego przedsięwzięcia, korzystając z wybranych danych ułożonych odpowiednio w czasie.

Powyższe rozwiązania udowadniają, że automatyczne generowanie treści jest tylko pozornie odczłowieczone – w praktyce wszystko prowadzi do stworzenia narzędzi przydatnych, a nawet niezbędnych człowiekowi. Najlepszym tego dowodem jest spersonalizowane dobieranie treści WWW. Wiadomo, że to, co widzimy na ekranach komputerów wędrując po sieci nie jest ani trochę przypadkowe. Informacje i reklamy dopasowane do naszych potrzeb, zainteresowań i oczekiwać to jeden z licznych przykładów Automatic Text Generation. Inteligentny internet, osobisty trener, raporty finansowe – trudno nie lubić zjawiska o takim spektrum działania!

Ciekawostka:
Fred Zimmerman, założyciel firmy Nimble Combinatorial Publishing, przestawił projekt systemu, który na bazie wprowadzonych zagadnień będzie w stanie sam ściągnąć wszelkie niezbędne teksty i stworzyć… książkę. Rola człowieka ograniczałaby się w takim wypadku do korekty i redakcji.  Kroi sie niezły patent na dość wtórne podręczniki czy opracowania, ale czy da się tak stworzyć dzieło warte Nobla? Wątpimy, ale obserwujemy sprawę.

Modele atrybucji, czyli sprawdź, czy dobrze wydajesz pieniądze

W dobie powszechnej cyfryzacji każda firma dysponuje dziesiątkami potencjalnych kanałów dotarcia do klienta. Trudność polega na tym, że nie każda komunikacja skutkuje odczuwalnym sukcesem sprzedażowym, każda za to generuje koszty. Czy jest jakiś sposób na to, by sprawdzić skuteczność działań marketingowych? Oczywiście, że jest. Jedną z odpowiedzi są modele atrybucji, czyli praktyka śledzenia i wyceny wszystkich punktów stykowych (touchpoint) marketingu, które prowadzą do pożądanego wyniku. Bazuje na potężnej kombinacji algorytmów predykcyjnych i zintegrowanych analiz.

Gdzie znaleźć można atrybucję w praktyce?

W ciągu ostatnich dwóch lat Google stworzył solidne podstawy w atrybucji Multi-Channel Funnels i Attribution Model Comparison Tool w Google Analytics (oraz dodatkowe narzędzia do AdWords i sieci reklamowej Google). Obecnie poszerzane są możliwości atrybucji z Data-Driven Attribution w Google Analytics Premium – za pomocą modeli algorytmicznych i zestawów raportów mających na celu przewidywanie atrybucji.

Jak to działa?

Model Data-Driven Attribution jest aktywowany przez porównanie konwersji dla ścieżek zakupowych i prawdopodobieństwa związanego z konwersją zdarzeń występujących w odpowiedniej kolejności. Różnice w strukturze ścieżki oraz w prawdopodobieństwie konwersji są podstawą dla algorytmu, który oblicza wagi kanałów marketingowych. Im większy wpływ na prezencję kanałów marketingowych ma prawdopodobieństwo konwersji, tym większa jest waga tego kanału w modelu atrybucji.

Co to konkretnie oznacza dla reklamodawcy?

Data-Driven Attribution w Google Analytics Premium pozwala na analizę drogi klienta do produktu, niezależnie od efektów tej podróży. Umożliwia pomiar wielkości sprzedaży i liczby konwersji. Zapewnia wgląd w to, jak użytkownicy korzystają i jak dotarli do witryny. Metodologia modelowania Google oparta jest na statystykach i zasadach ekonomicznych. Automatycznie przypisuje wartości do touchpointów marketingowych, czyli kontaktów klientów z produktem. Dzięki temu możliwa jest ocena przydatności kanałów reklamowych, a nawet słów kluczowych i weryfikacja nakładów na poszczególne działania marketingowe. Co ciekawe, system monitoruje, czy cele kampanii (np. kierowane do określonej strefy geograficznej, odpowiedni czas) są spełnione i czy treści nie są umieszczane w niewidocznych obszarach strony.

Skutki, czyli zalety Data-Driven Attribution.

Model automatycznie rozdziela środki na różne kanały marketingowe, ale automatycznie wcale nie oznacza, że dzieje się to w sposób przypadkowy czy bezmyślny. Użytkownik ma możliwość zdefiniowania własnych miar sukcesu, takich jak np. liczba transakcji typu e-commerce. Model jest dostosowywany i regularnie odświeżany w oparciu o dane. Dzięki unikalnemu narzędziu: Model Explorer, użytkownik ma pełen wgląd i możliwość zrozumienia działania modelu, jak i sposób obliczania wartości touchpointów. Warto zwrócić uwagę na niezwykle czytelne i proste w obsłudze funkcjonowanie tego narzędzia: dane są jasne i podlegają dowolnemu sortowaniu i analizie – wszystko po to, by wskazówki były realnym wsparciem.

Podsumowując, czyli dlaczego polecam?

Data-Driven Attribution to szansa na ustalenie optymalnego budżetu akcji marketingowych. Modelowanie nieliniowe pozwala dostosować i poprawić skuteczność kampanii w całościowy i dokładny sposób. Ponadto raporty ukazują jak poszczególne kanały wpływają na siebie, co daje pełen obraz prawdziwej wartości każdego kanału. Co ważne, dowiadujemy się w ten sposób, które taktyki w kampanii nie są skuteczne i należy je zmienić bądź udoskonalić, aby dotrzeć do konsumenta.

A to już prosta droga do sukcesu!

 

 

Google Partners Connect w ISPRO – relacja

Swatanie postrzegane jest różnie, jednak jeśli jesteśmy więcej niż pewni, że relacja ma szanse na sukces, ponieważ strony łączy podobny światopogląd, zainteresowania i cele biznesowe, dlaczego by nie spróbować? W ostatni czwartek ISPRO podjęło próbę połączenia dwóch ważnych inicjatyw: z jednej strony firmy Luxoft, naszego strategicznego klienta, z drugiej światowego potentata – Google,  dla którego jesteśmy dumnym „Partnerem”. Pretekstem do spotkania było AdWords – reklamowe oblicze Google.

23 października stolica na chwilę wróciła do Krakowa, bo to właśnie tu zorganizowaliśmy transmisję konferencji z udziałem specjalistów Google, którzy tłumaczyli, dlaczego współczesny biznes nie ma szans na przetrwanie bez AdWords. Jako partner Google mieliśmy możliwość zaproszenia dowolnych gości do wspólnego oglądania i komentowania projekcji – postawiliśmy na naszego strategicznego klienta. Interesy naszych klientów są naszymi interesami, dlatego w trosce o reklamową kondycję zaprzyjaźnionej firmy, wyszliśmy z inicjatywą wspólnego czerpania marketingowych i internetowych korzyści płynących do nas ze streamingu przygotowanego przez ekipę Google Partners.

Spotkanie było kameralne, ale profesjonalne – dyskusja na temat faktów i mitów związanych z reklamowaniem za pomocą AdWords, marketingowych możliwości i roli wyszukiwarki w budowaniu pozycji firmy przybrała wyższą temperaturę. Dyskusja po spotkaniu to jednak dopiero początek zgłębiania tajników AdWords – przedstawiciele firmy otrzymali od nas materiały informacyjne oraz obietnice wsparcia przy dalszym, dogłębnym studiowaniu zasad i korzyści płynących ze stosowania AdWords.

Przedstawiciele klienta uzyskali przydatną wiedzę, ISPRO zyskało wdzięczność klienta za pamięć i organizację spotkania – w podtrzymaniu relacji jest to bezcenny zysk. Jesteśmy wdzięczni Google za pretekst do zorganizowania tego wydarzenia (że o wdzięczności za AdWords nie wspomnimy nawet).

Polecamy się na przyszłość i zachęcamy do obejrzenia zdjęć ze spotkania.

Google Partners Connect – reklama Adwords obnażona

O tym, że Google potęgą jest i basta, przekonywać Was nie muszę. Wiecie doskonale, jak ważna jest pozycja w wyszukiwarce, wiecie też pewnie, że obecność tam nie musi być tylko efektem przypadku – to może i powinien być skutek przemyślanych i zaplanowanych działań, rozłożonych w czasie dla określonych grup odbiorców. W tym momencie wchodzimy na grunt reklamy Adwords w Google, które to narzędzie stanowi aktualnie podstawę wszelkich strategii promocyjnych w sieci wyszukiwania. AdWords może być biznesowym sprzymierzeńcem każdego przedsiębiorcy, jeśli tylko pozna on tajniki reklamowania się za pomocą tego rozwiązania. Jeśli interesuje Was ta jedna z najskuteczniejszych form dotarcia do klientów – dotrzyjcie na konferencję, której współorganizatorem jest również ISPRO.

Już 23 października tajemnice AdWords przedstawią Wam specjaliści z Google – czyli źródło najpewniejsze z pewnych. Przygotujcie się na ogromne ilości informacji, które na zawsze zmienią Wasze podejście do reklamy, promocji, a nawet funkcjonowania firmy. Jeśli tylko jesteście gotowi na rewolucję – zarezerwujcie sobie czas 23 października. Gwarantujemy merytoryczną, twórczą dyskusję w kreatywnym gronie. Prawie 300 agencji, będących członkami programu Google Partners, to nieprzebrane źródło inspiracji i możliwość wymiany doświadczeń. O godzinie 10:00 ruszy lawina, a Wasze spojrzenie na biznes nigdy już nie będzie takie samo.

 W konferencji Google Partners Connect wezmą udział m.in.:


Artur Waliszewski
Regional Business
Managing Director CEE

Przemysław Modrzewski
Senior Analytical Lead

Dawid Papież
Retail Industry Manager
Jako szef polskiego Google, jest odpowiedzialny za określanie i wdrażanie strategii rozwoju działalności biznesowej Google w Polsce, a także w pozostałych krajach Europy Środkowo-Wschodniej. Wcześniej pełnił funkcję członka zarządu największej polskiej firmy internetowej Onet.pl. Jest absolwentem Akademii Ekonomicznej w Krakowie. Jeden z pierwszych w Polsce
certyfikowanych trenerów Google AdWords. Prelegent na studiach ALK i SWPS. Autor książek „Google AdWords w praktyce” i „Reklama w Google dla małych i średnich przedsiębiorstw” i wielu artykułów z zakresu marketingu internetowego.
Absolwent Uniwersytetu
Ekonomicznego w Krakowie. Zanim trafił do Google pracował w branży technologii mobilnych. W Google od 2010 roku. Obecnie należy do zespołu obsługującego sektor handlu detalicznego. Na co dzień doradza, jak tworzyć skuteczne strategie w obszarze marketingu online.

Znikanie z wyszukiwarki – nie tylko dla magików

Jeśli oczekujecie kolejnego posta o pozycjonowaniu – zmieńcie kanał, posty poświęcone walce o dobre miejsce w wynikach wyszukiwania czekają na Was u Piotra. Albo może nie zmieniajcie, bo pewne rzeczy lepiej wiedzieć, chociażby na zapas i wszelki wypadek. Na przykład: co zrobić, jeśli nie tylko nie chcecie być pozycjonowani wysoko w Google, ale wręcz nie życzycie sobie być tam wcale? Sytuacje, kiedy taka chęć jest więcej niż uzasadniona, zdarzają się naprawdę często.

W 2010 roku pewien Hiszpan złożył skargę w agencji ochrony danych AEPD. Efektem skargi było orzeczenie Trybunału Sprawiedliwości UE, które zagwarantowało wnioskodawcy pierwsze w historii czyszczenie zasobów Google z informacji na jego temat. Chodziło konkretnie o doniesienia na temat licytacji domu owego Hiszpana za długi. Ten przykry proceder miał miejsce 16 lat wcześniej, jednak dla wyników wyszukiwania Google nie stracił na aktualności i skutecznie psuł wizerunek biednego człowieka, który pospłacał wszystko już dawno i wyszedł na prostą. Zasądzone czyszczenie nastąpiło i zapoczątkowało erę walki o anonimowość.

Niemożliwe stało się możliwe: 13 maja roku bieżącego Trybunał Sprawiedliwości Unii Europejskiej orzekł, że Google MUSI usuwać z wyników wyszukiwania linki dotyczące danych osobowych osób prywatnych, jeśli zechce tego sam zainteresowany, a dotyczące go informacje są „nieistotne lub nieaktualne”. Wyrok dotyczy krajów UE, a także Islandii, Norwegii, Liechtensteinu i Szwajcarii. Oczywiście widzimy wszyscy, jak dyskusyjna jest treść zalecenia. Bo co to właściwie znaczy „nieistotne lub nieaktualne”?

Za portalem wirtualnemedia.pl przedstawię przykłady wniosków o usunięcie informacji z Google:

Za portalem wirtualnemedia.pl przedstawię przykłady wniosków o usunięcie informacji z Google:

Z Wielkiej Brytanii trafiła do Google prośba od urzędnik o usunięcie linku do petycji organizacji studenckiej, domagającej się jego usunięcia. Linki nie zostały usunięte.

Z Niemiec ofiara gwałtu złożyła prośbę o usunięcie linku do artykułu prasowego o tej historii. Strona została usunięta z wyników wyszukiwania.

Również z Niemiec trafiła prośba o usuniecie niemal 50 linków do artykułów o prywatnej korespondencji, która przedostała się do wiadomości publicznej. Strony zostały usunięte z wyników wyszukiwania.

Zaledwie kilka dni temu, na spotkaniu w Warszawie, przedstawiciele Google przyznali, że otrzymali już 135 tys. wniosków o usunięcie informacji na temat osób prywatnych. Niemal 15 tys. pochodziło z Polski. Prawie 4 tys. próśb zostało rozpatrzonych na korzyść wnioskodawcy.

Do tej pory Google utrzymywał, że usuwanie czegokolwiek to cenzura. Teraz już myśleć tak nie mogą, a na pewno nie na terenie Unii Europejskiej. Co więcej, to dopiero początek: władze UE chcą sprawę uregulować prawnie – i to szybko. Jak na razie wiadomo tylko tyle, że prawo do prywatności, a więc i do „bycia zapomnianym” niebezpiecznie staje w opozycji wobec prawa do informacji. Innym problemem jest tempo prac w instytucjach UE.  Komisarz Viviane Reding apelowała o ich przyspieszenie, tak by mogły zacząć obowiązywać już w przyszłym roku. W toku prac w Parlamencie Europejskim zgłoszono do projektu ponad 3,5 tys. poprawek.

Tymczasem sprawy przybierają obrót dla Google niekorzystny również po drugiej stronie oceanu. Głośna sprawa wycieku rozbieranych zdjęć gwiazd i gwiazdek z serwisu iCloud dotyczy bowiem obecnie też Google – zdaniem niektórych pokrzywdzonych pań wyszukiwarka nie powinna „pozwalać” na wyszukiwanie tych zdjęć. Nie powinny się one pojawiać na Blogspocie, a już na pewno nie w towarzystwie reklam, na których Google zarabia. Prywatność jest obecnie w cenie, więc sprawa skończyć się może procesem.

Co zrobić, jeśli chcemy zniknąć? Procedura jest banalna: osoby, które chcą złożyć wniosek o usunięcie wybranych wyników wyszukiwania, proszone są o podanie linku lub linków, które chcą usunąć z listy wyszukiwania. Następnie muszą podać swoje imię i nazwisko, adres e-mail i przesłać kopię dokumentu ze zdjęciem, a także wyjaśnić, jaki związek podane strony mają z nimi i dlaczego ich zdaniem mieszczą się w kryteriach podanych przez unijny trybunał. Robimy to wszystko na stworzonej w tym celu stronie internetowej.

Warto pamiętać, że jest taka opcja, ale wypada też mieć na uwadze, że przed skutkami niektórych działań w sieci – takich jak przesyłanie rozbieranych zdjęć – UE nie zawsze nas uratuje.

 

 

 

On-site optimization: zaklęcia przy optymalizacji SEO.

Do wpojonego w dzieciństwie zestawu magicznych słów z „proszę” na czele, każdy administrator czy twórca strony internetowej, któremu jej pozycja w wyszukiwarce nie jest obojętna, powinien dodać jeszcze kilka słów-wytrychów (elementów tzw. on-site optimization). Są takie programistyczne zaklęcia, które otwierają możliwość walki o top10 w Google – dziś poznamy przynajmniej kilka z nich.

1. W3C – The World Wide Web Consortium – organizacja, która stworzyła wytyczne dla strony głównej i podstron serwisów. Trzymanie się tych wytycznych to podstawa sukcesu strony. Nie wiesz, czy Twoja strona spełnia wymagania? Zawsze możesz to sprawdzić dzięki dostępnym w internecie walidatorom dla kodu HTML i dla kodu CSS.

2. DOCTYPE – kodowa deklaracja technologii wykonania strony. To z deklaracji DOCTYPE przeglądarka dowiaduje się, z jakim typem dokumentu ma do czynienia. Deklaracja po prostu musi znaleźć na stronie i musi odpowiadać rzeczywistości. W przypadku HTML5 wystarczy <! DOCTYPE html>. Dlaczego przywołuję HTML5…? Ponieważ…

3. HTML5 – język, zgodnie z którym powinna być zbudowana nowoczesna strona. Należy pamiętać, że użyty system znaków powinien zostać przez stronę zasygnalizowany: dla HTML5 będzie to <meta charset=”UTF-8″/>. Wszystkie niestandardowe znaki powinny zostać zakodowane poprzez tzw. encje html-owe (np. £ to &pound).

4. <table> – znacznik przydatny wyłącznie przy przedstawianiu danych tabularycznych. Nie powinien być w żadnym razie stosowany do budowania struktury czy layoutu strony. Skoro zaś mowa o budowie strony: nie należy na tym etapie stosować elementów graficznych (takich jak przeźroczyste gify) do kontrolowania wysokości czy szerokości. Elementy graficzne nie powinny też być stosowane jako nawigacja.

5. <meta name=”description”…> – znacznik zawierający opis strony. Powinien się znaleźć na każdej podstronie.

6. <label>, czyli etykiety. Przydatne rozwiązanie do kontroli i opisu pól formularzy.

7. <title> – niezwykle ważny znacznik, który na każdej stronie prezentuje pozycjonowane frazy. Najważniejsze na początku wyliczanki, bardziej ogólne dalej. Maksymalnie 70 znaków ze spacjami.

8. <meta name=”keywords”…> – znacznik służący do wyodrębnienia występujących na stronie słów kluczowych. Warto pamiętać, że ilość powtórzeń danego słowa kluczowego na danej podstronie to maksymalnie 2-5% z odmianami w stosunku do całej treści (bez kodu).

9. Nagłówki <h1>,<h2>,<h3>… – nagłówki zawierające słowa kluczowe i ich odmiany. <h1> powinien składać się z dwóch-trzech słów, pozostałe mogą być dłuższe.

10. <londesc> – atrybut, który powinien się pojawić, jeśli umieszczamy na stronie element graficzny z długim opisem. Należy pamiętać, że opisy atrybutów graficznych są ważne – powinny zawierać słowa kluczowe.

Te dziesięć elementów optymalizacji (on-site optimization), które przywołałem, przydaje się stronom dbającym o pozycję.  Wiadomo, że to tylko dziesięć pojęć z morza haseł istotnych w SEO, co więcej, każde jest jedynie zasygnalizowane. Zachęcam do samodzielnej dalszej eksploracji tematu pozycjonowania, niedługo postaram się pomóc nowym postem:).

Elementarz SEO, czyli co wpływa na pozycję strony w Google

Pozycjonowanie strony to działanie wymagające precyzji – liczy się tu każdy szczegół. Pozycja strony w Google to ostatni etap pracy i jej zwieńczenie – początkiem jest strona internetowa, która powinna spełniać pewne warunki, by trafić w wyrafinowane gusta Google. W kilku najbliższych postach, od dzisiejszego począwszy, chciałbym przybliżyć podstawowe zasad skutecznego budowania pozycji w Google od podstaw.

Czytaj dalej

Jeśli nie Google to… alternatywne źródła ruchu na stronie

O różnych sposobach zaprzyjaźniania się z Google pisałem już kilkakrotnie, ze szczególnym naciskiem na coraz bardziej znane wyszukiwanie semantyczne. Warto czasem jednak zastanowić się, w jaki inny sposób zadbać można o odpowiedni ruch na stronie. Czy są na to jakieś sposoby inne niż próby przechytrzenia wszechmocnego Google? Nawet kilka! Czytaj dalej

Google Plus a wsparcie dla SEO i SEM

Z jednej strony dużo się mówi (szczególnie jeśli jest się Google) o pozytywnym wpływie aktywności w Google+ na pozycjonowanie stron. Z drugiej strony, sceptycy zarzucają Google+ niszowość i patrząc na statystyki trudno z nimi dyskutować. Co należy w związku z tym zrobić? Zrezygnować z działalności na tym portalu czy dostrzec profity niewidoczne na pierwszy rzut oka? Stawiamy na opcję drugą: Google+ przydaje się w SEM, tylko trzeba umiejętnie podejść do sprawy. Nawet językowo sprawa jest przewrotna: Google+ wspiera działania SEM przede wszystkim poza Google+.  Brzmi niewiarygodnie? Za chwilę przestanie.

1. Katapultą wystrzeliwującą aktywność z Google+ w przestrzeń znacznie bardziej interesującą jest +PostAds, czyli format reklamowy zaprzyjaźniony nie tylko z Google+, ale każdym miejscem, w które sięgają macki AdSense. Nic za darmo, oczywiście. Aktywność na G+ kierowana do minimum 1000 followersów. Na Google+ to poważne wyzwanie, ale gra jest warta świeczki. Przy zaawansowanej liczbie fanów (aktywnych fanów!) kampania +PostAds to prawdziwy pogromca wyszukiwarek. Jedyny minus: problemem może być niestety zebranie stosownego audytorium.

2. Kto pierwszy ten lepszy, ale ilość też ma znaczenie. Każdy post publikowany na Google+ to unikalny URL, który zostaje przez Google zaindeksowany z prędkością światła. Oczywiście, nikt nie może zagwarantować, że to indeksowanie wrzuci nas na dobrą pozycję. Zawsze jednak można spróbować oszukać przeznaczenie i jeden link publikować kilkakrotnie, pozornie zmieniając content. Raz z tekstem, raz ze zdjęciem, może z filmikiem. Sztuczny tłok to w tym wypadku zjawisko pożądane i działające na naszą korzyść.

3. Wyszukiwanie semantyczne. Prawdopodobnie złoty gral speców od SEO w ostatnim czasie. Sam całkiem niedawno przybliżałem praktyczny aspekt wyszukiwania semantycznego. Do znudzenia powtarza się: Google bada nie słowa kluczowe, ale relacje. Relacje między słowami czy między stronami głównie, ale też relacje w szerszym znaczeniu, w takim znaczeniu, jakie kojarzyć należy z portalami społecznościowymi. Zaangażowanie odbiorców w temat, czyli ważność tego tematu, czyli ranga naszej strony – to wszystko można odmierzać za pomocą popularności na Google+. Dzięki społecznościowemu ramieniu Google możemy się wyszukiwarce przedstawić, pokazać powiązania, jakie mamy w sieci i znaczenie naszej aktywności. Tak, w ten sposób możemy zasugerować Google’owi, że powinien nas szanować. A przecież o to w SEO chodzi przede wszystkim.

Skoro już wiemy, że na pogardzanie Google+ nie może sobie pozwolić nikt, kto odpowiada za SEM, przypominam, że opublikowaliśmy już na blogu wskazówki dla przedsiębiorców dotyczące prawidłowego urządzenia się na Google+. Sprawa warta odświeżenia, choć efektów działań szukać należy daleko od samego serwisu i chwilę na nie poczekać.

 

 

Odbiorca – najważniejszy element content marketingu

Unikalny, wartościowy content to podstawa w Internecie – bez względu na to, czy celem jego tworzenia jest pozycja w wyszukiwarce czy lajki na Facebooku. O tym, że Google preferuje interesujące, nowe treści, pisałem już przy okazji omawiania praktycznego aspektu wyszukiwania semantycznego. 

Skuteczność content marketingu uzależniona jest od dopasowania treści do potrzeb i zainteresowań odbiorców. Banał? Banał, ale do niedawna trudny do przełożenia na konkretne, skuteczne działania.  Do niedawna, bowiem wzrasta ilość narzędzi ułatwiających poznanie odbiorcy, a co za tym idzie  – opracowywanie treści odpowiednio ukierunkowanych.

Audience Insights – za tymi słowami kryje się spełnienie marzeń wielu marketerów. Facebook postanowił przybliżyć twórcom treści ich odbiorców, co z jednej strony pozwala ich poznać, z drugiej zaś skuteczniej targetować reklamy. Nie jest to opcja dostępna dla wszystkich – na razie wymaga angielskiej lub amerykańskiej wersji serwisu, podobno też udostępniana jest przede wszystkim użytkownikom inwestującym w reklamy, czyli najbliższym przyjaciołom Marka Z.

Co tam znajdziemy? Płeć, wiek, wykształcenie, lokalizację – wiadomo. Ciekawsze jest raczej udostępnienie danych o zwyczajach użytkowników, dzięki czemu będziemy wiedzieć, jaką formę reklamy zastosować, czy komunikujemy się z użytkownikami urządzeń mobilnych czy nie. Informacje o odbiorcach coraz bardziej przypominają pełny profil psychologiczny, mapę kontaktów i upodobań – to nam pozwoli z chirurgiczną precyzją dopasować post do targetu, co pozwoli na najbardziej efektywne wykorzystanie środków na reklamę.

Ale: nie samym Facebookiem marketer żyje. Dla mnie podstawowym obiektem zainteresowań jest strona internetowa jako nośnik danych, sposób komunikacji, przede wszystkim zaś forma marketingu, czyli pozycjonowanie budowane na skutecznej treści. Tu też można liczyć na pomoc – Google Analytics dostarcza nam dane analogiczne do tych, które oferuje nowa funkcja Facebooka.

Od danych demograficznych po zachowania społecznościowe – wszystko to daje nam na tacy narzędzie Google. Korzyści z tego są wielorakie:

  • możemy się dowiedzieć kim są nasi odbiorcy i kierunkować na nich treści, tak, by jak najlepiej odpowiadały ich oczekiwaniom
  • możemy kierunkować nasz przekaz do konkretnych grup tworząc reklamy
  • możemy kontrolować skuteczność działań, czyli badać, czy profil odbiorców zmienia się zgodnie z naszymi oczekiwaniami

Na co warto zwrócić uwagę: przede wszystkim na wszelkie dane dotyczące zachowań użytkowników, które mogą lub powinny wiązać się z funkcjonowaniem strony. Na przykład: ile osób wchodzi na Twoją stronę korzystając z urządzeń mobilnych? Tak wielu czy tak niewielu? Może warto się zastanowić, czy Twoje strona jest przyjazna takim odbiorcom, może warto popracować nad jej mobilna odsłoną? Może własnie ta tradycyjna wymaga zmian?

Każdy pozytyw wynikający z danych dotyczących Twoich odbiorców, ale też każdy negatyw (zbyt mało młodych osób, użytkownicy z branży, która z punktu widzenia Twojej działalności nie ma potencjału…) to wszystko informacje na temat Twojej strony i Twojej aktywności. Najwyraźniej Twoje treści przyciągają takich, a nie innych odbiorców. Nie Twój target? Zmień strategię. To jedyny sposób, by wpłynąć na profil odbiorców, popularność strony i najczęściej – Twoje zyski.

Zachęcam do wnikliwej analizy statystyk, dla admina to najlepszy rachunek sumienia. Użytkownicy strony to zarówno cel, jak i papierek lakmusowy treści.