Strona WWW – jak zamówić, żeby nie żałować

Strona internetowa to must have każdej firmy – w czasach powszechnej internetyzacji to jeden z podstawowych kanałów informacyjnych, najskuteczniejsza forma prezentacji oferty, najczęściej też ważne narzędzie sprzedażowe i podstawa funkcjonowania całego biznesu. Zdarza się oczywiście, że biznesy dzieją się w realu, a strona www jest tylko dodatkiem pełniącym funkcje reprezentacyjne, ale nawet ta rola jest rolą ważną i wymaga odpowiedniej oprawy.

User experience przede wszystkim

Bez względu na to, czy użytkownik wchodzi na naszą stronę po to, by spędzić tam dwie godziny przeglądając setki proponowanych przez nas odmian tulipanów, czy raczej wpada na dziesięć sekund, żeby sprawdzić adres naszej siedziby, jego wrażenia muszą być pozytywne. User experience – hasło, które warto zapamiętać. Modne obecnie zderzenie IT i socjologii; ogół działań, które sprawić mają, żeby użytkownikowi było u nas dobrze i wygodnie, żeby z pożytkiem dla nas załatwił sobie na naszej stronie sprawy, które go do nas skierowały, żeby wrócił szybko i chętnie i jeszcze namawiał do tego innych.

Dodatkowo – należy pamiętać, że wygoda użytkownika jest dobrze oceniana przez Google, o czym pisaliśmy już na blogu przy okazji Google Mobile Friendly Update.

Firmom-krzakom mówimy NIE

Jeżeli w poszukiwaniu wykonawcy strony internetowej trafiasz na ofertę firmy, która w ciemno wycenia koszty, bez względu na to, czy rzucaną bez namysłu kwotą jest 30 zł czy 30 tys zł – uciekaj! A przynajmniej zachowaj daleko posuniętą ostrożność. Budowa strony internetowej to sprawa bardzo indywidualna. Różne strony wymagają różnych nakładów czasu wykonawcy, czyli naszych pieniędzy. Wycena bez briefu to prawdopodobnie bzdura lub zachęcający wstęp, który z biegiem czasu nieprawdopodobnie się rozrośnie.

Musisz wiedzieć, czego chcesz

Programista za Ciebie tego nie zrobi – musisz się poważnie zastanowić nad swoją stroną. Podstawowe pytanie na dobry początek: kto będzie wchodził na moją stronę i po co? Jeśli Twoje strona służyć ma przede wszystkim prezentowaniu oferty, ta oferta musi być widoczna i łatwo dostępna. Jeśli za pomocą strony chcesz się chwalić nowościami lub dzielić aktualnościami, jeśli najważniejsze treści wymagać mają zalogowania – organizacja strony będzie zupełnie inna. Inaczej będą się rozkładały priorytety, ale też funkcje – między okienkiem do logowania a galerią zdjęć jest spora różnica. Dla wykonawcy strony ten element będzie bardzo istotny – inaczej buduje się stronę składającą się z tekstu, inaczej ze zdjęć, a już zupełnie czym innym są strony zaopatrzone w funkcje: formularze, mapki i inne interaktywne elementy. Jeśli Twoja strona służyć ma przede wszystkim do wyszukiwania i bookowania lotów przez Atlantyk – musisz o tym wiedzieć i mówić, bo pod hasłem „strona o podróżach” programista może się domyślać blogu z opisami wycieczek.

Tylko skąd ich wziąć?

Dobrego wykonawcę strony internetowej, jak każde dobro, towar czy usługę, najlepiej jest zwerbować na podstawie poleceń lub wyszukując informacje o firmie odpowiedzialnej za www na stronach, które uważamy za udane. Najpopularniejszym pewnie jednak sposobem jest wyszukanie w Google. Jeśli decydujemy się na poszukiwanie tym trybem, należy koniecznie zwrócić uwagę na portfolio. Nie mniej ważna jest strona samej firmy, bo powinna być wizytówką możliwości programistów i grafików. Nieatrakcyjna strona lub rzadko aktualizowane newsy/portfolio, powinny nas zaniepokoić. Jeśli ktoś nie dba o własny wizerunek w sieci, nie zadba też pewnie o nasz.

Warto rozmawiać

Po decyzjach w zakresie potencjalnego wykonawcę, przychodzi czas na zgłoszenie zapotrzebowania. Pierwszy kontakt z wykonawcą strony internetowej to z reguły e-mail lub spotkanie – na bazie wstępnej rozmowy telefonicznej czy innej przelotnej wymiany zdań trudno jest ustalić wspólną wizję i koszty. Najlepszym sposobem na kontakt skuteczny jest przekazanie na starcie wszystkich informacji, które naszym zdaniem mogą mieć znaczenie. Nawet pozornych drobiazgów, takich jak określone upodobania graficzne albo linki do stron, które uważamy za udane. Nadmiar informacji nikomu jeszcze nie zaszkodził, a niedobór szkodzi często – nasz brief służyć ma jak najdokładniejszemu ustaleniu zakresu i czasu działań.

Pierwsze wrażenie

Pierwsze spotkanie z reguły ma już solidny fundament w postaci dotychczas przedstawionego zapotrzebowania. Żadna szanująca się firma nie umówi się raczej na osobiste spotkanie, jeśli nie ma przynajmniej zarysu potencjalnego projektu. Rozmowa służyć ma uzupełnieniu wiedzy wykonawców i ustaleniu wspólnego stanowiska. To moment, w którym paść powinno sakramentalne pytanie o istotę konwersji na stronie. Zleceniodawca i zleceniobiorca muszą mieć pewność, że chcą wiedzieć takie same  efekty pracy. To znowu czas na przekazanie wszystkich potrzebnych i niepotrzebnych informacji, zdradzenie obaw i oczekiwań, ale też moment, kiedy należy zachować szczególną czujność, jeśli jest się stroną płacącą. Pamiętać należy, że to jest spotkanie sprzedażowe, czyli istnieje spore prawdopodobieństwo, że zostanie nam zaoferowane wiele zupełnie niepotrzebnych rozwiązań. Dobrze by było, gdybyśmy w takim momencie potrafili przywołać w pamięci na przykład widok strony Play. To jeden z dowodów na to, że nawet firmy niewątpliwie posiadające znaczące budżety na działania w internecie, decydują się na możliwie prosty layout i jedynie niezbędne funkcje, choć przecież wszystko mogłoby tam grać i śpiewać.

play

Klęska urodzaju

Nadmiar funkcji i możliwości to tylko jeden z przykrych scenariuszy. Drugim, bardzo prawdopodobnym, jest nadmiar kreatywności przy kształtowaniu narzędzi niezbędnych. Konstruując formularz, przygotowując tekst na stronę, zawsze należy mieć na uwadze wygodę odbiorcy – jak szybko znajdzie niezbędne informacje, jak sprawnie wyśle zapytanie? Od naszych decyzji zależy, czy uwaga osoby odwiedzającej witrynę skoncentruje się na sprawach istotnych, czy raczej rozpierzchnie się w wyniku konieczności zamykania miliona wyskakujących dodatkowych okien lub w skutek pojawiających się w zasięgu wzroku atrakcyjnych treści. W rozsądnej konstrukcji strony pomóc powinien dobry wykonawca, jednak nie jest to obowiązkowe – zawsze możemy mieć pecha i trafić na egzemplarz mało inwazyjny albo na zwykłego oszusta, które ucieszy niepotrzebna czaso- i pieniądzchłonność zlecenia.

Responsywność i nie tylko – to się może przydać

Więcej nie zawsze znaczy lepiej, jednak pewnych działań nie powinniśmy sobie odmówić. Strona internetowa powinna być mobile friendly, jak było już tłumaczone na blogu. Osiągnąć można ten efekt dwojako – za pomocą strony responsywnej, a więc dostosowującej się do urządzenia, na którym jest przeglądana, lub dzięki utworzeniu równoległej strony mobilnej. Rozwiązanie to zaobserwować można w przypadku większych serwisów internetowych – na telefonie czy innym mniejszym niż komputer sprzęcie na pewno zauważycie znaczące „m”, które pojawia się chociażby w adresie gazeta.pl. Wszystko zależy od skali Waszych działań. Warto spojrzeć jednak na sprawę szerzej: strona internetowa nie tylko powinna być dostępna na dowolnym urządzeniu, ale też odpowiadać na oczekiwania każdego odbiorcy. Tu pojawia się sprawa nowa i ważna: WCAG 2.0. Na wielu stronach instytucji państwowych zauważyć możecie certyfikaty czy deklaracje poświadczające, że witryna jest w pełni dostosowana do odbiorców niepełnosprawnych. To pokłosie WCAG 2.0, ale też rozsądna i przyszłościowa idea, która powinna być szerzona również na stronach komercyjnych. Zastanówcie się, w jakim stopniu takie ułatwienie poszerzy Wam target.

Narysuj mi www

Efektem pierwszej rozmowy jest najczęściej dostosowana do oczekiwań oferta, jednak to, co kusi najbardziej i najbardziej jest też przydatne, to makieta, której wykonanie oferują niektóre firmy. Makieta pozwala zobaczyć naszą stroną w zarysie, przede wszystkim zaś pozwala dokonać wstępnej oceny wykonawcy. Makieta ma na celu przedstawienie wizualne proponowanych rozwiązań, kręgosłup strony, ideę jej funkcjonalności. Polecam zainteresowanie stronami proponującymi już na etapie wstępnych rozmów takie rozwiązanie. Jak każde naświetlenie sprawy pozwala ono ocenić zamysł wykonawcy, ustalić zakres pracy i kosztów.

Nie warto oszczędzać

Tak jak zalecany jest na każdym etapie szukania wykonawcy i tworzenia strony rozsądek i zdystansowane podejście do wszystkich oferowanych nam rozwiązań, tak niezbędny jest też jednak gest. Nie oszukujmy się, strony nie stawia się co tydzień. Bardzo możliwe, że projekt, który właśnie zlecamy jakiejś firmie, zostanie z nami na lata. To inwestycja długofalowa, dlatego zabroniony jest pośpiech i nadmierna oszczędność. Pamiętajmy, że strona to wizytówka naszego biznesu czy inicjatywy. Od tej wizytówki wiele może zależeć, dlatego przyjmijmy ze spokojem, że jakość jest z reguły droższa niż bylejakość.

 

Czym są semantyczne słowa kluczowe (LSI keywords)?

Webmasterzy i specjaliści ds. e-marketingu ciągle szukają nowych metod, żeby poprawić jakość wpisów na stronach. Wszystko to, w celu uzyskania topowych miejsc w wyszukiwarce. Okazuje się, że to wcale nie musi być trudne. Wystarczy opanować kilka kluczowych zasad tworzenia content-u, żeby wypromować domenę w Internecie. Jedną z takich ciekawostek są LSI keywords znane jako semantyczne słowa kluczowe. Po przeczytaniu tego artykułu dowiesz się, czym są semantyczne słowa kluczowe i jak mogą poprawić efekty działań SEO.

Co to są semantyczne słowa kluczowe (LSI keywords)?

Są to wszystkie słowa kluczowe, które nawiązują do frazy głównej, na którą ma być pozycjonowana strona. Pozwalają na dokładne opisanie tematu bez powtarzania tych samych fraz kluczowych. Dzięki temu algorytm Google uznaje treści za oryginalne i dopasowane do konkretnej tematyki. Można to porównać do wypracowań, które zwykliśmy pisać w szkole. Już wtedy nauczyciele podkreślali, że nie można robić „powtórzeń” czyli nadużywać danego słowa. Mimo wszystko nasze teksty były ciekawe i na temat. Prawda jest taka, że już wtedy wykorzystywaliśmy semantyczne słowa kluczowe. Jak? Pisaliśmy to samo innym (pokrewnym semantycznie, bliskoznacznym) słowem.  Dokładnie to samo powinniśmy robić tworząc teksty w Internecie. Takie słowa kluczowe mają pokazać, że treść zawarta na stronie, rzeczywiście opisuje temat, a nie jest stworzona tylko w celu sztucznego uzyskiwania pozycji. Jeśli użytkownik wpisał właśnie taką frazę i wejdzie w pierwszy wynik wyszukiwania na pewno znajdzie to czego szukał. Do tego dąży zespół Google walczący ze spamem i trzeba przyznać, że sprawdza się to co raz lepiej. Osoby, które kilka lat temu zaczynały przygodę z pozycjonowaniem pewnie pamiętają, że w sieci było dużo, słabej jakości tekstów. Właściwie nic nie wnosiły, ale zawierały konkretną frazę, powtórzoną wiele razy, dzięki czemu łatwo i bez większego wysiłku można było uzyskać topową pozycję w wyszukiwarce. Po licznych nowelizacjach algorytmów Google, tego typu działania są szybko wykrywane. Często są karane filtrem lub wykluczeniem z wyników wyszukiwania. Właśnie dlatego warto używać pokrewnych słów, żeby temat był ciekawy, oryginalny i dobrze się pozycjonował.

Semantyczne słowa kluczowe – przykłady

Jeśli chcielibyśmy napisać tekst o fotografii artystycznej użyjemy wielu słów, które będą miały podobne znaczenie, np. fotografie, zdjęcia, obrazy. Jak się okazuje, również te słowa mogą pomóc w pozycjonowaniu. Mimo, iż nie mają tego samego znaczenia, algorytmy Google rozumieją nasz język i potrafią zrozumieć treść. Dodatkowo potrafią ją powiązać z tematem. Zatem, jeśli chcesz stworzyć ciekawy tekst o fotografiach artystycznych możesz śmiało wykorzystać wyrazy bliskoznaczne nie obawiając się, że zepsuje to działania pozycjonerskie. Nie trzeba też martwić się o odmianę wyrazów, a także długi ogon. Sprawdźmy, jak wyglądają wyniki dla wcześniej wspomnianej frazy – „fotografie artystyczne”.

semantyczne_słowa_kluczowe_fotografie_artystyczne

Jak widać na pierwszych pozycjach są strony, które mają w tytule lub opisie semantyczne słowa kluczowe – np. galeria artystycznych zdjęć. Podobnie jest z wyszukiwarką grafik. Mimo, że nie zostało wpisane słowo fotografie od razu wyszukane zostały „zdjęcia artystyczne”.

Kolejną kwestią, na którą warto zwrócić uwagę są słowa, które zostały podkreślone przez wyszukiwarkę. Frazy „Fotografie artystów” i „fotografii artystycznej” są pogrubione w opisach SERP. Ma to na celu pokazanie, że informacje na stronie są powiązane z szukanym zakresem.

Jak znaleźć semantyczne słowa kluczowe?

Najprostszą metodą jest wpisanie wyrażenia w wyszukiwarkę. Dla nas będzie to nadal „fotografia artystyczna”. Żeby znaleźć powiązane słowa kluczowe wystarczy zjechać w dół i sprawdzić propozycje.

semantyczne_słowa_kluczowe_jak_szukać

W sieci można znaleźć wiele programów, które będą przydatne. Dla osób, które poszukują słów angielskich bardzo pomocny może okazać się LSIGraph. Jest to darmowe narzędzie online, które wyświetla listę semantycznych słów kluczowych.

LSI Graph

Zwróćmy uwagę na frazę „discontinued nine west sandals”. Nie ma tutaj użytego słowa shoes, ale i tak wszyscy wiedzą, że sandały są ich rodzajem.

Kolejnym ciekawym rozwiązaniem jest niche laboratory. Jest to opcja darmowa. Można zaznaczyć szukanie podpowiedzi związane z lokalizacją (Polska).nichelaboratory

Tak czy inaczej wyniki otrzymamy w języku angielskim. Ciekawe jest to, że w raporcie otrzymujemy zarówno pojedyncze słowa, jak i złożone frazy. Raport dla słowa „shoes” wygląda w ten sposób:

Niche_Laboratory_report

Oczywiście, jak zawsze przydatny będzie Google Keyword Planner. Dzięki niemu znajdziemy wiele propozycji słów kluczowych powiązanych z naszym tematem.

Gdzie zamieścić bliskoznaczne wyrażenia kluczowe?

Gdy tworzy się treść na stronie, nie ważne czy jest to blog, czy statyczna strona firmowa, należy wybrać główne słowo kluczowe. Później umieszczamy je wraz z wyrazami bliskoznacznymi w:

  • tytule,
  • na początku artykułu, w środku i na końcu,
  • dobrze jeśli zostanie wyróżnione np. pogrubione,
  • odnośniku strony,
  • meta opisie,
  • tagach.

Pamiętajmy, że wielokrotne powtarzanie tej samej frazy w tekście jest „podejrzane”. W dodatku artykuły często wyglądają nieatrakcyjnie. Oczywiście nie namawiam do używania wyszukanych słów. Jednak różnorodność wykorzystanych fraz sprawia, że artykuł jest atrakcyjniejszy i dla odbiorcy i dla Algorytmów Google.

Niezbędnik biznesmena online, czyli systemy internetowe w służbie przedsiębiorcy

Szczęściarze pędzący żywot na etatach mogą nie zdawać sobie sprawy z problemu, ale przedsiębiorcy, nawet – a może szczególnie – porywający się na jednoosobową działalność gospodarczą, szybko natykają się na tę minę: papierologia, logistyka i wszechstronna organizacja. Urzędy, pisma, druki, formularze i rozliczenia. Ciepła posadka pozwala na wiarę, że podatki to jakiś sezonowy detal, która załatwia się sam właściwie. Wygląda na to, że jest to jednak impreza całoroczna, na której w roli drinków z palemka wystąpić powinna księgowość. 

Księgowość to podstawa

Księgowość zresztą najwyraźniej też widzi siebie w roli królowej balu, bo od kiedy dane nowej „firmy” pojawiają się w spisie powszechnym przedsiębiorców, oszołomiony i zagubiony biznesmen lub biznesmenka zostają zaspamowani ofertami opieki nad finansami. Księgowość to podstawowy, ale nadal tylko jeden z kilku elementów biznesowej układanki. Wiadomo, że do prężnego działania firmy – nawet mikro – konieczne są przeróżne akcesoria, takie jak strona internetowa, wizytówki realne i wirtualne, identyfikacja wizualna i nadprzyrodzone ilości samodyscypliny. Wszystkiego za jednym zamachem omówić się nie da, zacznę więc od królowej księgowości.

Wyniki wyszukiwania Google dla frazy „księgowość online” nie pozostawia złudzeń: ifirma.pl jest liderem systemów internetowych dla księgości. Nie jest jednak jedynym graczem na rynku.

Do dwóch razy sztuka

Moja historia testów księgowości online, a konkretnie ifirmy, jest krótka, ale od razu wyboista. Założyłem konto, żeby sprawdzić, czy sprawy mojej aktywności zawodowej ogarnie. Poklikałem dostępne opcje i natrafiwszy na pierwszą niejasność zrezygnowałem. Po miesiącu wróciłem z podkulonym ogonem, bo okazało się, że bez wsparcia systemu internetowego  nie wszystkiego dopilnowałem. Przeprosiłem się z ifirmą, czyli zalogowałem ponownie po przerwie i od razu wiedziałem, że dobrze trafiłem: konto od razu zapytało o jakieś zaległe rozliczenia. Czyli pilnują ZUSu i podatków nawet wtedy, kiedy o to nie proszę. Tego mi było trzeba. Pojawiło się jednak pytanie: skoro ifirma tak potrafi dopilnować moich spraw, jak działają inne tego typu platformy? Tak poznałem portal SuperKsiegowa.pl. Porównajmy:).

Prościej się nie da

Interface chyba nie może być prostszy niż to, co prezentuje ifirma – wyraźny podział na jasne kategorie ułatwia wybór właściwej opcji. Możliwość zaksięgowania efaktur w wersji pdf za pomocą jednego przeciągnięcia pozwala wierzyć, że kiedyś odgruzuję pulpit. iksiegowosc_ispro

SuperKsiegowa.pl podzielona jest na dwie strefy: biznesową i księgową. Zaprawdę, powiadam Wam, nie mam pojęcia, na czym polega różnica, skoro i tak wszystko kręci się wokół rozliczania firmy. Layout mimo wszystko przystępny.

sk

Zbieraj kwity

Każdy początkujący przedsiębiorca musi wyrobić w sobie nawyk zbierania faktur wystawianych na firmę za wszelkie działania niezbędne do jej funkcjonowania. W przypadku freelancerów sprawa nie jest łatwa, bo często kosztem działalności jest rachunek za służbowe spotkanie w kawiarni lub inna – pozornie – błahostka. Te drobiazgi składają się jednak czasem na sumy warte rozliczenia, dlatego należy o nich pamiętać. Ifirma w pamiętaniu pomaga, w zakładce „Wydatki” znajdziemy przejrzystą kategoryzację, która wyczerpuje chyba wszystkie możliwe rodzaje kosztów. iksiegowosc_ispro2

SuperKsiegowa.pl też  pozwala na wprowadzenie i kategoryzowanie wydatków – przy założeniu, że chce nam się przeszukać 5 stron kategorii. Jeśli możliwość ładowania pdfu istnieje – ja jej nie znalazłem.

sk_2

Money, money, money…

Jednym z przyjemniejszych aspektów bycia przedsiębiorcą jest oczywiście wystawianie rachunków/faktur za swoją pracę.  Opcja szybkiego wystawienia rachunku jest tu szalenie przydatna, szczególnie jeśli ma się stałych współpracowników, których system internetowy dla księgowości zapamiętuje. Funkcja „Wyślij mailem” to spełnienie marzeń wielu leniuszków. Szczerze mówiąc, moje pierwsze kroki w ifirmie wiązały się właśnie z koniecznością wystawienia rachunku i zakończyły się porażką. Możliwe, że wynikała ona z faktu, iż wybrałem opcję nie „szybki rachunek” tylko pełną wersję faktury sprzedażowej – i tu już się pojawiły schody, które prawdopodobnie ominęłabym konsultując się z obsługą serwisu – taka funkcja jest dostępna.

iksiegowosc_ispro3

Konkurencja w tej sprawie też nie śpi, a nazwa „szybka faktura” obiecuje wiele. Na szczęście, działa prawidłowo.

sk_3

Liczne dobra

Funkcji różnych księgowość online – zarówno ifirma, jak i SuperKsiegowa.pl – mają wiele – liczą kilometrówkę, ułatwiają prowadzenie ewidencji pojazdu, pomagają ogarnąć sprawy związane z rozliczeniami z pracownikami. Pracowników nie posiadam, ale nad wrzucaniem przejazdów samochodem w koszty myślałem i myśleć przestałem po konsultacjach z żywą księgową. Księgowość internetowa daje narzędzie, a nie słowa zachęty lub sugestie zaniechania, co jest jej ogromnym plusem. Minusem jest wskazywany też przez opiniujących serwis internautów, których zdanie wyszukałem gdzieś na forach: żywa księgowa może uchronić przed zgubnymi skutkami nadmiernego kombinowania, ifirma raczej krytycznie nie spojrzy na wprowadzane dane i nie powstrzyma przez nadmiarem zakupów wpuszczanych w koszty czy innymi formami igrania z uczciwością. Ten wątek ciekawie porusza platforma superksiegowa.pl: podkreślająca możliwość pełnego zdania się na wsparcie „żywych” księgowych i powtarza kojąco, że odpowiedzialność za poprawność działań księgowych spoczywa na serwisie, nie na użytkowniku. To pozwala uwierzyć w możliwość ominięcia scenariusza Ala Capone.

Podsumowanie

Myślę, że jako przedsiębiorca z doświadczeniem, księgowością online się podeprę, ale nie ograniczę do tej formy – wynika to pewnie w znacznym stopniu z braku zaufania do własnych możliwości, nie zaś wątpliwości na tle funkcjonowania serwisu. Taki plan częściowego korzystanie każe zwrócić uwagę na ważną sprawę: koszta. Oba serwisy są dostępne bezpłatnie oraz płatnie. Różnica między nimi polega na tym, że ifirma w wersji free pozwala jedynie fakturować, SuperKsięgowa nawet bezkosztowo jest kompleksowym narzędziem. Myślę, że oszczędność to argument „za”, który pozwala przełknąć kiepski layout. Jeśli macie wątpliwości na tle tego, czy księgowość online to rozwiązanie dla Was lub jeśli po prostu nie macie ochoty na eksperymenty, pamiętajcie: Al Capone trafił do pudła za podatki.

Słowa kluczowe – skuteczny marketing w sieci

Analiza i szukanie słów kluczowych jest podstawą marketingu w sieci. Zaplanowanie tego zadania to pierwsza rzecz, na którą należy zwrócić uwagę nim podejmie się kolejne kroki.

Wiele osób odpowiedzialnych za marketing w sieci podejmuje dość powierzchowne działania. Często wybierają tylko ogólne słowa kluczowe z wysoką konkurencyjnością. Ten sposób jest niewystarczający. Przez to często wskaźnik ROI (zwrot z inwestycji) jest niski. W rezultacie, część pieniędzy jest marnowana.

Można to zrobić lepiej!

Nie warto pracować tylko z Google Keyword Planner. Oczywiście jest to bardzo dobre narzędzie, jednak nie daje całkowitego obrazu. Trzeba spojrzeć na inne opcje, dzięki którym możemy znaleźć interesujące słowa kluczowe. To da nam wyższy ROI (zwrot z inwestycji) i zadowolenie klienta.
Dobrym programem do badania konkurencji jest SEMrush. Dzięki niemu możemy sprawdzić, historię reklam konkurencji. Dodatkowo poznamy ich pozycję oraz przewidywany CPC.

Google Keyword Planner z ciekawszej strony

Każda osoba zajmująca się wyszukiwaniem słów kluczowych używa Google Keyword Planner. To oznacza, że wszyscy otrzymują te same propozycje fraz. Dane zawarte w tym narzędziu są cenne i zdecydowanie powinno się go używać. Jednak nie pozwala ono na prześledzenie działań konkurencji.

Jednym z bardziej interesujących pomysłów jest wyszukiwanie fraz dla danego linku:
Google-KeywordPlanner-url

Od tego można rozpocząć analizę.
Dodatkowo, warto poszukać nowych rozwiązań. Sprawdzanie innych narzędzi darmowych lub płatnych jest przydatne. Tak naprawdę cały czas trzeba śledzić oryginalne programy, żeby stworzyć listę potencjalnych słów kluczowych. Warto też zajrzeć na fora, gdzie znajdują się informacje, jakie rozwiązanie może okazać się pomocne.

Zebranie danych i ocena konkurencji

Gdy już mamy gotową wyjściowy plik, trzeba podzielić dane według pewnych kryteriów. Na przykład:

• Średniej liczby wyszukiwań w ciągu miesiąca (lokalnie lub globalnie)
• Jakie są potencjalne koszty?(jeśli nie ma innych sprawdzonych wyznaczników, CPC jest miarodajną oceną)
• Jak duża jest konkurencja dla danej frazy (tu przydają się narzędzia do analizy konkurencji)
Bardzo ciekawym narzędziem jest Term Explorer, gdzie możemy budować projekty z analizą słów kluczowych i URLi. (Istnieje możliwość pobrania plików w formacie CSV.)

Priorytet słów kluczowych

Teraz pogrupujmy frazy:

  • Duża ilość wyszukiwań, wysoka konkurencyjność, wysoki zwrot – grupa bardzo trudnych fraz, na które osiągnięcie wysokiej pozycji zajmie dużo czasu.
  • Niska ilość wyszukiwań, niska konkurencyjność i potencjalnie niski zwrot – łatwo jest się wbić na pierwsze pozycje, ale ich zdobycie nie zapewnia wiele. Są idealne do wspierania ważniejszych celów, jak z wcześniejszej grupy. Dzięki nim można osiągnąć szybkie zwycięstwa.
  • Średnia liczba wyszukiwań, średnia konkurencyjność, średni lub mały zwrot. Optymalna grupa, dzięki której można łatwo zdobyć topowe miejsca i osiągnąć dodatni bilans, zarówno w ruchu, jak i dochodach. Są to frazy, które powinny znaleźć się na promowanej stronie.

Jednym ze sposobów wzrostu pozycji jest dodawanie nowych słów kluczowych w treści strony. Dzięki temu, zyskuje się widoczność na nowe frazy.
Trzeba też pamiętać, że wartość słów kluczowych jest zmienna. Należy ją sprawdzać dość często. Warto zwracać uwagę na nowinki i trendy w branży, a także szukać nowych możliwości badania rynku.

Podsumowując, szukaj nowych sposobów. Zawsze jest coś do odkrycia. Szukanie słów kluczowych jest bardzo ważne. Dobrze wykonana analiza może przynieść zyski. Dlatego warto i trzeba szukać niekonwencjonalnych rozwiązań.
Do tego Was zachęcam!

Agile marketing – przyszłość czy utopia?

Agile marketing wywołuje mieszane uczucia. Z jednej strony: odejście od typowego marketingowego planowania każdego ruchu z poważnym wyprzedzeniem na rzecz dynamicznych zmian, dostosowywania się do rynku i potrzeb klientów w czasie rzeczywistym i bezustannej ewolucji wydają się koniecznością dziejową i jedynym słusznym wyjściem. Z drugiej strony skoncentrowanie się na „tu i teraz”, ciągłą uważność i sprzężenie akcji i reakcji wydają się niewyobrażalnym wyzwaniem i bezustannym potencjałem wpadki.

Agile marketing – konieczny kierunek zmian czy utopijna wizja niemożliwa do realizacji? Zacznijmy od zdefiniowania podstawowego zagadnienia. Agile marketing to tzw. marketing zwinny. Przede wszystkim zakłada on odrzucenie sztywnych zasad rządzącymi dużymi projektami na rzecz podziału zadań na małe projekty i możliwości ich ciągłej modyfikacji w trakcie ich trwania. Najważniejsze dla zwolenników tej idei jest ciągłe testowanie rozwiązań, przeprowadzanie prostych, mało kosztownych badań, których szybkie wyniki (np. informacja zwrotna od klientów) mogą być od razu uwzględnione w prowadzonym aktualnie projekcie i natychmiast  wpłynąć na jego modyfikację. Dzięki temu klient poniekąd kształtuje produkt odpowiadający jego potrzebom, gwarantując firmie sprzedaż. Podejście agile umożliwia działanie przedsiębiorstwa  w stale zmieniającym się środowisku, bezustanną interakcję z klientem i ciągłe unowocześnianie i ulepszanie oferty.

Agile to nie tylko marketing – przede wszystkim jest to pojęcie związane  programowaniem. Metody zwinne maja zastosowanie w marketingu, ponieważ współczesny marketing ma wiele wspólnego z rozwojem oprogramowania, projektami informatycznymi, przedsięwzięciami biznesowymi.

Ludzie są najważniejsi – priorytety agile marketingu

Strategia agile bazuje na czterech postulatach, które wskazują priorytety:

Ludzie i interakcje ponad procesami i narzędziami.

– Działające oprogramowanie ponad obszerną dokumentacją.

– Współpraca z klientem ponad formalnymi ustaleniami.

Reagowanie na zmiany ponad podążaniem za planem.

Takie wytyczne, czyli dialog z klientem, gotowość na zmiany, działanie, a  nie planowanie, w teorii układają się w schemat idealnego marketingu. Jak to jednak musi być zorganizowane, by za piękną teorią szło działanie, a przede wszystkim efekty?

Warto słuchać klientów

Podstawą agile marketingu jest informacja, której najlepszym źródłem są klienci, dlatego pierwszą zasadą tego systemu są: Niezwykłe doświadczenia klientów. Podstawowym celem jest jak najlepsze spełnianie oczekiwań klientów we wszystkiego rodzaju  interakcjach biznesowych, zarówno osobiście, jak i przez telefon, urządzenia mobilne oraz bezpośrednio poprzez swoje produkty i usługi.  Źródłem przewagi konkurencyjnej jest umiejętność zatrzymywania stałych klientów, dzięki budowaniu odpowiednich relacji z nimi. To z kolei jest możliwe poprzez indywidualne podejście do każdego z nich, na podstawie zdobytej wiedzy na ich temat, obserwacji  ich zachowania, preferencji.

Zmiany – rynek to lubi!

Drugim słowem-kluczem jest Elastyczność, czyli gotowość podejmowania natychmiastowych działań i wprowadzania zmian, jeśli tylko badanie opinii klientów wskaże, że jest to konieczne. Przed rozpoczęciem projektu oczywiście tworzone są  plany, ale dopuszcza się wprowadzenie w nich zmian w wyniku zmieniających się warunków otoczenia. Kluczowa jest elastyczność,  umiejętność szybkiej reakcji na  sugestie otoczenia i  obracanie ich na korzyść. Przykładem obrazującym tak pojmowaną elastyczność może być skuteczne radzenie sobie z kryzysami w mediach społecznościowych, umiejętność wykorzystania niespodziewanej sytuacji biznesowej itp.

Kontaktuj się

Ogólnikowe pojęcie „klienci” z pierwszego punktu znajduje rozwinięcie w trzecim: Jednostki i interakcje. Ważny jest pojedynczy człowiek, rozmowa z nim i wnioski z niej płynące. Narzędzia są środkiem, a nie celem: powinny umożliwiać i ułatwiać interakcje z ludźmi. Dotyczy to też współpracy między członkami różnych zespołów w firmie. Komunikacja to podstawa. Niezmiernie istotne jest zachowanie odpowiedniej równowagi pomiędzy technologią, a bezpośrednimi interakcjami w erze tak szybko rozwijających się technologii, mających zastosowanie również w marketingu.

Testy – byle nie na zwierzętach!

Testowanie jako punkt czwarty nie zaskakuje – w końcu testy są podstawowym źródłem wiedzy na temat ostrzegania produktów przez klientów. Agile ma jednak inne niż dotychczasowe techniki podejście do testów: zamiast wielkich, przekrojowych badań konsumenckich, sugeruje szybkie, krótkie i tanie testy, które można robić często, bez konieczności poważnej obróbki i analizy, z jasnym przekazem. Obecnie stosowane są mierniki, pozwalające zmierzyć efektywność działań marketingowych, co jednocześnie stwarza możliwość nieustannego ulepszania aktualnych rozwiązań, dając odpowiedź w jakim kierunku wprowadzać zmiany. Eksploracja danych służy pobudzeniu tak ważnej w marketingu kreatywności, poprzez odkrywanie ciekawych wzorców zachowań konsumentów.

Analogicznie wygląda sprawa Eksperymentów. Agile marketing zakłada, że ważniejsze jest przeprowadzanie jak największej liczby prostych eksperymentów, wypróbowanie jak największej ilości rożnych pomysłów, z jak największą szybkością. Dzięki temu, wybrane zostaną pomysły, które zakończyły się sukcesem, a odrzucone pozostałe. Przez to zwiększa się liczba pomysłów, które mogą być realizowane na większą skalę, ponieważ ich powodzenie jest poparte wcześniejszym dowodem i wiąże się z mniejszym ryzykiem.

Badanie opinii zawsze i wszędzie

Kolejny krok – znowu klienci, tym razem w odsłonie: Ciągła współpraca z klientem. To nie przypadek, to nie chaos w uszeregowaniu omawianych czynników i etapów – klienci powracają jak refren na każdym etapie strategii agile marketingu nie bez powodu. Najlepszym rozwiązaniem jest bezpośrednia współpraca z klientem, iteracyjnie na każdym etapie tworzenia produktu: projektu, prototypu, jego implementacji. Uzyskiwanie opinii klienta odbywa się zarówno pośrednio poprzez eksplorację danych i testowanie, jak i bezpośrednio za pomocą kanałów feedback i mediów społecznościowych.  Dzięki temu klient w dużej mierze ma wpływ na tworzone rozwiązania, zyskuje więc lepszy produkt, ale też poczucie ważności, co pomaga budować przywiązanie do marki.

Czynnik ostatni, ale istotny: transparentność jest kluczową wartością w podejściu agile. Poprawia ona efektywność pracy oraz jakość produktów. Polega na otwartej komunikacji na każdym etapie pomiędzy wszystkimi uczestnikami procesu: zarówno zespołami, pracownikami, jak i klientami.
Agile wręcz zachęca odbiorców produktu do aktywnego udziału w procesie jego tworzenia, ponieważ wpływa to pozytywnie na efekt prac.

Transparentność na poziomie pracowniczym to wątek wart rozwinięcia. Możliwa jest ona dzięki specyficznej organizacji pracy, pozwalającej na to, że wszystkie zadania, problemy rozwiązywane przez pracowników oraz efekty ich pracy są niejako „widoczne” dla wszystkich uczestników projektu.

Nowy, lepszy tryb pracy

Sprzyjać mają temu specjalne etapy i tryby pracy. Podstawowym mechanizmem w systemach agile jest sprint. Przed sprintem, organizowana jest sesja, na której ustalane są główne cele sprintu i początkowe przypisanie zadań członkom zespołu. Sprint, trwający maksymalnie do 1 miesiąca, jest kierowany procesem zwanym SCRUM . Kluczowym elementem scrum’u, są codzienne spotkania, trwające nie dłużej niż 15 minut. Każda osoba zaangażowana w projekt, tworzy raport, dotyczący trzech kwestii:co zostało wykonane wczoraj, jaki jest plan na dzisiaj i jakie ewentualne przeszkody jego wykonania. Zadaniem prowadzącego spotkanie scrum jest wyeliminowanie wszelkich przeszkód i aktualizacja wykresu dotyczącego tego, jaki procent planowanej pracy został już wykonany. Na zakończenie każdego przebiegu (sprintu) odbywają się dwa spotkania- sprint review oraz sprint retrospective. Na pierwszym z nich zdawane są relacje, z tego co zostało wykonane w danej iteracji, prezentowane są efekty działań, czego ewentualnie nie udało się wykonać. Drugie spotkanie  polega na zrelacjonowaniu jak przebiegał sprint – co poszło dobrze, a co mogłoby ulec poprawie.

Jeśli zespół, to Współpraca pracowników, ale też poszczególnych zespołów i działów. W ciągu ostatnich lat, marketing podzielił się na wiele niezależnie pracujących zespołów, wśród których można wyróżnić grupy zajmujące się: marketingiem mediów społecznościowych, stron internetowych, email-marketingiem itd. Agile marketing dostrzega konieczność koordynacji pracy wszystkich zespołów i ciągłej współpracy pomiędzy nimi. Dla wielu organizacji przyjęcie tych zasad będzie oznaczać nie tylko zmiany w kulturze pracy, ale również w realizacji konkretnych technik zarządzania.

System ten sprzyja Iteracjom. Na czym to polega? Wykorzystując dane, testy i liczne małe badania, istotne jest szybkie tworzenie koncepcji marketingowych i implementowanie je w realnym środowisku. Można je w sposób iteracyjny, ulepszać na podstawie informacji zwrotnych z zewnątrz.

Wykorzystywanie tych danych jest na tyle istotne, że zasłużyło na osobny punkt: Pętla sprzężeń zwrotnych. Każdy projekt, w jaki zaangażowana jest firma, powinien mieć pewne mierniki: ilościowe lub jakościowe, za pomocą których można oceniać iteracyjnie, czy zaszła poprawa. Im częstsze są wspomniane kontrole, tym lepiej dla procesu.

Agile w praktyce

Pojęcie Agile obejmuje  wiele metodyk zarządzania projektami i dostarczania produktów. W pierwszej grupie znajdują się te, które są nastawione w większym stopniu na dostarczanie produktów, a mianowicie:

  • Extreme programming- dostarcza techniki wytwarzania oprogramowania. Pojęcie to obejmuje bardzo małe ilości zarządzania, dlatego trzeba łączyć je z różnymi metodykami zarządzania.
  • Lean- pojęcie to skupia się na jak największej eliminacji strat. Lean może być stosowany w momencie wytwarzania oraz organizacji.
  • Scrum- zapewnia znakomite podejście oparte na zespole. Skupia się na ustaleniu priorytetów pracy.  Jego stosowanie wymaga dodatkowego podejścia związanego z zarządzaniem projektem. Często łączony jest z XP (Scrum zapewnia zarządzanie zespołem, natomiast XP- techniki wytwarzania).

Druga grupa obejmuje metodyki bardziej nastawione na zarządzanie projektami:

  • DSDM (Dynamic Systems Development Method)- jest to najstarsza metoda agile (powstała w  1995roku).  Wyróżnia ją to, że jako jedyna w pełni opisuje zarządzanie projektami. Metoda ta stale się rozwija, jej najnowszą wersją jest DSDM Atern.
  • Agile Project Management- projekt rozpoczyna się od stworzenia planu wysokiego poziomu, który jest oparty o zarys wymagań i rozwiązanie widziane “z lotu ptaka”. Realizowany jest on w sposób iteracyjny i przyrostowy, w taki sposób, że każdy następny produkt jest budowany w oparciu o produkt wytworzony w poprzedniej iteracji.  Szczegółowy plan projektu nie jest tworzony przez kierownika, lecz przez zespół projektowy.

Agile marketing to rewolucja, na którą wiele marek jest już gotowych, a nawet wdraża. Dobrze ilustruje to przykład Coca-Coli, która w 2011 roku ogłosiła, że będą zmieniać ich marketingu z „kreatywnej doskonałości” do „doskonałej zawartości” w ramach nowej strategii. Celem było wprowadzenie innowacji 70/20/10:

• 70% niskiego ryzyka, nastawionego na teraźniejszy produkt

• 20% innowacyjnych „nowych” rozwiązań w oparciu o te już sprawdzone

• 10% nowych, niesprawdzonych,  które w przyszłości będą należeć do 70% lub 20%

To podejście obrazuje otwartość na zmiany, gotowość sięgnięcia po rozwiązania niestandardowe.

Prawdziwym polem bitwy agile marketingu jest interent: content marketing i social media ogólnie, aplikacje, reklamy PPC i pozycjonowanie stron – to wszystko działania bieżące i interaktywne, angażujące odbiorców.

Metoda agile pozwala na realizację złożonych projektów przy minimalizacji ryzyka nieporozumienia wewnątrz zespołu wytwórczego, maksymalizując jednocześnie efekt końcowy, na który kumulują się poszczególne etapy projektu. Stąd właśnie przedsięwzięcia wykonywane przy wykorzystaniu agile stają się bliższe celom stawianym przez Klientów, ale wymagają również poświęcenia czasu na wspólną weryfikację wykonanych efektów, wzajemne zrozumienie i przekazywanie uwag. To spotkanie idei i technologii, co jest zaletą i wadą tego działania, bo na pytanie „kto to ogarnie?”, często brakuje odpowiedzi. Spokojnie – obserwujemy:).

Twittery i inne bajery – przegląd newsów z internetów

Sektor mobilny ma coraz większe znacznie. Dla SEOwców może to być pewien problem, a na pewno zagadnienie ważne, determinujące obecnie wdrażane i planowane strategie, o czym była już mowa na blogu. (Uwaga, nowy algorytm śmiga już oficjalnie od 21 kwietnia!). Dla podglądaczy internetów jest to ciekawe zjawisko, którego skutki zaobserwować można nie tylko w wyszukiwarkach, ale też w danych reklamowych.

Przykład pierwszy z brzegu, chociaż w tym wypadku brzeg jest brzegiem oceanu po drugiej stronie świata: według szacunków Interactive Advertising Bureau w ubiegłym roku w USA nakłady na reklamy internetowe osiągnęły kwotę 49,5 mld dol., co oznacza wzrost o 16 proc. w skali roku. Aż 25 proc. tych pieniędzy zasiliły działania reklamowe prowadzone mobilnie. Poważniejszy zastrzyk finansowy niż kiedykolwiek odnotowało video i social media. I to jest, proszę Państwa, obraz społeczeństwa. W końcu marketerzy inwestują w to, co ma branie. Jeśli chcecie się reklamować, to najlepiej pomyśleć o nośnym społecznościowo video, które dobrze się będzie odtwarzało na smartfonie.

No właśnie – czy na pewno smartfonie? I jakim smartfonie? Tę sprawę zbadał niedawno Gemius. Niemal co trzecia (28 proc.) odsłona w sieci w Polsce pochodzi ze smartfonów i tabletów marki Apple (dane z marca 2015 r.). To o 1/5 więcej niż rok wcześniej w analogicznym okresie, gdy ruch w sieci z urządzeń tego producenta stanowił ponad 23 proc. wszystkich odsłon mobilnych. Co więcej, widać wyraźnie, że w kraju nad Wisłą ruch mobilny z iPhone’a wzrósł rok do roku blisko dwukrotnie (z 9 proc. w marcu 2014 r. do 17 proc. w marcu 2015 r.).

Polscy fani produktów z jabłkiem to jednak grupa znikoma w porównaniu ze swoimi odpowiednikami w Rosji – tam aż 53 proc. odsłon generują produkty Apple. Analitycy tłumaczą to typowo rosyjskim zapotrzebowaniem na gadżety będące wyznacznikiem statusu i prestiżu. Wystarczy jednak spojrzeć na Danię – 80 proc. odsłon pochodzi z iSprzętu, co więcej takie są dane z tego roku, ale tak samo wyglądało to w roku ubiegłym.

Skoro o Apple mowa – wielu generuje odsłony za pomocą obrandowanym jabłkiem sprzętów, wielu jednak nie może – choć bardzo by chciało. Obiektem najbardziej pożądanym jest obecnie Apple Watch. Niektórym szkoda na niego kasy, inni nie zawahali się przed inwestycją, ale jeszcze czekają na realizację zamówienia. Jak żyć bez Apple Watch? Teraz już bez problemu, ponieważ Sketchfab oferuje narzędzie, dzięki któremu można Apple Watch mieć, nawet jeśli się go nie ma. Oczywiście to pozorne posiadanie możliwe jest tylko w internecie, na przeróżnych selfies podbijających media społecznościowe, ale przecież wszyscy wiemy, że to tam dzieje się życie.

Dzięki Sketchfab Twoje selfie może wyglądać tak:

watch-selfie

 

Co ciekawe, wszystko dzieje się w 3D, zegarek można dopasować, a nawet zmienić mu rozmiar, co więcej, to nie tylko selfie z AppleWatch, to jest selfie „zrobione” Apple Watch! Niby nic, a czuje się człowiek królem życia.

Zmieniając temat: bez względu na to, czy masz AppleWatch, apple-cokolwiek-innego czy nie masz, jednego nie zobaczysz w sieci z pewnością: twitterowej aktywności władz Twittera. Najciemniej pod latarnią? Dick Costolo, CEO portalu, publikuje średnio trzy wpisy dziennie, jednak 7 na 11 dyrektorów nie robi tego wcale. Pozostali próbują chyba wyrównać tę zaskakującą statystykę i na przykład Katie Jacobs Stanton, wiceprezes ds. globalnych mediów, wrzuca średnio 9 ćwierków dziennie. Sprawie przyjrzał się Si Dawson, pochodzący z Nowej Zelandii deweloper stron internetowych. Poza twardymi danymi Dawson dostarczył też kilka propozycji interpretacji, zarówno pozytywnej (nie mają nic ciekawego do przekazania, więc nie przekazują, ale angażują się biernie, czyli czytają), jak i negatywnych (nie znają produktu, który tworzą). Twitter sprawy nie skomentował.

Jeśli prawdą jest, że to brak natchnienia stoi za twórczą niemocą władz Twittera, mogą oni skorzystać ze wsparcia Google – AdSense ma nową funkcję, przydatną wydawcom treści internetowej. Dzięki temu narzędziu mogą oni teraz dostawać wskazówki dotyczące promocji treści, czyli rekomendacje dotyczące tego, co warto promować, a co nie, czyli co jest dla odbiorców bardziej „hot”, a co można było sobie darować – Matched content. W praktyce będzie to wyglądało tak, że Google będzie sugerował, które treści należy podłączyć pod dane teksty. W efekcie odbiorca zapoznawszy się z treścią numer 1, będzie miał podsunięta odpowiednią treść 2, a potem kolejne, tak, by zechciał zamieszkać na naszej stronie na zawsze i czytać w nieskończoność.

Matched content to nie jedyna nowinka od Google. Pewną ciekawostką jest fakt, że dzięki Google Street View można zwiedzać kolejne polskie atrakcje turystyczne, m.in. Wilczy Szaniec znajdujący się w okolicach Kętrzyna, łódzkie  zoo i warszawskie Łazienki.  Tę ostatnią wiadomość można jednak swobodnie zlekceważyć na najbliższe kilka miesięcy – polecamy zwiedzanie tych okolic raczej osobiście niż za pomocą Google Street View. Odsłony z urządzeń mobilnych same się nie zrobią:).

 

Jak zostać badaczem SEO w weekend – dobra analiza SEO

Oczywiście: znawcą SEO nikt nie zostanie w weekend, a już na pewno na poziom eksperta nie wskakuje się za pomocą przeczytania jego posta, nawet posta na tym blogu. Jednym tekstem i w jeden weekend można jednak zrobić krok w stronę lepszego zrozumienia SEO. Jeden tekst może być źródłem patentu na skuteczne podejście do sprawy. Mam nadzieję, że ten tekst będzie na to szansą.

Badanie, analizowanie i zgłębianie SEO zaczyna się w momencie, kiedy przestajemy przyjmować na wiarę wszystko, co nam pokazuje Google. Prawdziwe SEO rodzi się w chwili, kiedy patrzymy na statystki i zastanawiamy się, skąd wzięły się dane, które są nam prezentowane, jakie zjawiska miały na nie wpływ i jak my możemy je kształtować. Możemy zakończyć działanie na etapie, kiedy Google informuje, że wprowadził nowy algorytm i że jest 200 czynników, od których zależy nasze pozycjonowanie. Możemy też jednak próbować dowiedzieć się, co to za czynniki są i jak możemy je wykorzystać lub przechytrzyć. Jak każda nauka, analiza  SEO wymaga pytań, wątpliwości i dociekań. Ciekawość dziecka, żądza wiedzy i otwartość na wyzwania to podstawowe cechy specjalisty SEO.

To jest ciekawy paradoks SEO: z jednej strony wymaga od nas stawiania pytań, z drugiej zaś – nie gwarantuje żadnych pewnych odpowiedzi. Pozycjonowanie i walka z Google to ciągłe bazowanie na domysłach. Niektórzy domyślają się trafniej niż inni, co winduje ich na pozycję liderów. Najskuteczniejszym wstępem udanego szacowania reguł Google jest analiza statystyk, przede wszystkim zaś szukanie między nimi korelacji. Konieczne jest spojrzenie panoramiczne, wieloaspektowe, porównywanie i szukanie zależności. Tak pracują najlepsi.

Istnieje wiele popularnych teorii, którym można zawierzyć lub nie – dotyczy to na przykład wpływu popularności w social media na pozycjonowanie w wyszukiwarce. Dość częste jest myślenie, że wpływ ten jest bardzo poważny i bardzo pozytywny. Badacz SEO nie idzie jednak tropem takich ogólnych przekonań, tylko gromadzi dane i porównuje je, tak długo, aż uda mu się dostrzec, jak w rzeczywistości układa się współpraca między mediami społecznościowymi i Google. Samodzielne wysnucie wniosków i budowanie strategii na podstawie analizy SEO daje większe szanse na sukces niż spokojne dreptanie utartą ścieżką stereotypów.

Skuteczna analiza SEO – jak zacząć?

SEO to działanie na danych, które należy gromadzić i analizować. Dla wielu pierwszym skojarzeniem ze słowem „analiza” jest Excel i jest to bardzo dobre skojarzenie. Microsoft Excel to narzędzie jednocześnie proste i szalenie skomplikowane – wszystko zależy od tego, na jak zaawansowanym poziomie z niego korzystamy. Oczywistym jest, że im bardziej zaawansowany poziom, tym większy potencjał, dlatego warto zgłębić istotę i funkcjonalność arkuszy kalkulacyjnych. W sieci, ale też w realu, znaleźć można wiele kursów i podręczników, które uczą, jak z Excela wyciągnąć to, co najlepsze. Uwierzcie, pomaga uporządkować nawet największe ilości najbardziej różnorodnych danych. Warto pamiętać, że Excel to pomysł na porządkowanie danych, przydatne są jednak też narzędzia, które owe dane zbierają.

Kolejnym krokiem jest zrozumienie istoty tego, na czym działasz, czyli metryki i tego, czym w rzeczywistości są one dla strony.  Najlepszym sposobem na zbadanie tej sprawy jest przebrnięcie przez wiele stron i wiele metryk, tak, by ich idea i wartość stały się jasne.

Kiedy już wiesz, na czym pracujesz i jakie masz do tego narzędzia, możesz postawić pytania. Pytania są po to, by wiedzieć, które obszary są interesujące. Pytania są też po to, by przyniosły odpowiedzi, na których będzie można zbudować strategię działania. Pytanie nie może być ogólne, czyli nie pytamy (choć pytamy:)), jak mieć dobrą pozycję w wyszukiwarce. Znacznie lepszym pytaniem jest: „Jaki wpływ na pozycjonowanie ma posiadanie przez stronę mobilnej wersji?”.

Takie pytanie to punkt zaczepienia – od tej pory wiemy już, czego szukamy, jakie dane są nam potrzebne. Gromadzimy wszelkie możliwe informacje, z naciskiem na przeszukiwanie wyników wyszukiwania, a nie publikacji na branżowych blogach. Zbieramy materiał dowodowy, porównujemy, zestawiamy i już mamy pierwsze własne spostrzeżenia.

Następnym krokiem jest dobudowywanie pytań, na przykład o powiązanie mediów społecznościowych i pozycjonowania. Takie pytanie generuje kolejne przeszukania, porównania i zestawienia, na końcu dając nam wynik, który jest istotny nie tylko sam w sobie, ale jest już czynnikiem, którego wpływ na pozycjonowanie możemy porównać z innymi potencjalnymi czynnikami.

Świetną przykładową analizę w odniesieniu do swoich narzędzie przeprowadził SEMrush. Zbadane zostały powiązania między pozycjonowaniem stron a aktywnością wokół nich w mediach społecznościowych. Hipoteza badawcza brzmiała: „share’owanie poprawia statystyki”. Czy na pewno?

Metryki

Po użyciu kilku metryk (które przykładowo pokazuje estymację ruchu przychodzącego dla danego słowa kluczowego) okazało się , że korelacja miedzy share’owaniem treści a pozycjonowaniem strony wynosi jedynie 1%. Dla tych samych stron i aktywności sprawdzono jednak powiązania między aktywnościami społecznościowymi a rosnącą liczbą słów kluczowych, okazało się, że korelacja wynosi 59%, a to już jest solidna wartość. Jednocześnie nasuwa się wniosek, że każdy problem należy podejść z kilku stron, bo nie zawsze jedna prawdziwa odpowiedź jest wyczerpaniem tematu.

Google nieustannie utrzymuje, że aktywność w mediach społecznościowych nie wpływa bezpośrednio na algorytm. Specjaliści zgadzają się z tym założeniem. Korelacja na poziomie 70% występuje między liczbą domen linkujących a share’ami. Jak podaje Majestic SEO może wzrosnąć do 81% jeśli strona, do której linkujemy cieszy się zaufaniem Google. 76% wynika z korelacji między liczbą słów kluczowych a ilością linków pochodzących z zaufanych stron oraz udostępnień w social media.

Wnioski

Wszystko to prowadzi do prostego wniosku, że Google faworyzuje wzrastające ilości słów kluczowych i zaufane domeny. Powyższy wywód prosty i trafny, a przede wszystkim umiejetnie udowadniający, że warto każdą sprawę sprawdzić wszechstronnie.

Patrząc na te dane nasuwa się wniosek, że social shares i zaplecze jakościowych back-linków pomaga zdobyć dobrą pozycję. Dlatego jeśli tworzysz treść można stwierdzić, że kluczowe wskaźniki efektywności to podlinkowanie treści oraz „rozgłos” zdobyty w mediach społecznościowych.

Podsumowując: ciekawość i analityczny umysł (lub analityczny arkusz kalkulacyjny), jak najwięcej danych i jak najwięcej pytań stawianych tym danym to podstawa sukcesu każdego badacza SEO. Jeśli chcemy zajmować się pozycjonowaniem skutecznie i tworzyć dobrą analizę SEO, obudźmy w sobie ciekawość na wiosnę:).

 

Media społecznościowe – dzieje się! społecznościowa prasówka …

Media społecznościowe są ucieleśnieniem współczesnego pędu i globalizacji jednocześnie. W Internecie wszystko się rodzi i natychmiast odchodzi w zapomnienie, każda sensacja trwa kilka minut i znika, wyparta przez następny skandal. Co więcej, dzieje się tak w skali globalnej i żadna różnica czasu nie jest przeszkodą, gdy chodzi o tempo rozchodzenia się newsa. Wszystko to sprawia, że gdy przychodzi moment podsumowania, bardzo ciężko jest się zdecydować na najważniejszą wiadomość miesiąca czy tygodnia. A ja sobie właśnie postanowiłam zrobić podsumowanie. Z założenia zupełnie subiektywne, co więcej, absolutnie nie zamierzam wartościować tych zdarzeń czy rozwiązań jako dobrych lub złych albo ważnych, jedyne kryterium to: interesujące. A newsów będzie pięć.

1. Facebook usunął z opcji opisu nastroju „feeling fat”. Można sobie było wybrać taką opcję spośród wielu odmian uczuć i stanów emocjonalnych. W polskiej wersji pozostało „najedzona”, ale wiadomo, że spora jest różnica semantyczna między byciem najedzonym a… No właśnie: uczuciem grubości? Jednym z głównych argumentów przeciwników „feeling fat” było to, że nie ma takiego stanu emocjonalnego, chyba, że ktoś ma zaburzenia odżywiania. I tu się pojawia drugi argument: „feeling fat” uderza w osoby, które cierpią na jadłowstręt psychiczny lub mają skłonności do kompulsywnego objadania. Facebook usunął kontrowersyjną opcję. To jeden z ciekawszych i jednocześnie dobitnych dowodów na to, że w komunikacji z milionami należy zachować wrażliwość i empatię odpowiadające relacjom bliskim i delikatnym.

2. 45 proc. internautów deklaruje, że zdarzyło im się opublikować w sieci zdjęcie typu selfie – wynika z badania Universal McCann. Portal wirtualnemedia.pl poprzedził tę informację wiele mówiącym słówkiem „aż”. Ja bym to chyba przekształciła w „tylko 45 proc. internautów przyznaje, że zdarzyło im się opublikować w sieci zdjęcie typu selfie”. A przynajmniej tak wynika z moich zupełnie nieoficjalnych badań przeprowadzonych za pomocą obserwacji poczynań moich facebookowych poczynań. Jednocześnie jednak przeczytać możemy: ” Do zamiłowania w zdjęciach typu selfie przyznaje się 45 proc. badanych. Potwierdzają oni także, że udostępnienia i polubienia pod ich zdjęciami sprawiają, że czują się szczęśliwsi i bardziej dowartościowani”. No i teraz: kto nigdy z napięciem nie wpatrywał się w przyrost lajków pod zdjęciem, niech pierwszy rzuci kamieniem…

3.  Nawiązując do „napięcia”, które pojawiło się w poprzednim zdaniu: z przeprowadzonych za oceanem badań Pew Foundation wynika, że osoby korzystające z mediów społecznościowych są bardziej narażone na stres niż ludzie, którzy radzą sobie w życiu bez profilu na Facebooku. Różnica nie jest diametralna, ale interesująca: 57 proc. osób aktywnych  społecznościowo przyznaje, że zdarza im się odczuwać stres. Wśród osób niezainteresowanych social media współczynnik ten wynosi 48 proc.  Do życia „zupełnie pozbawionego stresu” przyznaje się 17 proc. społecznościowych aktywistów i 28 proc. osób „offline”.  Tłumaczyć to można presją związaną z koniecznością (?) tworzenia idealnego wizerunku w mediach społecznościowych oraz frustracją wynikającą z oglądania cudzych wspaniałych losów i porównywania ich z własnymi, rzeczywistymi. Poza mniej lub bardziej wydumaną presją wizerunkową, pewnym uzasadnieniem wyników jest też ciągły kontakt z najświeższymi doniesieniami kultury, sztuki i polityki, które również generują presję, tym razem związaną z potrzebą „bycia na czasie” i frustrację wynikającą z nienadążania za światem. Czy te kilka procent różnicy przekonało kogoś, że warto się „wylogować do życia”? Nie? to jedziemy dalej.

4. Facebook przekonuje prasowych gigantów, że warto współpracować. Pomysł jest ciekawy: nie chodzi o postowanie newsów na profilach mediów tylko na tworzenie swoistej gazetki facebookowej. FB stało by się rodzajem mediów, skazanym na olbrzymi zasięg. Szerokie grono odbiorców to łakomy kąsek dla wydawców, jednak cena jest wysoka: reguły w tej grze ustala FB i nie są to reguły łatwe. Treści stają się niemal własnością portalu, a wiadomo, że w tych sprawach FB z trudem idzie na ustępstwa. Scenariusz ten – jeśli się ziści – będzie miał dodatkowy aspekt etyczny: FB zyska niezwykłą ścieżkę lokowania reklam w swoim pozornie newsowym przekazanie. Nie banery, nie reklamy, nie posty sponsorowane, tylko lokowanie marek i produktów w pozornie profesjonalnym przekazie. A wydawało się, że oferta reklamowa FB jest ograniczona…

5. Na początku marca Facebook zapowiedział, a potem zrealizował nowe, lepsze liczenie fanów. Spore ofiary w ludziach: fanpage’e straciły po 3-4 proc. polubień. Pisząc „ofiary w ludziach” mam oczywiście na myśli nie stracone martwe dusze i inne fikcyjne profile, ale ból (zupełnie pozbawiony nadziei) social media nindżów.

Z danych firmy Quintly wynika, że strony mające ponad 1 milion fanów straciły średnio ponad 4 proc. liczby polubień, a fanpage z mniej niż 1 milionem fanów odnotowały średnio blisko 3-proc. spadek liczby „like’ów”.

No i jak tu korzystać z mediów społecznościowych i unikać stresu, ja się pytam?

 

 

Serwis przyjazny urządzeniom mobilnym – Google Mobile Friendly Update

User is a king – zdecydował Google niedawno, pozbawiając w ten sposób tronu władcę dotychczasowego – content. Sprawę wieszczyło już na początku roku wielu specjalistów SEO, czas zdaje się potwierdzać te domniemania. Nadeszła nowa epoka, gdy największą zaletą, jaką w oczach Google może mieć strona internetowa, jest wszechstronne zapewnienie wygody użytkownikowi – czyli serwis przyjazny urządzeniom mobilnym. Ma być szybko, sprawnie, wygodnie, intuicyjnie, przede wszystkim zaś strony mają być dostępne bez względu na to, czy user zamierza zwiedzać www za pomocą podarowanego na Pierwszą Komunię PC, służbowego laptopa, super sprawnego smartfona czy jakiegokolwiek innego urządzenia.

Oczywiście – wszystko to są w pewnym stopniu plotki, ponieważ decyzje Google często obwieszczane są z opóźnieniem lub wcale. Niekiedy zmiany wprowadzane są z zaskoczenia, czasem stopniowo. W znacznym stopniu specjaliści uprawiają więc swoiste wróżby, ewentualnie hazard, tak jak ja, kiedy staram się przewidzieć, które narzędzia SEO mogą być przydatne – tak jak robiłem to w ostatnim poście. W tym wypadku są jednak dowody potwierdzające przypuszczenia – Google udostępnił jakiś czas temu narzędzie pozwalające skontrolować, czy i jak strona funkcjonuje mobilnie. Od tej pory plotki dotyczące zainteresowaniem giganta z Mountain View tym aspektem funkcjonowania strony, zmieniły się w pewniaka. Sam Google zapowiada zmiany od końca kwietnia. Swoją drogą: narzędzie do badania mobilności nie jest doskonałe, ale trudno mu odmówić skuteczności. Polecam bliższe zaznajomienie z tematem – nie tylko dostajemy informację, że nie działamy mobilnie, ale też wskazówki, jaki zmiany są konkretnie potrzebne (np. rozmiar tekstu).

Jeszcze niedawno wielu specjalistów od SEO z lekceważeniem odnosiło się do statystyk dla stron mobilnych.  Nie było przewinieniem nie wiedzieć, że strona standardowa i mobilna mają w ogóle osobne rankingi. Pod koniec stycznia 2015 roku taką wiedzę posiadł już chyba każdy. Oczywiście wiedza nie wzięła się z komunikatu, tylko z nagłych i zaskakujących zmian statystyk. Na forach SEO, szczególnie zagranicznych, zapanował popłoch. Zlecieć z dnia na dzień z TOP10 na piątą stronę? Pod koniec stycznia takie zdarzenia były powszechne. Zresztą – przypadki gwałtownego awansu stron, które nawet administrator słabo kojarzył – też się zdarzały.

Wtedy cały świat SEO zrozumiał, że jeśli wersji mobile nie przewidywały plany na 2015, to właśnie zaczęły. Nie tylko wersja mobilna ma to znaczenie – chodzi o komfort użytkowania (UX – User Experience).  Google skoncentrował się na rynku mobilnym, który rozumieć należy jako łatwy, powszechny dostęp z dowolnego urządzenia – przede wszystkim mobilnego: smartfona, tabletu, itp. Dodatkowo ważne stało się tempo ładowania strony. Nagle treści zeszły na drugi plan, na pierwszy wysunęła się łatwość ich odnalezienia i czytania/oglądania. Czy to przypadek ? – nie sądzę w końcu Google to twórca najbardziej popularnego systemu operacyjnego wykorzystywanego na urządzeniach mobilnych [źródło: ranking.pl].

Na początku roku można było odnotować pierwsze symptomy zmian, na przykład w wynikach wyszukiwania pojawiły się oznaczenia „mobilefriendly”. Realizacji mobilności są dwa rodzaje: mobilna wersja strony lub aplikacja. Google raczej nie dyskryminuje żadnej z tych opcji – jeśli tylko użytkownicy mobilnych urządzeń mogą korzystać wygodnie z Twoich treści, Google jest zadowolony.

Można myśleć, że sprawa jest wydumana – chociaż nie oszukujmy się – to uzasadniony postępem technologicznym znak czasów. Można mówić, że ta niewielka zmiana zbyt dużo nie zepsuje. Wystarczy jednak sobie wyobrazić, co to będzie dla statystyk strony, a co za tym idzie – dla np. zysków firmy – jeśli okaże się, że w pewnym sensie nieuprzejmie traktujemy 30% klientów. Tyle właśnie może trafiać do nas mobilnie. Jeśli nie będziemy na nich przygotowani – Google uprzejmie skieruje ich na inną, bardziej przyjazną stronę.

Brzmi strasznie? Polecam sklikanie narzędzia Google, zapoznanie się ze wskazówkami i rozsądny plan zmian ASAP. Od razu będzie Wam się lepiej spało.

Najlepsze narzędzia SEO online 2015

Dobry analityk SEO wie jak wykorzystać istniejące narzędzia do analiz i odpowiedzi na pytanie – czego Google wymaga od konkretnej strony. To ciężka praca ponieważ przed specjalistami SEO Google stawia wciąż nowe wymagania. Oczywiście specjaliści nie spodziewają się rewolucji – jednak gigant z Mountain View wciąż ma przede wszystkim na uwadze dobro odbiorców treści prezentowanych w sieci. Jak wynika z mniej lub bardziej oficjalnych, ostatnich plotek – nacisk na „wartościowe, unikalne treści” powoli staje się coraz lżejszy, znaczenia zaś nabiera komfort użytkowania strony. na łaskawość Google liczyć będą mogły strony działające też na urządzeniach mobilnych, dbające o bezpieczeństwo internautów (https://), nawigowane intuicyjnie i  szybko podające oczekiwane przez Internautów treści.

Nowe wymagania Google zmuszają nas do sięgnięcia po nowe narzędzia SEO online (a tych w 2015 roku zapowiada się sporo) oraz do świeżego spojrzenia na rozwiązania już znane. Przegląd nowości i niezbędnych klasyków przeprowadziłem już rok temu – sporo moich typów potwierdziło skuteczność, trudno więc odmówić sobie przyjemności ponownego sondowania rynku.

Niektóre narzędzia nadają się świetnie do przeprowadzania analiz, inne najlepiej raportują, jeszcze inne są niezastąpione przy analizach linkowania. Są jednak rozwiązania, które nadają się do wszystkiego, są niezwykle wszechstronne i samowystarczalne i tak jak rok temu przywołać muszę w tym miejscu złoty Graal SEO-wców – MOZa. Nie oszukujemy się, nie znajdziemy raczej żadnego rankingu narzędzie SEO bez tego zawodnika. Wart odnotowania z MOZowej stajnie jest chociażby Open Site Explorer, całkiem zgrabne rozwiązanie dla użytkowników spragnionych dogłębnych analiz linków.

Inna sprawa, którą trzeba mieć na oku: rosnąca moc Twittera. Wiesz, że coś się dzieje, ale nie wiesz do końca co, a przede wszystkim – co z tym zrobić dla dobra Twojej strony? MOZ ma na to narzędzie: Followerwonk. Miejcie na uwadze Twittera, rośnie w siłę, warto mieć w nim sojusznika. Ciekawym rozwiązaniem w zakresie dbania o swoje interesy w mediach społecznościowych jest Sprout Social. Interakcja to zjawisko lubiane przez Google, więc Twoja strona powinna być ulubieńcem wszelkich Facebooków i siedliskiem wszystkich możliwych społecznościowych wtyczek, dlatego warto mieć pomoc w rozsądnym zarządzaniu kampaniami. Google ofcjalnie twierdzi, że social media nie mają wpływu na pozycjonowanie, ale nie oszukujmy się – pośrednio mają. Dlatego nie można sobie pozwolić na lekceważenie w tej sprawie.

Innym klasykiem, który warto mieć pod ręką, jest SEMrush.com. Pozwala zajrzeć wszędzie tam, dokąd nie zaprowadzi nas Google Analytics. Skoro o tym podstawowym rozwiązaniu mowa – Google często ze sporym opóźnieniem komunikuje zmiany, jednak sygnały – i to całkiem czytelne – daje na bieżąco. Tak było choćby z zakładką „Obsługa na urządzeniach przenośnych” w Narzędziach Google dla webmasterów. Nagle stało się jasne, że mobilność w SEO ma znaczenie. Trudno tylko powiedzieć, czy duże, ogromneczy jeszcze znikome.

Trudno się nie zgodzić z tymi, którzy do działań analitycznych polecają Majestic SEO. Wystarczy zajrzeć do ich listy dostępnych narzędzi, żeby zrozumieć, że potrafią sprawdzić i zbadać wszystko. Nawet to, o czym nigdy byś nie pomyślał, zastanawiając się nad czynnikami mającymi wpływ na Twoją stronę: linki, adresy, domeny, otoczenie. Odnotują, zbadają, dostarczą informacje.

Jeśli komuś sen z powiek spędza wizja zduplikowanego contentu – a powinna, bo to jeden z najsilniejszych alergenów Google, powinien sięgnąć po odpowiednią broń. Wart polecenia na takie okazje jest Siteliner czy Sitechecker. Dobrze jest też mieć Screaming Froga, który umożliwia gruntowne sprawdzenie serwisu oraz wszystkich jego podstron (nagłówki, title i description, linkowanie wewnętrzne, canonicale oraz przekierowania). Jak wspominałem na początku, użytkownikowi ma być u nas wygodnie, trzeba więc sprawdzać, czy wszystko działa jak powinno.

Na liście czynników budujących komfort internauty, a więc wpływających na naszą pozycję w wynikach wyszukiwania, wymieniłem prędkość ładowania strony. Jak sprawa ta wygląda w przypadku naszej strony – sprawdzić to można szybko, łatwo i za darmo. Niech to będzie w tym roku jeden z ważniejszych adresów: PageSpeedInsights.

Podsumowując, dzięki użyciu powyższych narzędzi SEO Wasz serwis ma duże szanse dobrze zaprezentować się przed Google-em …

Mądre maszyny – narzędzia marketingu

Pamiętacie jeszcze o Big Data? Na pewno pamiętacie, trudno o tym obecnie zapomnieć. jeśli komuś się przydarzyła jednak informacyjna luka – polecam moje wyjaśnienia dotyczące tych niewyobrażalnych ilości danych, które bez przerwy pojawiają się w Internecie oraz tego, co można z nimi zrobić.

Big Data operuje na dużej ilości danych o różnej wartości – często niezwykle interesujących dla marketerów jako źródło wiedzy na temat klientów. Jak jednak wykorzystać tę wiedzę, jak ją zanalizować w czasie rzeczywistym, czyli tak, by mieć gotową odpowiedź, gdy tylko pojawi się zapytanie czy wyrażona aktywnością internetową potrzeba klienta? Człowiek jest tu zupełnie bezradny – w przeciwieństwie do maszyn, które bezustannie się uczą. Maszyny uczące się, czyli machine learning, to temat mojego ostatniego postu. Dziś zamierzam przybliżyć Wam zastosowanie uczenia maszynowego w marketingu.

Wbrew pozorom, mądrzejsze maszyny nie przełożą się — przynajmniej w najbliższym czasie – na redukcję pracowników „ludzkich”. Ucząca się maszyna – tak jak każda inna – przeglądów, doskonalenia i obsługi – osiągnięcie spektakularnych efektów jest możliwe po zintegrowaniu odpowiednich procesów, ludzi, treści, danych i informacji. Natychmiastowe korzyści wypływające z automatyzacji marketingu wyraźnie polepszają wydajność, elastyczność i kreatywność w obrębie całej firmy.

Co nam daje maszyna, która bezustannie zbiera i analizuje dane?

Dzięki takiemu rozwiązaniu szybciej, sprawniej i skuteczniej poznajemy klientów. Dowiadujemy się, kto i w jaki sposób do nas trafił, jak korzysta z serwisu i na jakiej płaszczyźnie można/należy zoptymalizować kampanie marketingowe.  Wyniki pracy maszyny pozwalają zbudować strategię i nawiązać kontakt z klientem, wtedy, kiedy on tego rzeczywiście potrzebuje i oczekuje.  Paradoksalnie, udział maszyny w komunikacji z klientem pozwala na budowę osobistej relacji – często przecież podstawą kontaktu są dane wrażliwe, które potencjalny klient ujawnia w sieci.

Wykorzystanie wiedzy maszyn pozwala maksymalne sprzężenie działań wszystkich działów firmy (z naciskiem na sprzedaż) i podniesienie efektów. innowacyjność, kreatywność, komunikatywność, umiejętność szybkiego przyswajania wiedzy, zdolności analityczne – brzmi jak opis idealnego pracownika? Dodajemy do tej wyliczanki „niskie koszty eksploatacji” i już wiemy, dlaczego maszyny uczące są ważnym elementem zespołu. „Kreatywność” może budzić pewne wątpliwości – w końcu omawiamy zalety maszyny. Pamiętać należy, że odpowiednia aplikacja czy oprogramowanie to coś w rodzaju pracownika działu. Jeśli aplikacja zajmuje się przewidywalnymi, powtarzalnymi zadaniami – na przykład przypomina klientom o terminach spotkań, pozostali, żywi członkowie załogi mają czas na obowiązki wymagające większej elastyczności, pomysłowości, natchnienia. Wkład maszyny w pracę działu marketingu najlepiej jest rozpatrywać właśnie przez pryzmat jej wkładu w funkcjonowanie całej komórki, czy nawet firmy.

Warto zwrócić uwagę na kilka narzędzi marketingu, które ułatwiają działania marketingowe i wykorzystują do tego machine learning:

SAS – środowisko stworzone przez SAS Institute. Nazwa pochodzi od angielskiego Statistical Analysis System.

Funkcjonalność obejmuje m.in.:

  • import i przetwarzanie danych, wyszukiwanie informacji, zarządzanie danymi oraz eksploracja danych,
  • generowanie raportów i grafiki,
  • analizę statystyczną,
  • niezależność od platformy systemowej, możliwość prowadzenia zdalnych obliczeń.

SAS jako środowisko programistyczne umożliwia programowanie w różnych językach, w zależności od potrzeb:

  • SAS 4GL – najpopularniejszy język w środowisku SAS
  • SQL – język zapytań do baz danych
  • SCL (Screen Control Language) – budowa aplikacji okienkowych w środowiskach graficznych, np. Windows, XWindow
  • makra
  • możliwość integracji z językami C, COBOL, FORTRAN, PL/I, IBM assembler

IBM Predictive Customer Intelligence personalizuje kontakt z klientem, przedstawiając rekomendacje oparte na zachowaniach zakupowych, aktywności internetowej (w tym społecznościowej) oraz innych czynnikach unikalnych dla konkretnego użytkownika. Zasada działania jest prosta: programowanie w sposób zautomatyzowany zbiera informacje z różnych źródeł wewnętrznych i zewnętrznych oraz modeluje zachowania klientów. Następnie przeprowadza ocenę alternatywnych możliwości i proponuje najlepsze działanie, jakie można podjąć na danym etapie interakcji z klientem — tak, aby proponować trafne oferty właściwym klientom w najlepszym do tego czasie.

IBM Predictive Customer Intelligence realizuje następujące funkcje:

  • Analizy predykcyjne, które pomagają w przewidywaniu zachowań poszczególnych klientów.
  • Zarządzanie procesami decyzyjnymi mające na celu przekształcenie oceny modelu predykcyjnego w rekomendację działania.
  • Oceny w czasie rzeczywistym pozwalające generować i aktualizować prognozy na żądanie.
  • Optymalizacja uwzględniająca więcej niż jedną kampanię z myślą o podejmowaniu jak najkorzystniejszych decyzji dotyczących poszczególnych klientów.
  • Segmentacja klientów w oparciu o wartość w całym okresie trwania relacji — służąca klasyfikacji i zatrzymywaniu klientów.

RapidMiner dostarcza oprogramowanie, rozwiązania i usługi w dziedzinie zaawansowanych analiz, w tym analiz predykcyjnych, data mining i text mining. Pozwala automatycznie i inteligentnie analizować dane – w tym baz danych i tekstu – na dużą skalę. Nasza technologia pozwala firmom na wykonanie przy użyciu inteligentnych decyzji biznesowych oraz działań opartych na metodzie prognozowania. Flagowym produktem jest RapidMiner 4.0, najczęściej stosowana do zaawansowanej analityki platforma na rynku. Setki tysięcy aplikacji są już używane w ponad 50 krajach, zarówno jako samodzielne aplikacje, jak i silniki zintegrowane z własnymi produktami klientów; daje to silną przewagę konkurencyjną. Trudno nie wierzyć w to rozwiązanie, skoro wiemy, że zaufały mu firmy takie jak: EADS GfK, Lufthansa, PayPal, Pepsi, Sanofi, Siemens, Telenor i Volkswagen.

STATISTICA – zintegrowany pakiet oprogramowania statystycznego i analitycznego wydany przez firmę StatSoft. STATISTICA daje szeroki wybór procedur analizy i zarządzania danymi, zapewnia także wizualizację wyników analizy oraz generowanie raportów.

  • 1991. Pierwsza, DOSowa wersja programu STATISTICA. Nowa, zorientowana graficznie linia programów statystycznych została wydana w marcu 1991.
  • 1992. Wersja programu STATISTICA dla komputerów Macintosh
  • 1993. Wersja programu STATISTICA dla systemu Microsoft Windows
  • 1994-1998. Program STATISTICA w wersjach – 4.0, 4.5, 5.0, 5.1 oraz wydania ’97 i ’98
  • 2001. Nowa generacja pakietu STATISTICA. Wydanie wersji 6 programu STATISTICA opiera się na architekturze COM i korzysta z nowych technologii, takich jak wielowątkowość i wsparcie dla przetwarzania współbieżnego.
  • 2002-2004. Wprowadzanie rozwiązań wykorzystujących rozproszone realizowanie zadań oraz rozwiązań bazujących na interfejsie przez WWW.

Cztery narzędzia marketingu  – to tylko dobry początek. W tej dziedzinie wiele się dzieje, jeszcze więcej będzie się działo z czasem. Obserwujemy:)

Machine learning – samodoskonalenie z problemami

Oglądaliście film „Ona” („Her„) Spike’a Jonza? Jeśli nie – polecam. Fascynująca historia miłości człowieka i systemu komputerowego mówiącego głosem Scarlett Johansson. Wzruszający zapis rozwoju maszyny, która uczy się bycia człowiekiem w najbardziej ludzkim obszarze – uczuć i emocji. Brzmi jak science-fiction w opcji romantycznej, trąca rojeniami na temat sztucznej inteligencji, które rozgrzewały wyobraźnię w latach 90? Trochę na pewno, jednak pamiętać należy, że maszyny uczące się (czy uczenie maszyn – machine learning) to nie jest już tylko filmowa fikcja. Od lat 90. zmieniło się sporo.  Skoro o filmach mowa – faktów poszukać można w „Najmądrzejszej maszynie na świecie” – dokumentalnym wprowadzeniu w świat maszyn, które mogą być mądrzejsze niż ludzie.

Machine learning to stosunkowo młoda dziedzina interdyscyplinarna zajmująca się sztuczną inteligencją. Interdyscyplinarność oznacza tu styk robotyki, informatyki i statystyki. Głównym jej celem jest stworzenie automatycznego systemu potrafiącego doskonalić się przy pomocy gromadzonego doświadczenia (czyli danych) i nabywania na tej podstawie nowej wiedzy, czyli ciągły rozwój wynikający z nieustannego przetwarzania informacji i wyciągania z nich wniosków.

Uczenie maszynowe dotyczy głównie ewoucji oprogramowania stosowanego zwłaszcza w innowacyjnych technologiach i przemyśle. Odpowiednie algorytmy mają pozwolić oprogramowaniu na zautomatyzowanie procesu pozyskiwania i analizy danych do ulepszania i rozwoju własnego systemu. Uczenie się może być rozpatrywane jako konkretyzacja algorytmu, czyli dobór parametrów, nazywanych wiedzą lub umiejętnością. Służy do tego wiele typów metod pozyskiwania oraz reprezentowania wiedzy. Jeśli słysząc „algorytm” natychmiast myślicie „Google” to macie rację – kolejne, coraz bardziej zaawansowane algorytmy tej wyszukiwarki to po prostu kolejne etapy rozwoju wynikającego z odpowiedniego zastosowania zgromadzonej wiedzy.

Jakie może mieć to zastosowanie? Coraz mądrzejsze maszyny to większa efektywność, wydajność i bezawaryjność oraz redukcja kosztów. Czyli warto.

machine learning

W ogólnym schemacie uczenia się mamy do czynienia z systemem uczącym się i środowiskiem, w którym system musi się dynamicznie dostosowywać do zmieniających się warunków (np. systemy sterowania). Nie da się w tych warunkach uniknąć problemów, które są złożone i trudne do opisu. Często nie ma wystarczających modeli teoretycznych albo ich uzyskanie  jest zbyt kosztowne czy mało wiarygodne.

Uczenie maszynowe przynieść ma konkretne skutki:

  • tworzenie nowych pojęć
  • wykrywanie nieznanych prawidłowości w danych
  • formułowanie reguł decyzyjnych
  • przyswajanie nowych pojęć i struktur przy pomocy uogólnienia i analogii
  • modyfikowanie, uogólnianie i precyzowanie danych
  • zdobywanie wiedzy poprzez interakcję z otoczeniem
  • formułowanie wiedzy zrozumiałej dla człowieka

W praktyce oznacza to rozwiązania takie jak:

  • oprogramowanie do rozpoznawania mowy:
    • automatyczne tłumaczenie
    • rozpoznawanie mowy ludzkiej
    • dyktowanie komputerowi
    • interfejsy użytkownika sterowane głosem
    • automatyzacja głosem czynności domowych
    • interaktywne biura obsługi
    • rozwój robotów
  • automatyczna nawigacja i sterowanie:
    • kierowanie pojazdem (ALVINN)
    • odnajdywanie drogi w nieznanym środowisku
    • kierowanie statkiem kosmicznym (NASA Remote Agent)
    • automatyzacja systemów produkcji i wydobycia (przemysł, górnictwo)
  • analiza i klasyfikacja danych:
    • systematyka obiektów astronomicznych (NASA Sky Survey)
    • rozpoznawanie chorób na podstawie symptomów
    • modelowanie i rozwijanie terapii lekowych
    • rozpoznawania pisma na podstawie przykładów
    • klasyfikowanie danych do grup tematycznych wg kryteriów
    • aproksymacja nieznanej funkcji na podstawie próbek
    • ustalanie zależności funkcyjnych w danych
    • przewidywanie trendów na rynkach finansowych na podstawie danych mikro i makro ekonomicznych

Jeszcze bardziej praktycznie? Przywołajmy Cleverbota.

Cleverbot to aplikacja internetowa, która rozmawia z ludźmi. Chatbota stworzył Rollo Carpenter (razem z podobną aplikacją internetową, Jabberwacky). Wraz ze współpracownikami odbył z nim kilkanaście tysięcy rozmów w pierwszej dekadzie jego działania. Od momentu udostępnienia w Internecie w 1997 liczba rozmów przekroczyła 150 milionów. Cleverbot jest też obecnie aplikacją dostępną za 0,99 USD. Inaczej niż w przypadku innych chatbotów, odpowiedzi Cleverbota nie są zaprogramowane. Zamiast tego „uczy się” on na podstawie danych uzyskanych od ludzi, którzy piszą w polu pod logiem Cleverbota, a system znajduje słowa kluczowe lub całe frazy pasujące do danych wejściowych. Po przeszukaniu zebranych rozmów udziela odpowiedzi opartej o to, co ludzie odpowiedzieli na tę treść, kiedy to Cleverbot ją napisał. Cleverbot brał udział w formalnym teście Turinga w czasie festiwalu Techniche w Indian Institute of Technology Guwahati 3 sierpnia 2011. Na podstawie 334 głosów został uznany za ludzkiego w 59,3% (ludzie uzyskali w tym teście 63.3%). Wynik 50.05% lub więcej jest często uznawany za zaliczenie testu. Oprogramowanie obsługiwało w czasie testu tylko 1 lub 2 jednoczesne pytania, a w internecie Cleverbot rozmawia z 10 000 ludzi na raz.

Za mało przykładów? ASIMO, czyli Zaawansowany Postęp w Innowacyjnej Mobilności to humanoidalny robot pokazany światu 31 października 2000 roku. Stworzyła go Honda i wbrew powszechnemu mniemaniu, nie uczciła (podobno) nazwą pisarza science fiction Isaaca Asimova. ASIMO jest jedenastym udanym modelem dwunożnego robota. Uważany jest za jeden z najbardziej rozwiniętych technicznie chodzących robotów na świecie. Projekt rozwijał się od roku 1986, kiedy to stworzono pierwszy model E0. ASIMO może chodzić do przodu, do tyłu, w bok, biegać, omijać przeszkody, zawracać i wchodzić w interakcję z otoczeniem. Celem producenta jest stworzenie robota, który będzie pomocny w codziennym życiu człowieka.

Tak wygląda ten przystojniaczek. Czy scenariusz „Her” wciąż wydaje Wam się nierealny?

robo

Jak uczy się maszyna? Uczenie maszynowe i jego powodzenie zależą od wyboru odpowiedniej metody formułującej problem, zbioru uczącego (czyli doświadczeń) oraz sposobu uczenia się nowych pojęć.

Metody maszynowego uczenia się:

  • wnioskowanie wartości funkcji logicznej z przykładów
  • uczenie drzew decyzyjnych (ang. Decision Tree Learning) – drzewo decyzyjne to graficzna metoda wspomagania procesu decyzyjnego, stosowana w teorii decyzji. Algorytm drzew decyzyjnych jest również stosowany w uczeniu maszynowym do pozyskiwania wiedzy na podstawie przykładów. Jest to schemat o strukturze drzewa decyzji i ich możliwych konsekwencji. Zadaniem drzew decyzyjnych może być zarówno stworzenie planu, jak i rozwiązanie problemu decyzyjnego. Metoda drzew decyzyjnych jest szczególnie przydatna w problemach decyzyjnych z licznymi, rozgałęziającymi się wariantami
  • uczenie Bayesowskie (ang. Bayesian Learning) – metody oparte na twierdzeniu sformułowanym przez XVIII-wiecznego matematyka Thomasa Bayesa odgrywają znaczną i ostatnio rosnącą rolę w dziedzinie sztucznej inteligencji, zwłaszcza w uczeniu się maszyn. Można ogólnie powiedzieć, że wzór Bayesa stał się podstawą do rozwoju teorii i algorytmów różnych form wnioskowania probabilistycznego.
  • uczenie z przykładów (ang. Instance-based Learning) – w odróżnieniu od metod uczenia, które konstruują ogólny, tzw. jawny opis funkcji docelowej, który dostarcza dane uczące, uczenie tego typu po prostu zapamiętuje przykłady. Uogólnianie nad tymi przykładami jest odwlekane do czasu, aż nowy przykład (zadanie) ma być klasyfikowane. Za każdym razem, kiedy przychodzi nowe zapytanie (przykład), badane są jego powiązania z zapamiętanymi już przykładami, aby ustalić wartość docelowej funkcji nowego przykładu.
  • uczenie się zbioru reguł (ang. Learning Sets of Rules) – zbiór reguł w postaci klauzul Hornowskich może być interpretowany jako program w np. języku Prolog
  • analityczne uczenie (ang. Analytical Learning) – metody uczenia indukcyjnego (wykorzystują sieci neuronowe, drzewa decyzyjne), wymagają pewnej liczby przykładów aby osiągnąć pewien poziom uogólnienia. Analityczne uczenie stosuje wiedzę aprioryczną i wnioskowanie dedukcyjne do powiększania informacji dostarczanej przez przykłady uczące.
  • połączenie indukcyjnego i analitycznego uczenia (ang. Combining Inductive and Analytical Learning) – czyste indukcyjne uczenie formułuje ogólne hipotezy poprzez znalezienie empirycznych regularności w przykładach uczących. Natomiast czyste analityczne uczenie stosuje aprioryczną wiedzę do otrzymania ogólnych hipotez dedukcyjnie. Połączenie obu podejść daje korzyści: lepszą poprawność i trafność uogólniania gdy dostępna jest wiedza aprioryczna oraz szukanie zależności w obserwowanych danych uczących do wypracowania szybkiej wiedzy apriorycznej.
  • uczenie przez wzmacnianie (ang. Reinforcement Learning) – uczenie przez wzmacnianie to metoda wyznaczania optymalnej polityki sterowania przez agenta w nieznanym mu środowisku, na podstawie interakcji z tym środowiskiem. Jedyną informacją, na której agent się opiera jest sygnał wzmocnienia (poprzez wzorowanie się na pojęciu wzmocnienia z nauk behawioralnych w psychologii), który osiąga wysoką wartość (nagrodę), gdy agent podejmuje poprawne decyzje lub niską (karę) gdy podejmuje decyzje błędnie.

Wszystko to brzmi dobrze, ale problemów nie brakuje i jak na razie są one poważne:

Poza etapem tworzenia systemu powstają następujące problemy:

  • zbyt mała lub zbyt duża zależność systemu od środowiska, w którym się znajduje co może prowadzić do niepełnej analizy danych lub błędnej interpretacji
  • wiarygodność i poprawność generowanych wniosków, według Poppera „wiedza zdobyta w wyniku obserwacji ma charakter jedynie domyślny”, a rozumowanie indukcyjne nie może być w pełni udowodnione, a jedynie sfalsyfikowane
  • niekompletne lub częściowo sprzeczne dane
  • niezdefiniowanie ograniczeń dziedzinowych, może prowadzić do zbyt daleko idących uogólnień i błędnych wniosków

W związku z powyższymi problemami przyjęto następujące postulaty, które wiedza generowana przez systemy powinna spełniać:

  • wiedza generowana przez system powinna podlegać kontroli i ocenie człowieka, według podanych przez niego kryteriów
  • system powinien być zdolny do udzielenia wyjaśnienia w przypadku problemu
  • wiedza powinna być zrozumiała dla człowieka, czyli wyrażalna w opisie i modelu myślowym przez niego przyjętym

Jaki etap rozwoju – wbrew tym problemom – osiągnęło uczenie maszynowe i w jaki sposób znajduje ono zastosowanie w marketingu? O tym już w następnym odcinku:)