Serwis przyjazny urządzeniom mobilnym – Google Mobile Friendly Update

User is a king – zdecydował Google niedawno, pozbawiając w ten sposób tronu władcę dotychczasowego – content. Sprawę wieszczyło już na początku roku wielu specjalistów SEO, czas zdaje się potwierdzać te domniemania. Nadeszła nowa epoka, gdy największą zaletą, jaką w oczach Google może mieć strona internetowa, jest wszechstronne zapewnienie wygody użytkownikowi – czyli serwis przyjazny urządzeniom mobilnym. Ma być szybko, sprawnie, wygodnie, intuicyjnie, przede wszystkim zaś strony mają być dostępne bez względu na to, czy user zamierza zwiedzać www za pomocą podarowanego na Pierwszą Komunię PC, służbowego laptopa, super sprawnego smartfona czy jakiegokolwiek innego urządzenia.

Oczywiście – wszystko to są w pewnym stopniu plotki, ponieważ decyzje Google często obwieszczane są z opóźnieniem lub wcale. Niekiedy zmiany wprowadzane są z zaskoczenia, czasem stopniowo. W znacznym stopniu specjaliści uprawiają więc swoiste wróżby, ewentualnie hazard, tak jak ja, kiedy staram się przewidzieć, które narzędzia SEO mogą być przydatne – tak jak robiłem to w ostatnim poście. W tym wypadku są jednak dowody potwierdzające przypuszczenia – Google udostępnił jakiś czas temu narzędzie pozwalające skontrolować, czy i jak strona funkcjonuje mobilnie. Od tej pory plotki dotyczące zainteresowaniem giganta z Mountain View tym aspektem funkcjonowania strony, zmieniły się w pewniaka. Sam Google zapowiada zmiany od końca kwietnia. Swoją drogą: narzędzie do badania mobilności nie jest doskonałe, ale trudno mu odmówić skuteczności. Polecam bliższe zaznajomienie z tematem – nie tylko dostajemy informację, że nie działamy mobilnie, ale też wskazówki, jaki zmiany są konkretnie potrzebne (np. rozmiar tekstu).

Jeszcze niedawno wielu specjalistów od SEO z lekceważeniem odnosiło się do statystyk dla stron mobilnych.  Nie było przewinieniem nie wiedzieć, że strona standardowa i mobilna mają w ogóle osobne rankingi. Pod koniec stycznia 2015 roku taką wiedzę posiadł już chyba każdy. Oczywiście wiedza nie wzięła się z komunikatu, tylko z nagłych i zaskakujących zmian statystyk. Na forach SEO, szczególnie zagranicznych, zapanował popłoch. Zlecieć z dnia na dzień z TOP10 na piątą stronę? Pod koniec stycznia takie zdarzenia były powszechne. Zresztą – przypadki gwałtownego awansu stron, które nawet administrator słabo kojarzył – też się zdarzały.

Wtedy cały świat SEO zrozumiał, że jeśli wersji mobile nie przewidywały plany na 2015, to właśnie zaczęły. Nie tylko wersja mobilna ma to znaczenie – chodzi o komfort użytkowania (UX – User Experience).  Google skoncentrował się na rynku mobilnym, który rozumieć należy jako łatwy, powszechny dostęp z dowolnego urządzenia – przede wszystkim mobilnego: smartfona, tabletu, itp. Dodatkowo ważne stało się tempo ładowania strony. Nagle treści zeszły na drugi plan, na pierwszy wysunęła się łatwość ich odnalezienia i czytania/oglądania. Czy to przypadek ? – nie sądzę w końcu Google to twórca najbardziej popularnego systemu operacyjnego wykorzystywanego na urządzeniach mobilnych [źródło: ranking.pl].

Na początku roku można było odnotować pierwsze symptomy zmian, na przykład w wynikach wyszukiwania pojawiły się oznaczenia „mobilefriendly”. Realizacji mobilności są dwa rodzaje: mobilna wersja strony lub aplikacja. Google raczej nie dyskryminuje żadnej z tych opcji – jeśli tylko użytkownicy mobilnych urządzeń mogą korzystać wygodnie z Twoich treści, Google jest zadowolony.

Można myśleć, że sprawa jest wydumana – chociaż nie oszukujmy się – to uzasadniony postępem technologicznym znak czasów. Można mówić, że ta niewielka zmiana zbyt dużo nie zepsuje. Wystarczy jednak sobie wyobrazić, co to będzie dla statystyk strony, a co za tym idzie – dla np. zysków firmy – jeśli okaże się, że w pewnym sensie nieuprzejmie traktujemy 30% klientów. Tyle właśnie może trafiać do nas mobilnie. Jeśli nie będziemy na nich przygotowani – Google uprzejmie skieruje ich na inną, bardziej przyjazną stronę.

Brzmi strasznie? Polecam sklikanie narzędzia Google, zapoznanie się ze wskazówkami i rozsądny plan zmian ASAP. Od razu będzie Wam się lepiej spało.

Najlepsze narzędzia SEO online 2015

Dobry analityk SEO wie jak wykorzystać istniejące narzędzia do analiz i odpowiedzi na pytanie – czego Google wymaga od konkretnej strony. To ciężka praca ponieważ przed specjalistami SEO Google stawia wciąż nowe wymagania. Oczywiście specjaliści nie spodziewają się rewolucji – jednak gigant z Mountain View wciąż ma przede wszystkim na uwadze dobro odbiorców treści prezentowanych w sieci. Jak wynika z mniej lub bardziej oficjalnych, ostatnich plotek – nacisk na „wartościowe, unikalne treści” powoli staje się coraz lżejszy, znaczenia zaś nabiera komfort użytkowania strony. na łaskawość Google liczyć będą mogły strony działające też na urządzeniach mobilnych, dbające o bezpieczeństwo internautów (https://), nawigowane intuicyjnie i  szybko podające oczekiwane przez Internautów treści.

Nowe wymagania Google zmuszają nas do sięgnięcia po nowe narzędzia SEO online (a tych w 2015 roku zapowiada się sporo) oraz do świeżego spojrzenia na rozwiązania już znane. Przegląd nowości i niezbędnych klasyków przeprowadziłem już rok temu – sporo moich typów potwierdziło skuteczność, trudno więc odmówić sobie przyjemności ponownego sondowania rynku.

Niektóre narzędzia nadają się świetnie do przeprowadzania analiz, inne najlepiej raportują, jeszcze inne są niezastąpione przy analizach linkowania. Są jednak rozwiązania, które nadają się do wszystkiego, są niezwykle wszechstronne i samowystarczalne i tak jak rok temu przywołać muszę w tym miejscu złoty Graal SEO-wców – MOZa. Nie oszukujemy się, nie znajdziemy raczej żadnego rankingu narzędzie SEO bez tego zawodnika. Wart odnotowania z MOZowej stajnie jest chociażby Open Site Explorer, całkiem zgrabne rozwiązanie dla użytkowników spragnionych dogłębnych analiz linków.

Inna sprawa, którą trzeba mieć na oku: rosnąca moc Twittera. Wiesz, że coś się dzieje, ale nie wiesz do końca co, a przede wszystkim – co z tym zrobić dla dobra Twojej strony? MOZ ma na to narzędzie: Followerwonk. Miejcie na uwadze Twittera, rośnie w siłę, warto mieć w nim sojusznika. Ciekawym rozwiązaniem w zakresie dbania o swoje interesy w mediach społecznościowych jest Sprout Social. Interakcja to zjawisko lubiane przez Google, więc Twoja strona powinna być ulubieńcem wszelkich Facebooków i siedliskiem wszystkich możliwych społecznościowych wtyczek, dlatego warto mieć pomoc w rozsądnym zarządzaniu kampaniami. Google ofcjalnie twierdzi, że social media nie mają wpływu na pozycjonowanie, ale nie oszukujmy się – pośrednio mają. Dlatego nie można sobie pozwolić na lekceważenie w tej sprawie.

Innym klasykiem, który warto mieć pod ręką, jest SEMrush.com. Pozwala zajrzeć wszędzie tam, dokąd nie zaprowadzi nas Google Analytics. Skoro o tym podstawowym rozwiązaniu mowa – Google często ze sporym opóźnieniem komunikuje zmiany, jednak sygnały – i to całkiem czytelne – daje na bieżąco. Tak było choćby z zakładką „Obsługa na urządzeniach przenośnych” w Narzędziach Google dla webmasterów. Nagle stało się jasne, że mobilność w SEO ma znaczenie. Trudno tylko powiedzieć, czy duże, ogromneczy jeszcze znikome.

Trudno się nie zgodzić z tymi, którzy do działań analitycznych polecają Majestic SEO. Wystarczy zajrzeć do ich listy dostępnych narzędzi, żeby zrozumieć, że potrafią sprawdzić i zbadać wszystko. Nawet to, o czym nigdy byś nie pomyślał, zastanawiając się nad czynnikami mającymi wpływ na Twoją stronę: linki, adresy, domeny, otoczenie. Odnotują, zbadają, dostarczą informacje.

Jeśli komuś sen z powiek spędza wizja zduplikowanego contentu – a powinna, bo to jeden z najsilniejszych alergenów Google, powinien sięgnąć po odpowiednią broń. Wart polecenia na takie okazje jest Siteliner czy Sitechecker. Dobrze jest też mieć Screaming Froga, który umożliwia gruntowne sprawdzenie serwisu oraz wszystkich jego podstron (nagłówki, title i description, linkowanie wewnętrzne, canonicale oraz przekierowania). Jak wspominałem na początku, użytkownikowi ma być u nas wygodnie, trzeba więc sprawdzać, czy wszystko działa jak powinno.

Na liście czynników budujących komfort internauty, a więc wpływających na naszą pozycję w wynikach wyszukiwania, wymieniłem prędkość ładowania strony. Jak sprawa ta wygląda w przypadku naszej strony – sprawdzić to można szybko, łatwo i za darmo. Niech to będzie w tym roku jeden z ważniejszych adresów: PageSpeedInsights.

Podsumowując, dzięki użyciu powyższych narzędzi SEO Wasz serwis ma duże szanse dobrze zaprezentować się przed Google-em …

Mądre maszyny – narzędzia marketingu

Pamiętacie jeszcze o Big Data? Na pewno pamiętacie, trudno o tym obecnie zapomnieć. jeśli komuś się przydarzyła jednak informacyjna luka – polecam moje wyjaśnienia dotyczące tych niewyobrażalnych ilości danych, które bez przerwy pojawiają się w Internecie oraz tego, co można z nimi zrobić.

Big Data operuje na dużej ilości danych o różnej wartości – często niezwykle interesujących dla marketerów jako źródło wiedzy na temat klientów. Jak jednak wykorzystać tę wiedzę, jak ją zanalizować w czasie rzeczywistym, czyli tak, by mieć gotową odpowiedź, gdy tylko pojawi się zapytanie czy wyrażona aktywnością internetową potrzeba klienta? Człowiek jest tu zupełnie bezradny – w przeciwieństwie do maszyn, które bezustannie się uczą. Maszyny uczące się, czyli machine learning, to temat mojego ostatniego postu. Dziś zamierzam przybliżyć Wam zastosowanie uczenia maszynowego w marketingu.

Wbrew pozorom, mądrzejsze maszyny nie przełożą się — przynajmniej w najbliższym czasie – na redukcję pracowników „ludzkich”. Ucząca się maszyna – tak jak każda inna – przeglądów, doskonalenia i obsługi – osiągnięcie spektakularnych efektów jest możliwe po zintegrowaniu odpowiednich procesów, ludzi, treści, danych i informacji. Natychmiastowe korzyści wypływające z automatyzacji marketingu wyraźnie polepszają wydajność, elastyczność i kreatywność w obrębie całej firmy.

Co nam daje maszyna, która bezustannie zbiera i analizuje dane?

Dzięki takiemu rozwiązaniu szybciej, sprawniej i skuteczniej poznajemy klientów. Dowiadujemy się, kto i w jaki sposób do nas trafił, jak korzysta z serwisu i na jakiej płaszczyźnie można/należy zoptymalizować kampanie marketingowe.  Wyniki pracy maszyny pozwalają zbudować strategię i nawiązać kontakt z klientem, wtedy, kiedy on tego rzeczywiście potrzebuje i oczekuje.  Paradoksalnie, udział maszyny w komunikacji z klientem pozwala na budowę osobistej relacji – często przecież podstawą kontaktu są dane wrażliwe, które potencjalny klient ujawnia w sieci.

Wykorzystanie wiedzy maszyn pozwala maksymalne sprzężenie działań wszystkich działów firmy (z naciskiem na sprzedaż) i podniesienie efektów. innowacyjność, kreatywność, komunikatywność, umiejętność szybkiego przyswajania wiedzy, zdolności analityczne – brzmi jak opis idealnego pracownika? Dodajemy do tej wyliczanki „niskie koszty eksploatacji” i już wiemy, dlaczego maszyny uczące są ważnym elementem zespołu. „Kreatywność” może budzić pewne wątpliwości – w końcu omawiamy zalety maszyny. Pamiętać należy, że odpowiednia aplikacja czy oprogramowanie to coś w rodzaju pracownika działu. Jeśli aplikacja zajmuje się przewidywalnymi, powtarzalnymi zadaniami – na przykład przypomina klientom o terminach spotkań, pozostali, żywi członkowie załogi mają czas na obowiązki wymagające większej elastyczności, pomysłowości, natchnienia. Wkład maszyny w pracę działu marketingu najlepiej jest rozpatrywać właśnie przez pryzmat jej wkładu w funkcjonowanie całej komórki, czy nawet firmy.

Warto zwrócić uwagę na kilka narzędzi marketingu, które ułatwiają działania marketingowe i wykorzystują do tego machine learning:

SAS – środowisko stworzone przez SAS Institute. Nazwa pochodzi od angielskiego Statistical Analysis System.

Funkcjonalność obejmuje m.in.:

  • import i przetwarzanie danych, wyszukiwanie informacji, zarządzanie danymi oraz eksploracja danych,
  • generowanie raportów i grafiki,
  • analizę statystyczną,
  • niezależność od platformy systemowej, możliwość prowadzenia zdalnych obliczeń.

SAS jako środowisko programistyczne umożliwia programowanie w różnych językach, w zależności od potrzeb:

  • SAS 4GL – najpopularniejszy język w środowisku SAS
  • SQL – język zapytań do baz danych
  • SCL (Screen Control Language) – budowa aplikacji okienkowych w środowiskach graficznych, np. Windows, XWindow
  • makra
  • możliwość integracji z językami C, COBOL, FORTRAN, PL/I, IBM assembler

IBM Predictive Customer Intelligence personalizuje kontakt z klientem, przedstawiając rekomendacje oparte na zachowaniach zakupowych, aktywności internetowej (w tym społecznościowej) oraz innych czynnikach unikalnych dla konkretnego użytkownika. Zasada działania jest prosta: programowanie w sposób zautomatyzowany zbiera informacje z różnych źródeł wewnętrznych i zewnętrznych oraz modeluje zachowania klientów. Następnie przeprowadza ocenę alternatywnych możliwości i proponuje najlepsze działanie, jakie można podjąć na danym etapie interakcji z klientem — tak, aby proponować trafne oferty właściwym klientom w najlepszym do tego czasie.

IBM Predictive Customer Intelligence realizuje następujące funkcje:

  • Analizy predykcyjne, które pomagają w przewidywaniu zachowań poszczególnych klientów.
  • Zarządzanie procesami decyzyjnymi mające na celu przekształcenie oceny modelu predykcyjnego w rekomendację działania.
  • Oceny w czasie rzeczywistym pozwalające generować i aktualizować prognozy na żądanie.
  • Optymalizacja uwzględniająca więcej niż jedną kampanię z myślą o podejmowaniu jak najkorzystniejszych decyzji dotyczących poszczególnych klientów.
  • Segmentacja klientów w oparciu o wartość w całym okresie trwania relacji — służąca klasyfikacji i zatrzymywaniu klientów.

RapidMiner dostarcza oprogramowanie, rozwiązania i usługi w dziedzinie zaawansowanych analiz, w tym analiz predykcyjnych, data mining i text mining. Pozwala automatycznie i inteligentnie analizować dane – w tym baz danych i tekstu – na dużą skalę. Nasza technologia pozwala firmom na wykonanie przy użyciu inteligentnych decyzji biznesowych oraz działań opartych na metodzie prognozowania. Flagowym produktem jest RapidMiner 4.0, najczęściej stosowana do zaawansowanej analityki platforma na rynku. Setki tysięcy aplikacji są już używane w ponad 50 krajach, zarówno jako samodzielne aplikacje, jak i silniki zintegrowane z własnymi produktami klientów; daje to silną przewagę konkurencyjną. Trudno nie wierzyć w to rozwiązanie, skoro wiemy, że zaufały mu firmy takie jak: EADS GfK, Lufthansa, PayPal, Pepsi, Sanofi, Siemens, Telenor i Volkswagen.

STATISTICA – zintegrowany pakiet oprogramowania statystycznego i analitycznego wydany przez firmę StatSoft. STATISTICA daje szeroki wybór procedur analizy i zarządzania danymi, zapewnia także wizualizację wyników analizy oraz generowanie raportów.

  • 1991. Pierwsza, DOSowa wersja programu STATISTICA. Nowa, zorientowana graficznie linia programów statystycznych została wydana w marcu 1991.
  • 1992. Wersja programu STATISTICA dla komputerów Macintosh
  • 1993. Wersja programu STATISTICA dla systemu Microsoft Windows
  • 1994-1998. Program STATISTICA w wersjach – 4.0, 4.5, 5.0, 5.1 oraz wydania ’97 i ’98
  • 2001. Nowa generacja pakietu STATISTICA. Wydanie wersji 6 programu STATISTICA opiera się na architekturze COM i korzysta z nowych technologii, takich jak wielowątkowość i wsparcie dla przetwarzania współbieżnego.
  • 2002-2004. Wprowadzanie rozwiązań wykorzystujących rozproszone realizowanie zadań oraz rozwiązań bazujących na interfejsie przez WWW.

Cztery narzędzia marketingu  – to tylko dobry początek. W tej dziedzinie wiele się dzieje, jeszcze więcej będzie się działo z czasem. Obserwujemy:)

Machine learning – samodoskonalenie z problemami

Oglądaliście film „Ona” („Her„) Spike’a Jonza? Jeśli nie – polecam. Fascynująca historia miłości człowieka i systemu komputerowego mówiącego głosem Scarlett Johansson. Wzruszający zapis rozwoju maszyny, która uczy się bycia człowiekiem w najbardziej ludzkim obszarze – uczuć i emocji. Brzmi jak science-fiction w opcji romantycznej, trąca rojeniami na temat sztucznej inteligencji, które rozgrzewały wyobraźnię w latach 90? Trochę na pewno, jednak pamiętać należy, że maszyny uczące się (czy uczenie maszyn – machine learning) to nie jest już tylko filmowa fikcja. Od lat 90. zmieniło się sporo.  Skoro o filmach mowa – faktów poszukać można w „Najmądrzejszej maszynie na świecie” – dokumentalnym wprowadzeniu w świat maszyn, które mogą być mądrzejsze niż ludzie.

Machine learning to stosunkowo młoda dziedzina interdyscyplinarna zajmująca się sztuczną inteligencją. Interdyscyplinarność oznacza tu styk robotyki, informatyki i statystyki. Głównym jej celem jest stworzenie automatycznego systemu potrafiącego doskonalić się przy pomocy gromadzonego doświadczenia (czyli danych) i nabywania na tej podstawie nowej wiedzy, czyli ciągły rozwój wynikający z nieustannego przetwarzania informacji i wyciągania z nich wniosków.

Uczenie maszynowe dotyczy głównie ewoucji oprogramowania stosowanego zwłaszcza w innowacyjnych technologiach i przemyśle. Odpowiednie algorytmy mają pozwolić oprogramowaniu na zautomatyzowanie procesu pozyskiwania i analizy danych do ulepszania i rozwoju własnego systemu. Uczenie się może być rozpatrywane jako konkretyzacja algorytmu, czyli dobór parametrów, nazywanych wiedzą lub umiejętnością. Służy do tego wiele typów metod pozyskiwania oraz reprezentowania wiedzy. Jeśli słysząc „algorytm” natychmiast myślicie „Google” to macie rację – kolejne, coraz bardziej zaawansowane algorytmy tej wyszukiwarki to po prostu kolejne etapy rozwoju wynikającego z odpowiedniego zastosowania zgromadzonej wiedzy.

Jakie może mieć to zastosowanie? Coraz mądrzejsze maszyny to większa efektywność, wydajność i bezawaryjność oraz redukcja kosztów. Czyli warto.

machine learning

W ogólnym schemacie uczenia się mamy do czynienia z systemem uczącym się i środowiskiem, w którym system musi się dynamicznie dostosowywać do zmieniających się warunków (np. systemy sterowania). Nie da się w tych warunkach uniknąć problemów, które są złożone i trudne do opisu. Często nie ma wystarczających modeli teoretycznych albo ich uzyskanie  jest zbyt kosztowne czy mało wiarygodne.

Uczenie maszynowe przynieść ma konkretne skutki:

  • tworzenie nowych pojęć
  • wykrywanie nieznanych prawidłowości w danych
  • formułowanie reguł decyzyjnych
  • przyswajanie nowych pojęć i struktur przy pomocy uogólnienia i analogii
  • modyfikowanie, uogólnianie i precyzowanie danych
  • zdobywanie wiedzy poprzez interakcję z otoczeniem
  • formułowanie wiedzy zrozumiałej dla człowieka

W praktyce oznacza to rozwiązania takie jak:

  • oprogramowanie do rozpoznawania mowy:
    • automatyczne tłumaczenie
    • rozpoznawanie mowy ludzkiej
    • dyktowanie komputerowi
    • interfejsy użytkownika sterowane głosem
    • automatyzacja głosem czynności domowych
    • interaktywne biura obsługi
    • rozwój robotów
  • automatyczna nawigacja i sterowanie:
    • kierowanie pojazdem (ALVINN)
    • odnajdywanie drogi w nieznanym środowisku
    • kierowanie statkiem kosmicznym (NASA Remote Agent)
    • automatyzacja systemów produkcji i wydobycia (przemysł, górnictwo)
  • analiza i klasyfikacja danych:
    • systematyka obiektów astronomicznych (NASA Sky Survey)
    • rozpoznawanie chorób na podstawie symptomów
    • modelowanie i rozwijanie terapii lekowych
    • rozpoznawania pisma na podstawie przykładów
    • klasyfikowanie danych do grup tematycznych wg kryteriów
    • aproksymacja nieznanej funkcji na podstawie próbek
    • ustalanie zależności funkcyjnych w danych
    • przewidywanie trendów na rynkach finansowych na podstawie danych mikro i makro ekonomicznych

Jeszcze bardziej praktycznie? Przywołajmy Cleverbota.

Cleverbot to aplikacja internetowa, która rozmawia z ludźmi. Chatbota stworzył Rollo Carpenter (razem z podobną aplikacją internetową, Jabberwacky). Wraz ze współpracownikami odbył z nim kilkanaście tysięcy rozmów w pierwszej dekadzie jego działania. Od momentu udostępnienia w Internecie w 1997 liczba rozmów przekroczyła 150 milionów. Cleverbot jest też obecnie aplikacją dostępną za 0,99 USD. Inaczej niż w przypadku innych chatbotów, odpowiedzi Cleverbota nie są zaprogramowane. Zamiast tego „uczy się” on na podstawie danych uzyskanych od ludzi, którzy piszą w polu pod logiem Cleverbota, a system znajduje słowa kluczowe lub całe frazy pasujące do danych wejściowych. Po przeszukaniu zebranych rozmów udziela odpowiedzi opartej o to, co ludzie odpowiedzieli na tę treść, kiedy to Cleverbot ją napisał. Cleverbot brał udział w formalnym teście Turinga w czasie festiwalu Techniche w Indian Institute of Technology Guwahati 3 sierpnia 2011. Na podstawie 334 głosów został uznany za ludzkiego w 59,3% (ludzie uzyskali w tym teście 63.3%). Wynik 50.05% lub więcej jest często uznawany za zaliczenie testu. Oprogramowanie obsługiwało w czasie testu tylko 1 lub 2 jednoczesne pytania, a w internecie Cleverbot rozmawia z 10 000 ludzi na raz.

Za mało przykładów? ASIMO, czyli Zaawansowany Postęp w Innowacyjnej Mobilności to humanoidalny robot pokazany światu 31 października 2000 roku. Stworzyła go Honda i wbrew powszechnemu mniemaniu, nie uczciła (podobno) nazwą pisarza science fiction Isaaca Asimova. ASIMO jest jedenastym udanym modelem dwunożnego robota. Uważany jest za jeden z najbardziej rozwiniętych technicznie chodzących robotów na świecie. Projekt rozwijał się od roku 1986, kiedy to stworzono pierwszy model E0. ASIMO może chodzić do przodu, do tyłu, w bok, biegać, omijać przeszkody, zawracać i wchodzić w interakcję z otoczeniem. Celem producenta jest stworzenie robota, który będzie pomocny w codziennym życiu człowieka.

Tak wygląda ten przystojniaczek. Czy scenariusz „Her” wciąż wydaje Wam się nierealny?

robo

Jak uczy się maszyna? Uczenie maszynowe i jego powodzenie zależą od wyboru odpowiedniej metody formułującej problem, zbioru uczącego (czyli doświadczeń) oraz sposobu uczenia się nowych pojęć.

Metody maszynowego uczenia się:

  • wnioskowanie wartości funkcji logicznej z przykładów
  • uczenie drzew decyzyjnych (ang. Decision Tree Learning) – drzewo decyzyjne to graficzna metoda wspomagania procesu decyzyjnego, stosowana w teorii decyzji. Algorytm drzew decyzyjnych jest również stosowany w uczeniu maszynowym do pozyskiwania wiedzy na podstawie przykładów. Jest to schemat o strukturze drzewa decyzji i ich możliwych konsekwencji. Zadaniem drzew decyzyjnych może być zarówno stworzenie planu, jak i rozwiązanie problemu decyzyjnego. Metoda drzew decyzyjnych jest szczególnie przydatna w problemach decyzyjnych z licznymi, rozgałęziającymi się wariantami
  • uczenie Bayesowskie (ang. Bayesian Learning) – metody oparte na twierdzeniu sformułowanym przez XVIII-wiecznego matematyka Thomasa Bayesa odgrywają znaczną i ostatnio rosnącą rolę w dziedzinie sztucznej inteligencji, zwłaszcza w uczeniu się maszyn. Można ogólnie powiedzieć, że wzór Bayesa stał się podstawą do rozwoju teorii i algorytmów różnych form wnioskowania probabilistycznego.
  • uczenie z przykładów (ang. Instance-based Learning) – w odróżnieniu od metod uczenia, które konstruują ogólny, tzw. jawny opis funkcji docelowej, który dostarcza dane uczące, uczenie tego typu po prostu zapamiętuje przykłady. Uogólnianie nad tymi przykładami jest odwlekane do czasu, aż nowy przykład (zadanie) ma być klasyfikowane. Za każdym razem, kiedy przychodzi nowe zapytanie (przykład), badane są jego powiązania z zapamiętanymi już przykładami, aby ustalić wartość docelowej funkcji nowego przykładu.
  • uczenie się zbioru reguł (ang. Learning Sets of Rules) – zbiór reguł w postaci klauzul Hornowskich może być interpretowany jako program w np. języku Prolog
  • analityczne uczenie (ang. Analytical Learning) – metody uczenia indukcyjnego (wykorzystują sieci neuronowe, drzewa decyzyjne), wymagają pewnej liczby przykładów aby osiągnąć pewien poziom uogólnienia. Analityczne uczenie stosuje wiedzę aprioryczną i wnioskowanie dedukcyjne do powiększania informacji dostarczanej przez przykłady uczące.
  • połączenie indukcyjnego i analitycznego uczenia (ang. Combining Inductive and Analytical Learning) – czyste indukcyjne uczenie formułuje ogólne hipotezy poprzez znalezienie empirycznych regularności w przykładach uczących. Natomiast czyste analityczne uczenie stosuje aprioryczną wiedzę do otrzymania ogólnych hipotez dedukcyjnie. Połączenie obu podejść daje korzyści: lepszą poprawność i trafność uogólniania gdy dostępna jest wiedza aprioryczna oraz szukanie zależności w obserwowanych danych uczących do wypracowania szybkiej wiedzy apriorycznej.
  • uczenie przez wzmacnianie (ang. Reinforcement Learning) – uczenie przez wzmacnianie to metoda wyznaczania optymalnej polityki sterowania przez agenta w nieznanym mu środowisku, na podstawie interakcji z tym środowiskiem. Jedyną informacją, na której agent się opiera jest sygnał wzmocnienia (poprzez wzorowanie się na pojęciu wzmocnienia z nauk behawioralnych w psychologii), który osiąga wysoką wartość (nagrodę), gdy agent podejmuje poprawne decyzje lub niską (karę) gdy podejmuje decyzje błędnie.

Wszystko to brzmi dobrze, ale problemów nie brakuje i jak na razie są one poważne:

Poza etapem tworzenia systemu powstają następujące problemy:

  • zbyt mała lub zbyt duża zależność systemu od środowiska, w którym się znajduje co może prowadzić do niepełnej analizy danych lub błędnej interpretacji
  • wiarygodność i poprawność generowanych wniosków, według Poppera „wiedza zdobyta w wyniku obserwacji ma charakter jedynie domyślny”, a rozumowanie indukcyjne nie może być w pełni udowodnione, a jedynie sfalsyfikowane
  • niekompletne lub częściowo sprzeczne dane
  • niezdefiniowanie ograniczeń dziedzinowych, może prowadzić do zbyt daleko idących uogólnień i błędnych wniosków

W związku z powyższymi problemami przyjęto następujące postulaty, które wiedza generowana przez systemy powinna spełniać:

  • wiedza generowana przez system powinna podlegać kontroli i ocenie człowieka, według podanych przez niego kryteriów
  • system powinien być zdolny do udzielenia wyjaśnienia w przypadku problemu
  • wiedza powinna być zrozumiała dla człowieka, czyli wyrażalna w opisie i modelu myślowym przez niego przyjętym

Jaki etap rozwoju – wbrew tym problemom – osiągnęło uczenie maszynowe i w jaki sposób znajduje ono zastosowanie w marketingu? O tym już w następnym odcinku:)