Analizuj dane geograficzne, wizualizuj dane na mapie. Rozszerz swoje możliwości z Qlik Sense GeoAnalytics

W dzisiejszym świecie danych dostęp do informacji geograficznych jest nieodłącznym elementem wielu dziedzin działalności, od handlu detalicznego po logistykę, aż po planowanie strategiczne. Qlik Sense, już znany ze swojej potęgi w analizie danych, staje się jeszcze bardziej wszechstronny dzięki rozszerzeniu GeoAnalytics, które pozwala na skorzystanie z narzędzi geoprzestrzennych.

Wprowadzenie do Qlik Sense GeoAnalytics

Rozszerzenie GeoAnalytics to narzędzie, które umożliwia wizualizację i analizę danych geograficznych i geolokalizacyjnych w Qlik Sense. Służy ono nie tylko do oglądania danych na mapach. Możesz także wykorzystywać informacje geograficzne do podejmowania bardziej precyzyjnych i strategicznych decyzji.

Główne korzyści z rozszerzenia GeoAnalytics

1. Wizualizacja danych geolokalizacyjnych na mapach

Dzięki Qlik Sense GeoAnalytics, możesz tworzyć interaktywne mapy, na których prezentowane są dokładniejsze dane związane z lokalizacją. To pozwala na lepsze zrozumienie informacji i identyfikowanie wzorców, które, bez wykorzystania tego narzędzia, mogłyby pozostać niewidoczne.

Wizualizacja danych geolokalizacyjnych na mapach

2. Analiza przestrzenna

Rozszerzenie GeoAnalytics umożliwia zaawansowaną analizę przestrzenną, co oznacza, że możesz badać, jak różne dane geolokalizacyjne są ze sobą powiązane w kontekście geograficznym. To przydaje się nie tylko przy analizie rynku, ale również przy planowaniu tras, zarządzaniu magazynem czy badaniach konkurencji.

Analiza przestrzenna z GeoAnalytics

3. Optymalizacja procesów biznesowych

Dzięki informacjom geograficznym w Qlik Sense, możesz zoptymalizować wiele procesów w firmie. Na przykład, poprawisz dostawy, zidentyfikujesz obszary o największym potencjale wzrostu sprzedaży. Zrozumiesz także lepiej, jakie obszary wymagają pilnej uwagi. To narzędzie pozwala na operację takie jak: wyliczenie odległości od punktu A do punktu B, wyliczenie średniego czasu przejazdu między punktami czy też grupowanie punktów według określonych wzorców (np. według odległości lub liczby obserwacji).

Optymalizacja procesów biznesowych dzięki informacjom geograficznym w Qlik Sense

4. Łatwa integracja z innymi danymi

Rozszerzenie GeoAnalytics umożliwia łatwą integrację z różnymi źródłami danych, takimi jak GIS, dane demograficzne, dane klimatyczne i wiele innych. To oznacza, że masz dostęp do jeszcze większej liczby informacji, które mogą pomóc w podejmowaniu lepszych decyzji.

Rozszerzenie GeoAnalytics umożliwia łatwą integrację z różnymi źródłami danych

Przykłady zastosowań

Rozszerzenie GeoAnalytics w Qlik Sense może znaleźć zastosowanie w wielu branżach i dziedzinach.

Oto kilka przykładów:

  • Handel detaliczny: Monitorowanie lokalizacji sklepów, analiza zachowań klientów w kontekście geograficznym, optymalizacja rozlokowania sklepów
  • Logistyka: Planowanie tras dostaw, monitorowanie stanu pojazdów, optymalizacja magazynów
  • Planowanie przestrzenne: Analiza użytkowania gruntów, planowanie rozbudowy obiektów firmowych, ocena potencjału inwestycyjnego
  • Służby publiczne: Monitorowanie i zarządzanie zasobami wodnymi, analiza przestrzenna dla służb ratowniczych
  • Farmacja: Analiza lokalizacji aptek, identyfikacja obszarów z niedoborem leków

Rozszerzenie GeoAnalytics w Qlik Sense

GeoAnalytics w Qlik Sense

Podsumowanie

Rozszerzenie GeoAnalytics w Qlik Sense to narzędzie, które pozwala na jeszcze bardziej zaawansowaną analizę danych geograficznych. Daje to nowe możliwości dla przedsiębiorstw w zakresie optymalizacji procesów, identyfikowania nowych szans biznesowych i podejmowania lepszych decyzji. Jeśli chcesz w pełni wykorzystać potencjał swoich danych, warto rozważyć rozszerzenie GeoAnalytics w Qlik Sense.

Dzięki tej zaawansowanej funkcji, Twoja firma może stać się jeszcze bardziej konkurencyjna i zwiększyć swoją efektywność, wykorzystując informacje geograficzne do podejmowania strategicznych decyzji. Niezależnie od branży, w jakiej działasz, Qlik Sense GeoAnalytics może stać się kluczowym narzędziem wspierającym rozwój i sukces Twojego biznesu.

 

 

Wykorzystaj Inphinity Forms w Qlik do tworzenia interaktywnych formularzy

Wraz z dynamicznym rozwojem technologii Business Intelligence narzędzia do analizy danych, takie jak Qlik, stają się nieodłącznym elementem wielu przedsiębiorstw. Jednak samo tworzenie zestawień i analiza danych to tylko część wykorzystania potencjału narzędzi BI. Inphinity Forms w Qlik to narzędzie, które pomaga wykorzystać dane na zupełnie nowym poziomie, pozwalając na tworzenie interaktywnych formularzy i aplikacji. Dodatek ten pozwala na interakcje użytkownika ze standardowymi obiektami Qlik, dzięki wykorzystaniu formularzy czy komentarzy.

Dlaczego Inphinity Forms w Qlik?

Inphinity Forms to rozszerzenie Qlik, które pozwala na tworzenie interaktywnych i intuicyjnych formularzy, które są zintegrowane z danymi w Twoim środowisku Qlik. Dzięki temu rozwiązaniu, Twoja organizacja może zbierać dane, prowadzić ankietowanie, a nawet tworzyć niestandardowe aplikacje bez konieczności korzystania z innych narzędzi. Inphinity Forms umożliwia tworzenie formularzy, na przykład do planowania budżetu. Produkt ten oferuje możliwość wprowadzania danych przez użytkowników, takich jak liczby, tekst, checkboxy, komentarze czy nawet pliki wsadowe.

Inphinity Forms w Qlik

Główne zalety Inphinity Forms

  • Szybkość i prostota: Inphinity Forms jest bardzo intuicyjne i proste w użyciu. Dzięki niemu, nawet użytkownicy bez technicznego zaplecza mogą tworzyć i dostosowywać formularze według własnych potrzeb. Ponadto produkt jest w pełni kompatybilny ze standardowymi komponentami Qlik.
  • Integracja z Qlik: Inphinity Forms jest całkowicie zintegrowane z platformą Qlik, co oznacza, że dane zebrane za pomocą formularzy są dostępne w czasie rzeczywistym i mogą być wykorzystywane w modelu danych. Istnieje możliwość wykorzystania danych wprowadzonych przez użytkowników do dalszych analiz.
  • Zbieranie danych: Dzięki możliwości tworzenia niestandardowych formularzy, Inphinity Forms pozwala na zbieranie danych, które są istotne dla Twojej organizacji. Możesz zbierać dane dotyczące klientów, pracowników, ankiet i wiele innych. Forms pozwalają na tworzenie formularzy dotyczących różnych aspektów funkcjonowania przedsiębiorstwa, takich jak HR, controlling czy nawet walidacja danych.
  • Elastyczność (dostosowywalność): Inphinity Forms umożliwia dostosowanie wyglądu i funkcjonalności formularzy do konkretnych potrzeb Twojej organizacji. Możesz wybierać spośród różnych typów pól, określać reguły walidacji i wiele innych. Nie musisz ograniczać się do pól tekstowych czy komentarzy, dzięki temu produktowi możesz tworzyć zaawansowane operacje, takie jak akceptacja danych przez przełożonych na podstawie checkbox czy powiązanie formularzy z Section Access.
  • Mobilność: Tworzone formularze są responsywne, co oznacza, że można je wypełniać zarówno na komputerze, jak i na urządzeniach mobilnych, co zwiększa elastyczność i dostępność dla użytkowników.

zalety Inphinity Forms

Interaktywne formularze Inphinity Forms w praktycznym zastosowaniu

Inphinity Forms znajduje szerokie zastosowanie w wielu dziedzinach i branżach. Oto kilka przykładów:

Zarządzanie Relacjami z Klientami (CRM): Możesz tworzyć formularze do zbierania informacji o klientach, ich potrzebach i opinii. Dzięki temu możesz lepiej dostosować swoje działania i ofertę.

Zarządzanie Zasobami Ludzkimi (HR): Ułatwia tworzenie formularzy do rekrutacji, oceny pracowników i zarządzania danymi personalnymi. Dostajesz możliwość wprowadzania własnych komentarzy, na przykład przy ocenie okresowej pracowników.

Badania i Opinie: Tworzenie ankiet i zbieranie opinii od klientów lub pracowników, a następnie analiza zebranych danych.

Zamówienia i Rezerwacje: Pozwala na zbieranie zamówień, rezerwacji i innych informacji od klientów.

Monitorowanie Zasobów: Ułatwia śledzenie i zarządzanie danymi dotyczącymi sprzętu, zasobów IT czy zapasów.

Planowanie: Pozwala zaplanować budżet na podstawie istniejących danych.

Interaktywne formularze Inphinity Forms

Zbieraj, zarządzaj, analizuj dane w czasie rzeczywistym

Inphinity Forms to potężne narzędzie, które pozwala na wykorzystanie potencjału danych w Twojej organizacji. Dzięki prostocie obsługi i integracji z Qlik, staje się doskonałym narzędziem do zbierania, zarządzania i analizy danych w czasie rzeczywistym. Jeśli Twoja firma korzysta z Qlik, warto rozważyć wykorzystanie Inphinity Forms do jeszcze lepszego zarządzania danymi i procesami biznesowymi. Od teraz Qlik nie jest narzędziem tylko do monitorowania danych historycznych czy analizy danych, ale umożliwia również interakcję w czasie rzeczywistym z danymi wpisywanymi przez użytkowników.

Gromadzenie danych trwa. Zettabajty, jottabajty danych – ile z nich wykorzystujemy?

Wolumen zgromadzonych na świecie danych powoli przestaje robić na nas wrażenie. 120 zettabajtów, które zbierzemy do końca tego roku są równie abstrakcyjne, jak 1 jottabajt, który powinniśmy osiągnąć za 10 lat. Łatwiej więc mówić o szansach, zagrożeniach i korzyściach tego, że dostępnych danych jest niewyobrażalnie dużo. Tych którzy chcieliby mieć bardziej konkretną wiedzę na temat charakterystyki tych zbiorów odsyłam do raportu The Digitization of the World From Edge to Core opracowanego przez IDF. Został on wprawdzie opracowany w 2018 roku, jednak jego wnioski są cały czas aktualne.

Zagrożenia wynikające z gromadzenia danych

Zacznę od wskazania zagrożeń, z których warto sobie zdawać sprawę. Szybki wzrost wolumenu danych rodzi dwa istotne zagrożenia, które tylko pozornie nie dotyczą biznesu:

  • Po pierwsze, są to koszty klimatyczne. Funkcjonowanie serwerów jest bardzo energochłonne ze względu na konieczność ich chłodzenia. Wprawdzie, ostatnio pojawiły się informacje o stworzeniu nadprzewodników działających w temperaturze pokojowej, jednak dopóki nie pojawią się one w praktycznych zastosowaniach, proponowałbym traktować je bardziej jako ciekawostkę, niż rozwiązanie problemu carbon footprint serwerów.
  • Po drugie, są to zagrożenia prywatności. Ochrona danych wrażliwych stanowi problem nie tylko dla biznesu. Kwestie te są tak istotne społecznie i politycznie, że coraz silniejsze są regulacje dotyczące przechowywania i wykorzystywania danych. Oczywiście ten problem nie dotyczy Chin (i innych reżimów autorytarnych), gdzie państwo opiera nadzór obywateli na analizach masowych danych w czasie rzeczywistym, ale tu mamy monopol państwa na wykorzystywanie danych.

To tematy na oddzielne wpisy, jednak warto mieć je z tyłu głowy, chociażby dlatego, że regulatorzy mogą z tych powodów nakładać ograniczenia i opłaty za gromadzenie i przetwarzanie danych.

Gromadzimy dane, które „do niczego nie służą”

Wróćmy jednak do problemu (nie)wykorzystania dostępnych danych. Wolumen danych rośnie w tempie wykładniczym – 1,5-krotnie co dwa lata. Łatwo tu zauważyć analogię do prawa Moora. To zresztą wskazuje, że nie moce obliczeniowe są największą barierą dla wykorzystania danych, którymi świat dysponuje. Moce obliczeniowe rosną szybciej i wcale nie poprawia to odsetka wykorzystywanych zasobów. Szacuje się, że tylko w biznesie nie wykorzystuje się ¾ posiadanych przez firmy danych. A są przecież jeszcze dane gromadzone w urządzeniach końcowych, czy dane w rejestrach publicznych lub dane z obserwacji naukowych.

Ograniczeniem nie wydają się także ceny rozwiązań IT służących do analizy danych. Dostęp nawet do tych najbardziej zaawansowanych można mieć w formule SaaS za kilkadziesiąt dolarów miesięcznie.

Oczywiście istotną barierą jest jakość danych i różnorodność platform oraz formatów ich gromadzenia. To zadanie dla dostawców rozwiązań, a nie ich użytkowników. Jednak sytuacja tu na pewno się poprawia. Przykładem jest przejęcie Talend przez Qlik, a przypomnijmy, że obie firmy od wielu lat są liderami rynku w swoich kategoriach. Qlik wśród platform Analizy Danych i Business Intelligence, a Talend integracji i zarządzania danym. Na takiej pozycji są systematycznie umieszczane w Gartner Magic Quadrant

Gromadzimy dane, które „do niczego nie służą”
Źródło: Talend.com, Gartner.

Bariery w efektywnym wykorzystaniu gromadzonych danych

Chciałbym jednak zwrócić uwagę na często niedostrzegane bariery. Czynniki mające wpływ na wykorzystania zasobów w dużej części mają charakter „miękki”, a najsłabszym ogniwem w tym obszarze okazuje się człowiek. Trzeba tu wskazać na kilka obszarów:

  • Kompetencje.
    Po pierwsze, chodzi o podnoszenie poziomu wiedzy i umiejętności menadżerów średniego szczebla (life long learning!), tak aby Business Intelligence stało się elementem ich kluczowych kompetencji.
  • Zmiana sposobu myślenia o danych w organizacji.
    Data Driven Company nie polega jedynie na stworzeniu działu Data Science, tylko na wprowadzeniu praktyki nowoczesnych analiz danych do codziennej działalności firmy. Demokratyzacja danych oznacza nie tylko to, że otwartych danych jest coraz więcej, ale także to, że coraz więcej osób potrafi wyciągać z danych wnioski.
  • Odejście od business as usual.
    Łatwiej zbudować kulturę i praktyki funkcjonowania firmy od zera niż zmienić utrwalone schematy postępowania, jednak w czasach szybkich zmian technologicznych trudno tego uniknąć. Przykładów firm wielkich i małych, które upadły z tego powodu jest wielu (pewnie najbardziej znanym jest Kodak).
  • Last but not least, edukacja powszechna.
    Temat zdecydowanie nie na ten blog, jednak każdy kto szukał pracowników z przyzwoitymi kompetencjami matematycznymi, wie o czy mówię. Matematyki bardzo trudno jest nauczyć osób dorosłych, a edukacja matematyczna w szkołach pozostawia bardzo wiele do życzenia. Wykres wyników ostatniego egzaminu 8-klasistów pokazuje skalę tego problemu.
Bariery w efektywnym wykorzystaniu gromadzonych danych
Źródło: CKE

Trudno przełamać prymat Excela i Power Pointa jako narzędzi do analizy i prezentacji danych

Trudno dzisiaj spotkać w jakimkolwiek biurze pracownika, który nie posługuje się arkuszem kalkulacyjnym czy programem do prezentacji (chociażby na podstawowym poziomie).
I właśnie tych narzędzi używa się dzisiaj do analiz danych i prezentowania ich wyników. To tak jakby w 1990 roku nadal korzystać z maszyny do pisania, aby przygotowywać raporty, a w 2000 używać amerykanki do księgowania. Dostępnych jest co najmniej kilka rozwiązań, za pomocą których zrobimy dużo bardziej precyzyjne analizy i predykcje, a ich wyniki zaprezentujemy bardziej komunikatywnie i perswazyjnie. Opanowanie korzystania z tych aplikacji na poziomie średniozaawansowanym nie jest dużo trudniejsze niż uzyskanie podobnych kompetencji korzystania z Excela i innych popularnych arkuszy kalkulacyjnych.

Dlaczego firmy nie wykorzystują zgromadzonych danych? Insighty rynkowe

Żeby nie było zbyt teoretycznie, trzy przykłady, jak wygląda praktyka w Polsce. Firmy, które opisuję istnieją naprawdę:

Duża firma z branży usług finansowych (kilka tysięcy zatrudnionych).

Dyrektor jednego z pionów przygotowuje dla zarządu cykliczne materiały zawierające analizy statystyczne. Nie są to predykcje, jednak to na ich podstawie podejmowane są istotne decyzje biznesowe. Materiały opracowuje za pomocą arkusza kalkulacyjnego, czasem też wkłada wykresy do nieśmiertelnego Power Pointa. Dlaczego? Bo „zawsze tak robił”. Nawet słyszał o bardziej nowoczesnych rozwiązaniach, ale raczej nie da się do nich przekonać. Ewentualnie może zwróci się do działu Data Science o przygotowanie mu jakiegoś rozwiązania IT. Chociaż bez entuzjazmu.

Nieduża firma badań opinii i rynku.

Od początku swojego istnienia zarówno analizy, jak i prezentacje badacze przygotowują wyłącznie za pomocą pakietu MS Office. Wprawdzie firma zaczęła sięgać po jedną z aplikacji stosowaną w analizach danych, jednak wyłącznie do prezentowania wyników i tylko w formule outsourcingu (zamawiają dashboardy oparte na arkuszach kalkulacyjnych). Pytani, dlaczego nie chcą tego zmienić, mówią, że klienci „oczekują od nich takiego standardu prezentacji wyników, ponieważ chcą mieć je w formie łatwej do przekopiowania do swoich prezentacji”. Zdecydowanie natomiast „nie mają czasu uczyć się czegoś nowego”. W ten sposób o firmie, która z natury swojej działalności zajmuje się analityką danych trudno byłoby powiedzieć, że jest data driven. Nie mówiąc o sięganiu po socjologię cyfrową, która zajmuje się wnioskowaniem na podstawie masowych zbiorów danych. O samej socjologii cyfrowej i analizach danych publicznych napiszę w kolejnym wpisie.

Średniej wielkości firma, przedstawiciel i dystrybutor kilku marek (handel hurtowy, a ostatnio także BTC).

W działalności oczywiście wykorzystuje specjalistycznie oprogramowanie CRM do zarządzania stanem magazynów oraz łańcuchami dostaw. Jednak analizy i zestawienia pomagające w prognostyce biznesowej są robione za pomocą arkusza kalkulacyjnego. Z oczywistych powodów firma potrzebuje predykcji dotyczących zakupów i sprzedaży, zwłaszcza, że łańcuchy dostaw są długie. Oczywiście słyszeli o rozwiązaniach służących do analiz danych i predykcji na ich podstawie, jednak na wdrożenie takich narzędzi brakuje czasu. W konsekwencji decyzje biznesowe podejmowane są bardziej na podstawie arkusza kalkulacyjnego i gut feeling, niż w oparciu o analizy i predykcje wykorzystujące dostępne dane.

Takich przykładów niewykorzystanych szans można znaleźć dużo. Wiele firm ma jeszcze długą drogę od etapu, gdy zaczną korzystać z Machine Learning. Jednak już sama zmiana praktyki mikroanaliz zarówno danych statystycznych, jak i rejestrów zdarzeń, bardzo przybliżyłaby je do takiego momentu. Szczególnie jeśli zdecydowaliby się na Qlik Sense, a to ze względu na AutoML ułatwiający robienie zaawansowanych analiz bez konieczności kończenia studiów Data Science.

Nie wiem, czy firmy te podzielą los dinozaurów, ale prawdopodobieństwo, że tak się stanie nie jest zerowe.  Zdaję sobie sprawę, że zmiana wymaga wysiłku, ale jeżeli myślimy w perspektywie dłuższej niż jednoroczny wynik, warto go podjąć. Przeprowadzenie tej zmiany w obszarze Data Science jest drogą do tego, aby rozwiązać problem gromadzonych danych, które „nie służą do niczego”.

Wykorzystanie Sztucznej Inteligencji w modelach predykcyjnych

Trudno dzisiaj otworzyć lodówkę, żeby nie natknąć się na informacje dotyczące Sztucznej Inteligencji. GTP4, BING, BARD i dziesiątki inni rozwiązań zawładnęły naszą wyobraźnią. Warto zatem postawić sobie pytanie: co AI ma wspólnego z rozwiązaniami wykorzystującymi Deep Learning i służącymi do analizy danych, czyli także z Qlik Sense? I oczywiście czy AI stanowi dla nich zagrożenie?

Chat GTP a sztuczna inteligencja

Szersza publiczność coraz lepiej rozumie, czym jest i czym nie jest Chat GTP i jakie może mieć zastosowania. Na ile jest „inteligentny” i dla kogo może być zagrożeniem. Powiem w skrócie, bo jednak nie jest to blog na temat Sztucznej Inteligencji – utożsamianie GTP z AI jest lekkim nadużyciem. Z sześciu głównych obszarów wchodzących w skład AI zdefiniowanych w 1956 roku na konferencji w Dartmouth, czyli komputerów, przetwarzania języka naturalnego (NLP), sieci neuronowych, teorii obliczeń, myślenia abstrakcyjnego i kreatywności jest on przełomowy w trzech: NLP, sieciach neuronowych i teorii obliczeń.

Chat GTP to jednak przełom na miarę rewolucji przemysłowej – co takiego potrafi?

Przełom, którego jesteśmy świadkami jednak na pewno przełoży się na gospodarkę i życie społeczne, podobnie jak miało to miejsce w konsekwencji rewolucji przemysłowych. Upraszczając, trzy rewolucje przemysłowe zminimalizowały popyt na proste prace wykonywane siłą mięśni jak np. takie jak praca tragarza, choć nie wyeliminowały ich całkowicie, o czym można się przekonać wybierając sią na trekking do Tybetu lub na wycieczkę do Wenecji.

Przegląd narzędzi wykorzystujących Generatywną AI
Przegląd narzędzi wykorzystujących Generatywną AI, źródło: rapidops

Narzędzia wykorzystujące Generatywną AI, takie jak GTP, znacząco zmniejszają popyt na proste prace wykonywane siłą rozumu. Dzieje się tak dlatego, że dostępne obecnie rozwiązania, oparte o duże modele językowe (LLM), Deep Learning i sieci neuronowe są bardzo sprawne w komunikacji w języku naturalnym. W efekcie GTP zarówno przyjmuje złożone polecenia w języku naturalnym, jak i udziela rozbudowanych odpowiedzi. Wprawdzie każdy, kto choć raz użył Chata GTP wie, że ‘mądrzejszy’ od niej człowiek jest cały czas potrzebny (GTP potrafi np. napisać „Drogi Mamo!” w życzeniach z okazji Dnia Matki do zamieszczenia na komercyjnym profilu na Instagramie). Jednak generowanie tekstów, obrazów, kodu, video czy modeli 3D jest dzisiaj dużo prostsze i szybsze, a zatem tańsze. De facto, mówimy o nowej generacji rozwiązań Low Code / No Dode, o których pisałem poprzednio. [https://businessintelligence.pl/co-ma-wspolnego-no-code-z-data-science/]

Predykcje z pomocą AI – nie zawsze można na nich w pełni polegać

Generatywna AI nie wymaga udziału człowieka w znajdowaniu prawidłowości w masowych zbiorach danych. Jednak ten brak udziału człowieka jest dość iluzoryczny. Nie rekomendowałbym wykorzystywania aplikacji opartych na AI w obecnym kształcie do analityki predykcyjnej w biznesie. Ryzyko błędnego zrozumienia zadania i niepoprawnej odpowiedzi jest dzisiaj zbyt duże. I jeżeli, pisząc post reklamowy, możemy sobie na to pozwolić, to w przypadku predykcji biznesowej – niespecjalnie.

Modele predykcyjne w Qlik Sense AutoML

A co to wszystko ma wspólnego z Qlik Sense? Po pierwsze, Chat GTP jest  już z Qlik Cloud zintegrowany, zatem możliwe jest wydawanie mu poleceń w języku naturalnym. Zainteresowanych odsyłam tutaj:

Predykcja i preskrypcja – tego właśnie potrzebujemy, aby wyciągać prawidłowe biznesowe wnioski

Jednak dużo ważniejsze w tym obszarze jest rozwiązanie, nad którym Qlik Sense pracował od kilku lat, czyli AutoML. Jak wskazuje nazwa jest to automatyzacja tworzenia i stosowania modeli prognostycznych oraz predykcyjnych. Dla biznesu zasadnicza jest wiedza, nie tylko o tym, dlaczego coś w przeszłości poszło nie tak i jakie czynniki wpływają na przyszłe zachowanie klientów (predykcja), ale także, co konkretnie powinniśmy zrobić, aby zwiększyć prawdopodobieństwo korzystnych scenariuszy (preskrypcja).

Ułatwienie tworzenia modeli prognostycznych

Dotychczas preskrypcja była domeną zatrudnionych w firmach naukowców danych. Natomiast AutoML pozwala na opracowanie trafnych predykcji osobom, które naukowcami danych nie są, ale za to dobrze rozumieją biznes, w którym działają.

Jak działa Qlik Sense AutoML?

Auto ML na podstawie przeprowadzonego samodzielnie eksperymentu powie nam, które z algorytmów stosowanych w ML są optymalne dla naszego zbioru danych historycznych. Decyzję o tym, który z nich wykorzystać w predykcji podejmiemy sami. Jednak AutoML powie nam, jakie kryteria brał pod uwagę w swojej rekomendacji (np. w jakim stopniu konkretny model zależy od poszczególnych zmiennych).

Po pierwszym eksperymencie AutoML sam zasugeruje, jak ograniczyć liczbę zmiennych i w kolejnym eksperymencie sprawdzi, czy inne algorytmy nie są bardziej adekwatne. Tak stworzony algorytm zastosujemy do danych aktualnych, a jego wyniki (preskrypcje Auto ML) przedstawi nam za pomocą przejrzyście zrobionych dashboardów.

Żadnego programowania, pogłębionej wiedzy z zakresu nauki o danych i stosowanych w niej algorytmach oraz statystyki. Nie potrzebujemy nawet wkładać wysiłku w projektowanie dashboardów.  Zasadnicze jest to, abyśmy byli w stanie, na podstawie wiedzy o naszym biznesie, skorygować propozycje przedstawiane przez Auto ML, a następnie zastosować preskrypcje w praktyce. Maszyna nie zastąpi nas w zdefiniowaniu problemu, jednak w znalezieniu jego rozwiązania bardzo pomoże.

Co z tego wynika dla predykcji wykorzystujących ML?

AutoML nie jest generatywną Sztuczną Inteligencją, jednak ma z nią sporo wspólnego, jak chociażby Deep Learning wykorzystujący duże zbiory danych. Istotna różnica polega nie tylko na rozmiarach baz danych, na których trenowane są modele. Z punktu widzenia użytkownika biznesowego AutoML jest z rozwiązaniem, które wprawdzie wymaga większego zaangażowania człowieka (nadzoru), ale jego predykcje i preskrypcje są trafniejsze niż te, przygotowane przez nienadzorowaną generatywną AI. Jednak bariera kompetencyjna w korzystaniu z AutoML Qlik Sense jest dużo niższa niż była przed jego wprowadzeniem.

Do bardzo wielu mniej skomplikowanych preskrypcji nie będziemy już potrzebowali naukowców danych, lecz analityków sprawnie posługujących się Qlik Sense. Więcej w tej kwestii można dowiedzieć się w tym miejscu.

Na pewno warto przyjrzeć się AutoML dokładniej, w oparciu o rzeczywiste, a nie tylko treningowe zbiory danych. W nieodległej przyszłości postaram się takie studium przypadku przedstawić.