Qlik Sense: narzędzie pomocne w analizie biznesowej i modelowaniu danych

Jak wybrać odpowiednie rozwiązanie Business Intelligence? Jak wspierać modelowanie danych w firmie? Poznaj narzędzie, dzięki któremu Twoja organizacja uzyska większe możliwości w zakresie efektywniejszego podejmowania decyzji.

Z roku na rok w przedsiębiorstwach przetwarzane są coraz większe wolumeny danych. Jednocześnie ciągle przybywa różnego rodzaju źródeł informacji, które trzeba, lub przynajmniej warto analizować, aby podejmować trafne decyzje. 

W takich warunkach, efektywne zarządzanie wymaga zastosowania narzędzi analitycznych – w tym m.in. rozwiązań Business Intelligence. Ich kluczowym zadaniem jest przetworzenie danych, pochodzących z różnych źródeł, do formy użytecznych dla użytkowników informacji oraz udostępnienie tych informacji w taki sposób, by ich odbiorcy mogli możliwie szybko podjąć najlepszą decyzję. Im szybciej taki proces może przebiegać i im bardziej aktualne i rzetelne dane ulegają przetworzeniu, tym wyższa zdolność firmy do efektywnego zarządzania w czasach dużej zmienności.

Czym jest modelowanie danych i dlaczego jest potrzebne w firmie?

Tam, gdzie przetwarzane są duże ilości informacji, trudno o skuteczne zarządzanie bez właściwego modelowania danych. Modele danych to logiczne struktury informacji, uporządkowane w taki sposób, by odpowiadały specyfice działania danej organizacji. Modele odzwierciedlają zachodzące w firmie procesy biznesowe oraz role, jakie w poszczególnych procesach pełnią różni użytkownicy. Są one próbą możliwie wiernego odzwierciedlenia rzeczywistości, w jakiej funkcjonuje przedsiębiorstwo.

Modele danych powstają, by udzielać możliwie szybkich i kompletnych odpowiedzi na różnego rodzaju pytania pojawiające się w procesach decyzyjnych. Jednocześnie mają one wspierać użytkowników oprogramowania w realizowaniu konkretnych operacji.

Skuteczne modelowanie danych w przedsiębiorstwie – wsparcie przez dedykowane rozwiązania BI

Dla przykładu: na etapie wdrożenia rozwiązania Qlik Sense ustalane są potrzeby użytkowników odpowiedzialnych w firmie za poszczególne obszary działalności i procesy biznesowe. 

Na różnych stanowiskach, zapotrzebowanie na konkretne informacje, analizy czy raporty, determinuje sposób, w jaki system ma agregować, przetwarzać i wizualizować informacje. Dane modeluje się po to, by w trakcie użytkowania systemu wszyscy jego użytkownicy mieli swobodny i wygodny dostęp do potrzebnych informacji bez angażowania pracowników z obszaru IT. Szalenie ważne przy tym jest, by wiedza udostępniana przez system zawsze bazowała na danych rzetelnych, sprawdzonych i aktualnych. 

Qlik Sense – narzędzie analityczne wspierające decydentów w biznesie

Qlik Sense to kompleksowa platforma Business Intelligence, którą wyróżnia samoobsługowy charakter. Po jej wdrożeniu wszyscy użytkownicy, niezależnie od pozycji w hierarchii firmy czy działu, korzystają z analityki biznesowej w pełni samodzielnie. Co istotne, Qlik Sense pozwala analizować dane w sposób dynamiczny i interaktywny, tzn. umożliwia badanie zależności między danymi, jak również samodzielne projektowanie różnego rodzaju raportów, zestawień czy analiz. 

Dodatkową zaletą jest wysoka dostępność samego narzędzia, która przekłada się na szybkość i swobodę, z jaką użytkownicy mogą korzystać z potrzebnych im informacji. Z Qlik Sense można korzystać w modelu chmury, a samo rozwiązanie jest dostępne nie tylko na komputerach stacjonarnych czy laptopach, ale także na smartfonach i tabletach. 

Czytaj także: Jak zwiększyć bezpieczeństwo danych w chmurze?

Korzyści z wdrożenia narzędzi BI?

Badania rynkowe poświęcone skutkom wykorzystania narzędzi analityki biznesowej przez firmy  (prowadzone na przestrzeni ostatniej dekady) bardzo wyraźnie pokazują pozytywny wpływ tych narzędzi na kluczowe wskaźniki określające wyniki firm oraz ich pozycję konkurencyjną. Przedsiębiorstwa, które kładą nacisk na wykorzystanie dostępnych w organizacji danych (data-driven organizations), odnoszą jednoczesne korzyści na wielu polach. Są bardziej rentowne, osiągają wyższą produktywność, łatwiej jest im zwiększać sprzedaż, a zarazem utrzymać wysoki poziom satysfakcji klientów. Z czego to wynika? 

Różne firmy, choć mają bardzo różne modele biznesowe, to gdy realnie wykorzystują w procesach decyzyjnych nowoczesne narzędzia do analityki biznesowej, pojawia się u nich szereg wspólnych, charakterystycznych prawidłowości:

  • Użytkownicy w sposób dynamiczny, samodzielnie prowadzą analizy informacji rezydujących w hurtowni danych. Dane są dostępne w czasie rzeczywistym, dzięki czemu wszystkie decyzje wypracowywane są szybciej. Co więcej, użytkownicy mają możliwość prowadzenia analiz w sposób interaktywny, eksplorując dane i analizując logiczne zależności między nimi.
  • Użytkownicy analizują dane pochodzące z wielu źródeł, także zewnętrznych.
  • Raporty, analizy i informacje są wizualizowane w sposób preferowany przez użytkownika, tak by maksymalnie ułatwić mu pracę.
  • Narzędzie analityczne integruje kluczowe systemy informatyczne i aplikacje wykorzystywane przez przedsiębiorstwo – w warstwie analizy przetwarzanych przez te systemy danych.
  • Użytkownicy mają możliwość przeprowadzania różnego rodzaju symulacji, które wspierają ich w procesach planowania oraz prognozowania trendów. 

Jak wybrać właściwe narzędzie BI i dobrego partnera do jego wdrożenia?

Zasada wyboru samego rozwiązania, jak i firmy do przeprowadzenia wdrożenia, jest stosunkowo prosta: „Odpowiedzialne zadania powierzaj odpowiedzialnym partnerom”.

Na co zatem warto zwrócić uwagę przed podjęciem decyzji o wdrożeniu narzędzia BI?

  • Wiodąca i sprawdzona technologia – upewnij się, czy narzędzie, które chcesz wdrożyć, zostało wykorzystane przez wiarygodne organizacje. Jeśli możesz, sprawdź opinie na temat tej technologii, najlepiej u samego źródła, czyli u użytkowników, którzy odnieśli z niej korzyści.
  • Solidny, bezpieczny i doświadczony partner – dowiedz się jak najwięcej o firmie, która ma wziąć odpowiedzialność za wdrożenie: jakie ma dokonania, co mówią o niej jej klienci, ile przeprowadziła projektów zakończonych sukcesem, jak podchodzi do kwestii bezpieczeństwa narzędzia oraz danych. Sprawdź, jakie zasoby może zagwarantować na etapie wdrożenia i utrzymania rozwiązania. 
  • „Dobra cena” – nie sztuką jest wybrać najtańszą opcję. Sztuka polega na wybraniu takiego rozwiązania, które przyniesie oczekiwane korzyści i zagwarantuje optymalny ROI. Nie kieruj się więc przede wszystkim atrakcyjną ceną rozwiązania.
  • Udokumentowane wdrożenia – sprawdź, jakimi wdrożeniami może pochwalić się dostawca rozwiązania. Zwróć szczególnie uwagę na to, czy i jakie ma dokonania w Twojej branży lub w firmach o podobnym do Twojego modelu działania. Jakiego rodzaju korzyści odniosły te firmy? 
  • Stopień odpowiedzi na zdiagnozowane potrzeby – upewnij się, że narzędzia spełnią oczekiwania użytkowników. Pamiętaj, że z analityki biznesowej korzystają pracownicy na różnych szczeblach organizacji i do różnych celów, a zatem zakres ich oczekiwań względem rozwiązania BI może być szeroki. Sprawdź, jak dostawca podchodzi do kwestii analizy tych wymagań, jakimi metodami pracuje, w jaki sposób zapewni integrację danych oraz ich udostępnianie poszczególnym grupom użytkowników. 
  • Metody pracy na etapie wdrożenia oraz utrzymanie systemu po wdrożeniu – sprawdź, czy w procesie wdrożeniowym dostawca może zaoferować zwinne podejście (metodologia Agile) oraz jaki model współpracy oferuje po zakończonym wdrożeniu. Jaki może zapewnić poziom wsparcia, jak wygląda kwestia aktualizacji systemu, jaki jest czas reakcji na zgłoszenia, w jaki sposób będzie można rozwijać lub skalować system, itd. 
  • Model finansowania inwestycji – wprawdzie niska cena nie powinna przesądzać o wyborze narzędzia analitycznego, natomiast dla przedsiębiorstwa kluczowe mogą się okazać koszty utrzymania rozwiązania po jego uruchomieniu. Sprawdź, czy jest możliwość korzystania z systemu w modelu usługi (SaaS), jakie są pełne koszty utrzymania rozwiązania, jakich potrzebujesz zasobów i jak mogą się kształtować koszty w sytuacji, gdy będziesz chciał znacząco rozwijać lub redukować zakres korzystania z systemu. 

Czytaj także: Narzędzia Business Intelligence

Qlik Nprinting: Nie ma na co czekać

Koniec wsparcia dla QlikView NPrinting znanego także jako NPrinting 16 (dalej: NP16) był odkładany w czasie wielokrotnie. Początkowo był to rok 2017, następnie 2018, 2019, a ostateczna oficjalna data to 31 marca 2020. Pisząc ten artykuł półtora roku po zakończeniu wsparcia dla NP16 zdaję sobie sprawę, że wiele firm nadal korzysta z wersji niewspieranej i nawet nie wie, że tzw. siedemnastka (NPrinting 17.0, a od maja 2021 NPrinting May 2021 SR2 dalej NP17+) jest aktualnym, a jednocześnie znacząco zmienionym oprogramowaniem, do którego trzeba będzie wkrótce przenieść istniejące rozwiązania. Dlaczego się tak dzieje? 

Brak świadomości zmiany

Częstotliwość zmian w świecie oprogramowania jest duża. Ekosystem Qlik przyzwyczaił nas do dostarczania głównych wersji 4 – 5 razy w roku oraz w międzyczasie do wypuszczania dodatkowych poprawek. Trudno czasem nadążyć za zmianami. 

Z punktu widzenia klienta, którego głównym celem jest posiadanie oprogramowania spełniającego podstawowe funkcje, konieczność podniesienia oprogramowania do aktualnej wersji schodzi więc na drugi plan. Tym samym taki klient nie zwraca uwagi na zmiany zachodzące w obrębie oprogramowania i dopóki wszystko funkcjonuje tak jak powinno – nie widzi konieczności aktualizacji.

To ten sam czy inny produkt?

Mówiąc o NPrinting należy również zwrócić uwagę na fakt, że Qlik wprowadził NP17+ na rynek jako nowy produkt, powodując nieco zamieszania i konsternacji wśród aktywnie korzystających użytkowników. NP16 i NP17 to zatem dwa różne produkty, łudząco podobne, noszące podobną nazwę, dostarczające podobne, a czasem identyczne rezultaty, ale działające w tle zupełnie inaczej. 

Osoby pracujące z pierwszym wydaniem borykały się z brakiem wielu funkcjonalności i nie były świadome, że siedemnastka jest produktem napisanym na nowo, korzystającym z zupełnie innej technologii. Często 17+ była mylnie nazywana “kolejną” wersją co prowadziło do dalszych nieporozumień. NP17+ do dnia dzisiejszego nie posiada części funkcjonalności szesnastki, jednocześnie ma ogrom nowych rozwiązań, których nie znajdziemy w QlikView NPrinting.

Czytaj także: NPrinting – zaawansowane narzędzie do raportowania dla środowiska Qlik Sense i QlikView

Różnice w funkcjonalnościach w stosunku do NP16

NP16 i NP17+ to zatem dwa różne produkty. Qlik wprowadził “siedemnastkę” na rynek wzorując się na “szesnastce”, dlatego większość funkcjonalności jest podobna. Obecna ogólna lista jest dostępna na stronie Migrating ‒ Qlik NPrinting

Strona “help” pozwala ocenić główne różnice w działaniu obu produktów. Doświadczenie pokazało jednak wielokrotnie, że nie wszystkie różnice zostały zakwalifikowane jako… różnice. 

Przykładem może być brak wsparcia niektórych formatów plików w raportach np.: brak formatu .csv w raportach z szablonów pixel perfect lub brak możliwości osadzenia raportów excel bezpośrednio w treści maila. W takich przypadkach Qlik sugeruje istniejące rozwiązania polegające najczęściej na przepisaniu raportu na inny szablon. Inny przykład to dystrybucja raportów w formacie HTML tylko jako pliki .zip. 

Kolejnym aspektem, który został pominięty to wymagania dotyczące plików .qvw. NP16 był w tym względzie mniej restrykcyjny i często oficjalnie nie wspierane konfiguracje funkcjonowały prawidłowo, np. pliki .qvw z “triggerami”. 

Następny aspekt to zmienne i fakt, że w NP17+ tylko wartość zmiennej jest przekazywana do raportów. NP 17+ nie wylicza wartości zmiennej (jeżeli zmienna zawiera formułę) i aby osiągnąć taki sam efekt jak w NP16 musimy wywołać zmienną po stronie Qlik poprzez dodanie znaku “=” przed definicją formuły. Pozornie drobna zmiana może mieć znaczący wpływ na działanie aplikacji QlikView i będzie wymagała wprowadzenia dodatkowych zmian lub utworzenia nowych zmiennych. 

Takich drobnych różnic jest wiele, dlatego, aby być w 100% pewnym, że rozwiązania zbudowane na NP16 będą działały na NP17+, warto skorzystać z konsultacji z partnerem Qlik, który dokona audytu istniejącego rozwiązania i wskaże elementy wymagające alternatywnego rozwiązania. Obawy klientów przed migracją mają w tym przypadku uzasadnienie, aczkolwiek dobrze zaplanowana migracja nie jest trudna.

Migracja

Przygotowanie migracji

Przygotowanie do migracji z NP16 do NP17+ rozpoczynamy tworząc matrycę wszystkich raportów wysyłanych obecnie z NPrinting. Uwzględniamy najdrobniejsze szczegóły:

  • Wersja QlikView i wersja NPrinting,
  • Aplikacja źródłowa – nazwa pliku .qvw oraz typ połączenia (plik .qvw lub qvp-serwer/claster),
  • Szablon raportu (Excel, Power Point, Word, HTML, Entity lub PixelPerfect),
  • Format wyjściowy (format pliku, raport osadzony w treści e-maila),
  • Zastosowane zmienne (zmienne – wartości i zmienne – formuły),
  • Odbiorcy,
  • Kalendarz wysyłek,
  • Format wysyłki (email, FTP, folder, inne),
  • Treść maila,
  • Filtry na poziomie zadania, raportu, obiektu lub odbiorcy,
  • Rodzaje filtrów (pola, zmienne, bookmark), oraz parametru filtrów (wartość, formuła, “advanced search”, “select excluded”, “override values” itd.,
  • Dodatkowe komentarze dotyczące dystrybucji (import odbiorców, przeładowanie aplikacji, uruchomienie makro itp).

Posiadanie matrycy pozwala zidentyfikować wcześniej wspomniane różnice w funkcjonowaniu, niewspierane funkcjonalności oraz zaplanować możliwe alternatywne rozwiązania i ich czasochłonność. Z drugiej strony może się okazać, że NP17+ będzie potrafił w dużo bardziej optymalny sposób obsłużyć dystrybucję raportu więc jest to bardzo dobra okazja do wprowadzenia optymalizacji. 

Kolejnym elementem jest zaplanowanie środowiska NPrinting 17+. W odróżnieniu od NP16 wymagany jest dedykowany serwer. Osobny serwer w architekturze zapewnia stabilność, możliwość rozbudowy i klastrowania oraz ułatwia zarządzanie zasobami. Wymagania dotyczące architektury dostępne są na stronie: Planning your deployment ‒ Qlik NPrinting.

Punkty dotyczące architektury muszą spełniać wszystkie wymagania, dlatego warto skonsultować je z partnerem Qlik aby uniknąć niepotrzebnych komplikacji wynikających z instalacji w niewspieranym środowisku.

Migration Tool

Narzędzie do migracji projektu z NP16 do NP17+ zostało wprowadzone w NPrinting w listopadzie 2019. Pozwala ono na przeniesienie i konwersje pojedynczego projektu z NP16 do NP17+, aczkolwiek należy zaznaczyć, że taki projekt przed migracją powinien być zweryfikowany pod kątem niewspieranych rozwiązań. Takie funkcjonalności powinny być usunięte z projektu .nsq przed rozpoczęciem migracji. 

Jak wygląda zatem proces migracji? Pierwszy krok to eksport całego projektu do pliku .zip z wersji NPrinting 16.3 lub nowszej. Następnie w “siedemnastce“ w zakładce “Admin” i “Import NPrinting 16 project” można wczytać plik .zip, który uruchamia krok po kroku proces migracji. 

Pierwszy etap to weryfikacja lub utworzenie połączenia do aplikacji QlikView. Gdy połączenie zostanie poprawnie skonfigurowane należy w kolejnym kroku wybrać “Start import”. Połączenie generuje metadane NPrinting oraz automatycznie przechodzi do następnych kroków. Zostają utworzone filtry, a każdy krok opatrzony jest dodatkową informacją i hiperłączem do detali. Jeżeli podczas tych kroków proces wyszuka niewspierane opcje, zostanie wyświetlona kontrolka alarmująca o potencjalnym błędzie. Dalszy etap to zaczytanie warunków, raportów oraz tasków. Każdy element opatrzony jest kontrolkami, które można sprawdzić. Na końcu procesu otrzymujemy podsumowanie migracji zawierające wszystkie elementy, które zostały zmigrowane, ostrzeżenie o potencjalnych błędach a także informacje o elementach nieprzeniesionych. 

Zadania manualne

Narzędzie do migracji nie przenosi użytkowników/grup, zadań (jobs), formy dostarczenia raportów (destinations), niektórych typów zadań (recipient import, reload lub macro task) oraz harmonogramu wysyłek (triggers). Te elementy należy utworzyć samodzielnie i odpowiednio dodać do aplikacji NPrinting.

Zakończenie migracji

Po dokonaniu migracji i manualnych kroków pozostaje tylko wykonać testowe wysyłki raportów. Qlik sugeruje korzystanie z opcji “alternatywnych e-maili” wykonując testy. Pozwala to na symulowanie wykorzystania filtrów użytkownika lub opcji “section access”, a także upewnienia się, że dane w raportach generują się prawidłowo.

Podsumowanie

Wprowadzanie jakichkolwiek zmian w narzędziach z których organizacje korzystają nie jest zwykle pożądane. Firmy preferują stabilność i sprawdzone rozwiązania. Nie można się dziwić, że konieczność zmiany i migracji Qlik NPrinting jest odkładana w czasie. Dlatego istotne jest uświadamianie biznesu, że w tym przypadku nie ma jednak na co czekać. 

Przeważająca ilość korzyści z migracji nad pozostaniem przy “status quo” jest znacząca, a zagrożenie wynikające z pozostawania przy niewspieranej wersji zwiększa ryzyko pojawienia się problemów. Brak niektórych funkcjonalności, które były obecne w NP16 nie powinien przysłaniać dodatkowych opcji dostarczonych wraz migracją do NP17+. Dobrze zaplanowana, świadoma migracja w dłuższej perspektywie z pewnością przyniesie korzyści. Stabilność, wsparcie Qlik oraz regularne łatki i aktualizacje to kolejne czynniki przemawiające na korzyść migracji. 

Ogromna zaleta to wsparcie dla Qlik Sense, otwierające klientom posiadającym Qlik Sense możliwość generowania raportów również w oparciu o aplikacje zbudowane w tym środowisku. Nowoczesna platforma oparta o API daje możliwość “szycia na miarę”, a także rozszerzania pakietu wbudowanych możliwości. Zarządzanie bezpieczeństwem, nowoczesna architektura, możliwość klastrowania, portal NewsStand, integracja raportów “na żądanie” z Qlik Sense i QlikView to kilka kolejnych pozytywnych aspektów przemawiających na korzyść migracji. 

Czytaj także: Qlik Sense: narzędzie pomocne w analizie biznesowej i modelowaniu danych

 

O autorze.

Lech Miszkiewicz, senior konsultant w InsideInfo Pty Ltd w Sydney w Australii.

Przygodę z Qlik rozpoczął w Solaris Bus & Coach S.A. gdzie przeszedł szkolenie QlikView. W 2013 zatrudniony w HBI jako Qlik Konsultant, co pozwoliło mu zbudować warsztat oraz wypracować dobre praktyki Qlik developmentu. W tym czasie rozpoczął również aktywne projekty QlikView NPrinting. W 2015 roku przeprowadził się do Sydney gdzie kontynuuje pracę jako Qlik Konsultant. Wraz z wprowadzeniem na rynek NPrinting 17.0 był odpowiedzialny za większość projektów NPrinting prowadzonych przez InsideInfo Pty Ltd.

Z czasem nawiązał bezpośrednie kontakty z supportem NPrinting w Australii oraz we Włoszech, dzięki czemu uzyskał bezpośredni dostęp do nowinek, poznał kierunek rozwoju produktu a także stał się ekspertem NPrinting na Community.

W czerwcu 2020 uzyskał status Qlik Community MVP. Status ten podtrzymał w odnowionym programie MVP we wrześniu 2021.

Ponadto otrzymał wyróżnienie na community „Member of the month”.

W wolnej chwili prowadzi blog dedykowany dla NPrinting: https://nprintingadventures.com

Produkcja pasz wymaga solidnego wsparcia informatycznego

Produkcja i dystrybucja pasz, to złożony biznes, który musi uwzględniać wiele zmiennych czynników wpływających na ceny końcowe. Zagwarantowanie rentowności wymaga podejmowania szybkich decyzji w oparciu o wiarygodne i aktualne dane. W praktyce oznacza to konieczność wykorzystania najnowszego oprogramowania do analizy i wizualizacji danych.

Wipasz S.A. to jeden z największych polskich producentów pasz i lider w produkcji świeżego mięsa z kurczaka. Firma w 100% oparta jest na polskim kapitale. Spółka rocznie produkuje ponad milion ton pasz dla drobiu, trzody i bydła w 6 wytwórniach zlokalizowanych w całej Polsce. Obecnie finalizowana jest budowa wytwórni BEZ GMO w Międzyrzecu Podlaskim. Będzie to druga wytwórnia pasz Wipasz w tym regionie. Integralną częścią działalności Spółki jest kontraktacja drobiu, która hodowcom zapewnia wsparcie i bezpieczeństwo, zaś ubojniom Wipasz odbiór żywca, którego parametry hodowlane są w pełni kontrolowane. Współpraca ta oparta jest o długoterminowe umowy kontraktacyjne w ramach, których Wipasz zapewnia hodowcom:  dostawy pasz, wstawienie piskląt, opiekę własnego serwisu weterynaryjnego i odbiór kurcząt.

Najwyższa jakość wytwarzanych produktów możliwa jest dzięki zintegrowanemu systemowi produkcji – za który Wipasz odpowiada od pola do stołu konsumenta. System integracji pionowej obejmuje:

  • pozyskiwanie i magazynowanie surowców do produkcji pasz;
  • produkcję pasz, koncentratów i dodatków mineralnych;
  • współpracę z hodowcami, w tym logistykę pasz i żywca;
  • produkcję mięsa drobiowego – każdy kilogram mięsa przekazywany na rynek jest w pełni identyfikowalny co do jego pochodzenia.

Na każdym z wyżej wymienionych etapów przetwarzane są olbrzymie ilości informacji. Powstające tam strumienie danych gromadzone są w systemach wspierających produkcję, zaś pełny obraz biznesu powstaje dopiero po ich integracji w jednym systemie – business intelligence.

Dynamiczny rozwój przyspieszył cyfryzację

Jak wiele polskich przedsiębiorstw, Wipasz sukcesywnie cyfryzował swój biznes wraz z rozwojem firmy. W Dywizji Paszowej istniał autorski program, który (po części miał funkcje ERP) umożliwiał sterowanie i zarządzanie produkcją. Dane dotyczące produkcji były zbierane i raportowane do centrali, a następnie przygotowywane do dalszych analiz. W obszarze produkcji mięsnej pojawił się nowy program ERP, który obsługuje/organizuje produkcję.

Jednak ilość danych, która pojawiała się w obu systemach była tak duża, że przygotowanie raportów zajmowało nawet kilka dni. Przy ogromie informacji jaki dostarczają wytwórnie, szukanie trendów, bez analizy zdarzeń w firmie na przekroju kliku lat – było praktycznie niemożliwe. Pojawiła się zatem potrzeba wdrożenia rozwiązania, które w sposób istotny skróciłoby czas przygotowania i udostępniania raportów.

Chcąc usprawnić zarządzanie spółką i przyspieszyć proces podejmowania decyzji w oparciu o pełne i wiarygodne dane, zarząd Wipasz podjął decyzję o wdrożeniu systemu business intelligence – Qlik. Dzięki współpracy z firmą Hogart, zaledwie w kilka miesięcy, udało się wdrożyć system radykalnie skracający czas tworzenia raportów dotyczących najważniejszych aspektów produkcji. Każdy z działów firmy przygotował listę potrzebnych raportów, a sukcesywnie dodawane są również nowe.

System Qlik wykorzystywany jest obecnie w dwóch obszarach:

  • agregacja danych z różnych systemów, z uwzględnieniem danych archiwalnych;
  • analiza i raportowanie wolumenów sprzedaży pasz, transportu i marż – prognozowanie wyników.

Przygotowywane raporty dotyczą produkcji, jak również wszystkich aspektów funkcjonowania spółki, w tym określenia poziomu kosztów i zysków.

Czytaj także: Narzędzia Business Intelligence

Natychmiastowe korzyści

Wipasz jest na początku funkcjonowania systemu Qlik, a już widzi istotne korzyści, takie jak generowanie wiarygodnych podstaw do dalszych analiz oraz radykalne skrócenie czasu przygotowania raportów.

Szybkie efekty są wynikiem wyeliminowania rozbieżności, które pojawiały się przy dużej ilości arkuszy excel. W konsekwencji osoba, która wcześniej poświęcała czas na porównywanie różnych źródeł danych i tworzenie raportu, teraz może skoncentrować się na jego analizie. Posiadanie wszystkich danych w jednym miejscu przekłada się na komfort pracy użytkowników systemu oraz umożliwia wychwytywanie błędów zniekształcających ostateczny wynik.

Co więcej – Qlik umożliwił powiązanie informacji pozornie nie mających ze sobą wiele wspólnego i znalezienie wzajemnego wspólnego mianownika oddziaływania na siebie zdarzeń po stronie produkcji i dystrybucji. Pozwala to wychwytywać wyższe koszty transportu. Qlik umożliwia również weryfikowanie hipotez – jak zmiany w produkcji pasz wpłyną na sprzedaż mięsa. Analizy przygotowywane w Qlik uwzględniają dane zewnętrzne, pochodzące z ministerstwa np. obszarów zagrożonych ptasią grypą czy informacje na temat cen surowców.

Jak mówi Andrzej Krygier – Dyrektor Działu IT Wipasz S.A. – Dzięki pełnej integracji procesu produkcyjnego oraz zastosowaniu innowacyjnych technologii, dostarczamy naszym klientom produkty spełniające najwyższe normy jakościowe. Wdrożenie systemu Qlik usprawniło proces analizy danych, co skutkuje szybszym podejmowaniem właściwych decyzji. W naszej branży, marże są minimalne przez co błędne lub niedokładne oszacowanie może skutkować realnymi stratami. Dzięki Qlik możliwie jest ustalenie cen optymalnych. Dlatego to, co zamierzamy intensywnie rozwijać to prognozowanie. Jest to niezwykle istotne z uwagi na dużą ilość czynników zmiennych – przede wszystkim nieprzewidywalność cen zakupu.

W modelu docelowym Qlik usprawnione będzie pobieranie danych z systemów źródłowych, zaś proces przetwarzania i analiz zostanie zautomatyzowany.

Czytaj więcej: Qlik Sense: narzędzie pomocne w analizie biznesowej i modelowaniu danych

10 częstych błędów w analizie danych

W pracy z liczbami zawsze łatwo o błąd. Jednak o ile w matematyce najczęstsze błędy wynikają z nieprawidłowych obliczeń, zupełnie inaczej jest w dziedzinie analizy danych. Tu dużo łatwiej o pomyłkę, ponieważ kategorii błędów jest znacznie więcej i w dodatku nie są one tak oczywiste,  zarówno dla osób przygotowujących analizy, jak i ich odbiorców.

Jakie błędy najczęściej spotykamy w analizie danych? Oto 10 przykładów.

1. Nierzetelne dane

W procesie przetwarzania informacji jakość danych dostępnych na wejściu decyduje o prawdziwości analizy i wyciąganych na jej podstawie wniosków. Nierzetelność danych to bardzo szerokie pojęcie, gdyż może mieć różne przyczyny. Jedną z nich są błędy popełniane już na etapie wprowadzania danych lub rejestracji zdarzeń. Dane mogą zostać wprowadzone do systemu błędnie (np. popełniono błąd ręczny), z opóźnieniem lub nie zostać wprowadzone wcale (grzech zaniedbania). Mogą też zostać zdublowane.

W każdej z powyższych sytuacji analiza nie odda stanu faktycznego, a wyciągane na jej podstawie wnioski będą fałszywe.

2. Źle przygotowane dane

Jakość analiz zależy od osób przygotowujących dane. Najczęściej popełnianym błędem na etapie przygotowania jest brak zapewnienia kompletności danych albo zawarcie w nich tzw. duplikatów, czyli danych zdublowanych. Przyczyny błędów na tym polu też bywają różne – mogą wynikać ze złej organizacji zarządzania wiedzą w firmie, z niewiedzy lub po prostu być wynikiem błędu operacyjnego.

3. Ufność w zewnętrzne źródła danych

Wiele analiz bazuje nie tylko na danych własnych, ale również tych pozyskanych ze źródeł zewnętrznych. Należy pamiętać, że informacje ze źródeł zewnętrznych zawsze są obarczone ryzykiem błędu, nawet jeśli autoryzują je uznane na rynku firmy, organizacje czy instytuty badawcze.

Na tym jednak nie koniec – przytaczając różnego rodzaju eksperckie opracowania warto rozeznać kontekst ich powstania, np. na czyje zamówienie opracowano daną analizę czy raport. Warto przed wykorzystaniem danych z zewnątrz ocenić rzetelność ich źródeł. Przypomina to pracę dziennikarską, w której pozyskane informacje powinno się potwierdzić w co najmniej jednym alternatywnym źródle, a najlepiej w kilku.

4. Przestarzałe dane

To zmora organizacji, które nie dysponują odpowiednimi narzędziami analitycznymi lub które w obszarze analityki cierpią na niedostatek zasobów i w efekcie opracowywanie analiz trwa u nich długo. Żyjemy w dynamicznym świecie, w którym czas reakcji i zdolność adaptacji ma zasadnicze znaczenie w budowaniu pozycji konkurencyjnej. Jeśli sam proces przygotowania analiz jest czasochłonny, to najczęściej oparte na nich wnioski i raporty są przedawnione już w dniu dostarczenia i nie odzwierciedlają stanu „tu i teraz” – tak bardzo potrzebnego managerom.

5. Niewłaściwy benchmark, czyli złe punkty odniesienia

Wyciąganie wniosków z analiz często bazuje na porównywaniu uzyskanych danych z wybranym punktem odniesienia. Na tym polu łatwo o błąd, który może prowadzić decydentów do mylnych wniosków. Najczęstszym błędem jest odnoszenie zestawu danych do niewłaściwych zestawów danych alternatywnych.

Innymi słowy: nie powinno się porównywać jabłek z pomarańczami. Niewłaściwy benchmark może polegać na zestawieniu niepasujących do siebie kategorii (np. sprzedaży dwóch różnych produktów, których modele sprzedaży są dalece odmienne) lub nieadekwatnych przedziałów czasu.

6. “Zgubienie” kontekstu analizy

Podczas analizowania danych nie powinno się na nie patrzeć bez zrozumienia kontekstu i uwarunkowań, w jakich te dane zebrano. Wnioskowanie powinno być wspierane poszukiwaniem odpowiedzi na pytanie, dlaczego mamy do czynienia z takimi a nie innymi danymi, co się stało, jaka jest tego przyczyna.

Dobrym przykładem może być porównywanie sprzedaży w roku przed pandemią Covid 19 do sprzedaży w roku pandemii. W sytuacji dużego spadku obrotów nie powinno się wyciągać zawsze prostego wniosku i obarczać winą działu handlowego. Sprzedaż zmalała, ponieważ zmieniły się makroekonomiczne uwarunkowania rynkowe. Same dane jednak na to bezpośrednio nie wskazują – pokazują tylko, że w kolejnym roku handlowcy mieli gorsze rezultaty. Warto pamiętać, że prawdziwy kontekst często nie jest łatwy do odkrycia, że często jest ukryty i że niekiedy trzeba wykonać sporo dodatkowej pracy, by odkryć i ocenić rzeczywiste przyczyny zdarzeń poddawanych analizie.

7. Ślepa ufność w średnią lub inne „święte wskaźniki”

Częstym błędem w procesie analizy danych jest posługiwanie się ograniczoną liczbą wskaźników lub nadmierne przywiązanie do jednego wybranego wskaźnika. Warto szczególnie zwrócić uwagę  na sposób wykorzystywania średniej jako wskaźnika oddającego pewną rzeczywistość (niekiedy jest to element celowego manipulowania wynikami). Już samo zestawienie średniej z medianą często pokazuje, jak bardzo pierwotna interpretacja rzeczywistości oparta na średniej powinna zostać poddana korekcie. Podobnie jest z innymi wskaźnikami.

W analizie, podobnie jak w obserwowaniu świata w ogóle, warto bazować na różnych perspektywach, by uzyskać przynajmniej zbliżony do prawdy obraz.

8. Niedostateczne opisy i wnioskowanie

Warunkiem przygotowania dobrej analizy jest opracowanie legendy, właściwe opisanie wskaźników oraz ich interpretacja – przynajmniej na takim poziomie, który zmniejszy ryzyko wyciągnięcia przez odbiorcę analizy błędnych wniosków. Autor zestawień powinien postawić się w sytuacji odbiorców raportu i postarać się uprzedzić ich ewentualne pytania. Warto pamiętać, że nawet prosty błąd w postaci źle opisanej legendy wykresu może prowadzić do mylnej decyzji. Podobnie jest w sytuacji przedstawiania jedynie samych danych – dobry analityk powinien nie tylko je opisać, podkreślając różne konteksty czy uwarunkowania, ale rzeczywiście przedstawić odbiorcom swoją interpretację jako uzupełnienie przetworzonych danych.

9. Słaba czytelność wyników analizy danych

Poniekąd odnosi się to do poprzedniego punktu, natomiast kwestia ta bardziej dotyczy warstwy narzędzi analitycznych. Informacje można na różne sposoby wizualizować, natomiast warto pamiętać, że odbiorcy raportów mają indywidualne preferencje w zakresie tego, w jaki sposób chcieliby korzystać z informacji. Podczas gdy jedni preferują tabele, inni chcą zobaczyć wykres. Dla jednych ważne jest ujęcie kilku wskaźników w jednym zestawieniu; inni wolą wchodzić w szczegóły badając tylko wybrany wskaźnik.

Kłopoty pojawiają się, gdy opracowana analiza jest nieczytelna i mało zrozumiała dla jej odbiorców. Tu z pomocą przychodzą systemy informatyczne, które automatyzują wizualizację danych i umożliwiają indywidualne kształtowanie interfejsów użytkownika zależnie od potrzeb w zakresie raportowania.

10. Pułapka subiektywizmu

Odbiorca analizy powinien mieć świadomość, że każdemu przedstawianiu informacji czy interpretacji wyników może towarzyszyć stronniczość – niezamierzona lub celowa. Skażenie subiektywizmem może zaczynać się już na etapie zbierania danych do analizy. Podobnie na etapie interpretacji analityk nie zawsze (mimo szczerych chęci) jest w stanie zachować pełną neutralność i obiektywizm. W końcu jako człowiek ma własny punkt widzenia i pracuje wykorzystując osobiste doświadczenie. W kontekście odbioru różnego rodzaju analiz należy też pamiętać, że ich brzmienie może zostać celowo poddane zniekształceniom, np. gdy analiza powstaje tylko po to, by udowodnić lub obalić z góry postawioną tezę.

Czytaj także: Czym jest analityka biznesowa?

Jak ustrzec się przed błędami w analizie danych?

Czy można ustrzec się przed błędami w analizowaniu danych? Na pewno większości z nich można skutecznie unikać lub minimalizować je do poziomu dającego możliwość efektywnego działania. Głównym eliminatorem błędów w obliczeniach i wizualizacji danych są dedykowane systemy informatyczne, takie jak np. Qlik Sense czy Qlik View.

Rozwiązania te w sposób automatyczny wizualizują dane, tak jak sobie tego życzą indywidualni użytkownicy. Informacje przetwarzane są w czasie rzeczywistym, co oznacza, że odbiorcy analiz mają pewność, że dane są zawsze aktualne. Ponadto rozwiązania z rodziny Qlik dają możliwość wielowymiarowego eksploatowania danych, co z kolei zmniejsza ryzyko ich niewłaściwej interpretacji czy zmanipulowania na etapie opracowywania wniosków w procesie analizy.

Czytaj więcej: Qlik Sense: narzędzie pomocne w analizie biznesowej i modelowaniu danych