Produkcja pasz wymaga solidnego wsparcia informatycznego

Produkcja i dystrybucja pasz, to złożony biznes, który musi uwzględniać wiele zmiennych czynników wpływających na ceny końcowe. Zagwarantowanie rentowności wymaga podejmowania szybkich decyzji w oparciu o wiarygodne i aktualne dane. W praktyce oznacza to konieczność wykorzystania najnowszego oprogramowania do analizy i wizualizacji danych.

Wipasz S.A. to jeden z największych polskich producentów pasz i lider w produkcji świeżego mięsa z kurczaka. Firma w 100% oparta jest na polskim kapitale. Spółka rocznie produkuje ponad milion ton pasz dla drobiu, trzody i bydła w 6 wytwórniach zlokalizowanych w całej Polsce. Obecnie finalizowana jest budowa wytwórni BEZ GMO w Międzyrzecu Podlaskim. Będzie to druga wytwórnia pasz Wipasz w tym regionie. Integralną częścią działalności Spółki jest kontraktacja drobiu, która hodowcom zapewnia wsparcie i bezpieczeństwo, zaś ubojniom Wipasz odbiór żywca, którego parametry hodowlane są w pełni kontrolowane. Współpraca ta oparta jest o długoterminowe umowy kontraktacyjne w ramach, których Wipasz zapewnia hodowcom:  dostawy pasz, wstawienie piskląt, opiekę własnego serwisu weterynaryjnego i odbiór kurcząt.

Najwyższa jakość wytwarzanych produktów możliwa jest dzięki zintegrowanemu systemowi produkcji – za który Wipasz odpowiada od pola do stołu konsumenta. System integracji pionowej obejmuje:

  • pozyskiwanie i magazynowanie surowców do produkcji pasz;
  • produkcję pasz, koncentratów i dodatków mineralnych;
  • współpracę z hodowcami, w tym logistykę pasz i żywca;
  • produkcję mięsa drobiowego – każdy kilogram mięsa przekazywany na rynek jest w pełni identyfikowalny co do jego pochodzenia.

Na każdym z wyżej wymienionych etapów przetwarzane są olbrzymie ilości informacji. Powstające tam strumienie danych gromadzone są w systemach wspierających produkcję, zaś pełny obraz biznesu powstaje dopiero po ich integracji w jednym systemie – business intelligence.

Dynamiczny rozwój przyspieszył cyfryzację

Jak wiele polskich przedsiębiorstw, Wipasz sukcesywnie cyfryzował swój biznes wraz z rozwojem firmy. W Dywizji Paszowej istniał autorski program, który (po części miał funkcje ERP) umożliwiał sterowanie i zarządzanie produkcją. Dane dotyczące produkcji były zbierane i raportowane do centrali, a następnie przygotowywane do dalszych analiz. W obszarze produkcji mięsnej pojawił się nowy program ERP, który obsługuje/organizuje produkcję.

Jednak ilość danych, która pojawiała się w obu systemach była tak duża, że przygotowanie raportów zajmowało nawet kilka dni. Przy ogromie informacji jaki dostarczają wytwórnie, szukanie trendów, bez analizy zdarzeń w firmie na przekroju kliku lat – było praktycznie niemożliwe. Pojawiła się zatem potrzeba wdrożenia rozwiązania, które w sposób istotny skróciłoby czas przygotowania i udostępniania raportów.

Chcąc usprawnić zarządzanie spółką i przyspieszyć proces podejmowania decyzji w oparciu o pełne i wiarygodne dane, zarząd Wipasz podjął decyzję o wdrożeniu systemu business intelligence – Qlik. Dzięki współpracy z firmą Hogart, zaledwie w kilka miesięcy, udało się wdrożyć system radykalnie skracający czas tworzenia raportów dotyczących najważniejszych aspektów produkcji. Każdy z działów firmy przygotował listę potrzebnych raportów, a sukcesywnie dodawane są również nowe.

System Qlik wykorzystywany jest obecnie w dwóch obszarach:

  • agregacja danych z różnych systemów, z uwzględnieniem danych archiwalnych;
  • analiza i raportowanie wolumenów sprzedaży pasz, transportu i marż – prognozowanie wyników.

Przygotowywane raporty dotyczą produkcji, jak również wszystkich aspektów funkcjonowania spółki, w tym określenia poziomu kosztów i zysków.

Czytaj także: Narzędzia Business Intelligence

Natychmiastowe korzyści

Wipasz jest na początku funkcjonowania systemu Qlik, a już widzi istotne korzyści, takie jak generowanie wiarygodnych podstaw do dalszych analiz oraz radykalne skrócenie czasu przygotowania raportów.

Szybkie efekty są wynikiem wyeliminowania rozbieżności, które pojawiały się przy dużej ilości arkuszy excel. W konsekwencji osoba, która wcześniej poświęcała czas na porównywanie różnych źródeł danych i tworzenie raportu, teraz może skoncentrować się na jego analizie. Posiadanie wszystkich danych w jednym miejscu przekłada się na komfort pracy użytkowników systemu oraz umożliwia wychwytywanie błędów zniekształcających ostateczny wynik.

Co więcej – Qlik umożliwił powiązanie informacji pozornie nie mających ze sobą wiele wspólnego i znalezienie wzajemnego wspólnego mianownika oddziaływania na siebie zdarzeń po stronie produkcji i dystrybucji. Pozwala to wychwytywać wyższe koszty transportu. Qlik umożliwia również weryfikowanie hipotez – jak zmiany w produkcji pasz wpłyną na sprzedaż mięsa. Analizy przygotowywane w Qlik uwzględniają dane zewnętrzne, pochodzące z ministerstwa np. obszarów zagrożonych ptasią grypą czy informacje na temat cen surowców.

Jak mówi Andrzej Krygier – Dyrektor Działu IT Wipasz S.A. – Dzięki pełnej integracji procesu produkcyjnego oraz zastosowaniu innowacyjnych technologii, dostarczamy naszym klientom produkty spełniające najwyższe normy jakościowe. Wdrożenie systemu Qlik usprawniło proces analizy danych, co skutkuje szybszym podejmowaniem właściwych decyzji. W naszej branży, marże są minimalne przez co błędne lub niedokładne oszacowanie może skutkować realnymi stratami. Dzięki Qlik możliwie jest ustalenie cen optymalnych. Dlatego to, co zamierzamy intensywnie rozwijać to prognozowanie. Jest to niezwykle istotne z uwagi na dużą ilość czynników zmiennych – przede wszystkim nieprzewidywalność cen zakupu.

W modelu docelowym Qlik usprawnione będzie pobieranie danych z systemów źródłowych, zaś proces przetwarzania i analiz zostanie zautomatyzowany.

Czytaj więcej: Qlik Sense: narzędzie pomocne w analizie biznesowej i modelowaniu danych

10 częstych błędów w analizie danych

W pracy z liczbami zawsze łatwo o błąd. Jednak o ile w matematyce najczęstsze błędy wynikają z nieprawidłowych obliczeń, zupełnie inaczej jest w dziedzinie analizy danych. Tu dużo łatwiej o pomyłkę, ponieważ kategorii błędów jest znacznie więcej i w dodatku nie są one tak oczywiste,  zarówno dla osób przygotowujących analizy, jak i ich odbiorców.

Jakie błędy najczęściej spotykamy w analizie danych? Oto 10 przykładów.

1. Nierzetelne dane

W procesie przetwarzania informacji jakość danych dostępnych na wejściu decyduje o prawdziwości analizy i wyciąganych na jej podstawie wniosków. Nierzetelność danych to bardzo szerokie pojęcie, gdyż może mieć różne przyczyny. Jedną z nich są błędy popełniane już na etapie wprowadzania danych lub rejestracji zdarzeń. Dane mogą zostać wprowadzone do systemu błędnie (np. popełniono błąd ręczny), z opóźnieniem lub nie zostać wprowadzone wcale (grzech zaniedbania). Mogą też zostać zdublowane.

W każdej z powyższych sytuacji analiza nie odda stanu faktycznego, a wyciągane na jej podstawie wnioski będą fałszywe.

2. Źle przygotowane dane

Jakość analiz zależy od osób przygotowujących dane. Najczęściej popełnianym błędem na etapie przygotowania jest brak zapewnienia kompletności danych albo zawarcie w nich tzw. duplikatów, czyli danych zdublowanych. Przyczyny błędów na tym polu też bywają różne – mogą wynikać ze złej organizacji zarządzania wiedzą w firmie, z niewiedzy lub po prostu być wynikiem błędu operacyjnego.

3. Ufność w zewnętrzne źródła danych

Wiele analiz bazuje nie tylko na danych własnych, ale również tych pozyskanych ze źródeł zewnętrznych. Należy pamiętać, że informacje ze źródeł zewnętrznych zawsze są obarczone ryzykiem błędu, nawet jeśli autoryzują je uznane na rynku firmy, organizacje czy instytuty badawcze.

Na tym jednak nie koniec – przytaczając różnego rodzaju eksperckie opracowania warto rozeznać kontekst ich powstania, np. na czyje zamówienie opracowano daną analizę czy raport. Warto przed wykorzystaniem danych z zewnątrz ocenić rzetelność ich źródeł. Przypomina to pracę dziennikarską, w której pozyskane informacje powinno się potwierdzić w co najmniej jednym alternatywnym źródle, a najlepiej w kilku.

4. Przestarzałe dane

To zmora organizacji, które nie dysponują odpowiednimi narzędziami analitycznymi lub które w obszarze analityki cierpią na niedostatek zasobów i w efekcie opracowywanie analiz trwa u nich długo. Żyjemy w dynamicznym świecie, w którym czas reakcji i zdolność adaptacji ma zasadnicze znaczenie w budowaniu pozycji konkurencyjnej. Jeśli sam proces przygotowania analiz jest czasochłonny, to najczęściej oparte na nich wnioski i raporty są przedawnione już w dniu dostarczenia i nie odzwierciedlają stanu „tu i teraz” – tak bardzo potrzebnego managerom.

5. Niewłaściwy benchmark, czyli złe punkty odniesienia

Wyciąganie wniosków z analiz często bazuje na porównywaniu uzyskanych danych z wybranym punktem odniesienia. Na tym polu łatwo o błąd, który może prowadzić decydentów do mylnych wniosków. Najczęstszym błędem jest odnoszenie zestawu danych do niewłaściwych zestawów danych alternatywnych.

Innymi słowy: nie powinno się porównywać jabłek z pomarańczami. Niewłaściwy benchmark może polegać na zestawieniu niepasujących do siebie kategorii (np. sprzedaży dwóch różnych produktów, których modele sprzedaży są dalece odmienne) lub nieadekwatnych przedziałów czasu.

6. “Zgubienie” kontekstu analizy

Podczas analizowania danych nie powinno się na nie patrzeć bez zrozumienia kontekstu i uwarunkowań, w jakich te dane zebrano. Wnioskowanie powinno być wspierane poszukiwaniem odpowiedzi na pytanie, dlaczego mamy do czynienia z takimi a nie innymi danymi, co się stało, jaka jest tego przyczyna.

Dobrym przykładem może być porównywanie sprzedaży w roku przed pandemią Covid 19 do sprzedaży w roku pandemii. W sytuacji dużego spadku obrotów nie powinno się wyciągać zawsze prostego wniosku i obarczać winą działu handlowego. Sprzedaż zmalała, ponieważ zmieniły się makroekonomiczne uwarunkowania rynkowe. Same dane jednak na to bezpośrednio nie wskazują – pokazują tylko, że w kolejnym roku handlowcy mieli gorsze rezultaty. Warto pamiętać, że prawdziwy kontekst często nie jest łatwy do odkrycia, że często jest ukryty i że niekiedy trzeba wykonać sporo dodatkowej pracy, by odkryć i ocenić rzeczywiste przyczyny zdarzeń poddawanych analizie.

7. Ślepa ufność w średnią lub inne „święte wskaźniki”

Częstym błędem w procesie analizy danych jest posługiwanie się ograniczoną liczbą wskaźników lub nadmierne przywiązanie do jednego wybranego wskaźnika. Warto szczególnie zwrócić uwagę  na sposób wykorzystywania średniej jako wskaźnika oddającego pewną rzeczywistość (niekiedy jest to element celowego manipulowania wynikami). Już samo zestawienie średniej z medianą często pokazuje, jak bardzo pierwotna interpretacja rzeczywistości oparta na średniej powinna zostać poddana korekcie. Podobnie jest z innymi wskaźnikami.

W analizie, podobnie jak w obserwowaniu świata w ogóle, warto bazować na różnych perspektywach, by uzyskać przynajmniej zbliżony do prawdy obraz.

8. Niedostateczne opisy i wnioskowanie

Warunkiem przygotowania dobrej analizy jest opracowanie legendy, właściwe opisanie wskaźników oraz ich interpretacja – przynajmniej na takim poziomie, który zmniejszy ryzyko wyciągnięcia przez odbiorcę analizy błędnych wniosków. Autor zestawień powinien postawić się w sytuacji odbiorców raportu i postarać się uprzedzić ich ewentualne pytania. Warto pamiętać, że nawet prosty błąd w postaci źle opisanej legendy wykresu może prowadzić do mylnej decyzji. Podobnie jest w sytuacji przedstawiania jedynie samych danych – dobry analityk powinien nie tylko je opisać, podkreślając różne konteksty czy uwarunkowania, ale rzeczywiście przedstawić odbiorcom swoją interpretację jako uzupełnienie przetworzonych danych.

9. Słaba czytelność wyników analizy danych

Poniekąd odnosi się to do poprzedniego punktu, natomiast kwestia ta bardziej dotyczy warstwy narzędzi analitycznych. Informacje można na różne sposoby wizualizować, natomiast warto pamiętać, że odbiorcy raportów mają indywidualne preferencje w zakresie tego, w jaki sposób chcieliby korzystać z informacji. Podczas gdy jedni preferują tabele, inni chcą zobaczyć wykres. Dla jednych ważne jest ujęcie kilku wskaźników w jednym zestawieniu; inni wolą wchodzić w szczegóły badając tylko wybrany wskaźnik.

Kłopoty pojawiają się, gdy opracowana analiza jest nieczytelna i mało zrozumiała dla jej odbiorców. Tu z pomocą przychodzą systemy informatyczne, które automatyzują wizualizację danych i umożliwiają indywidualne kształtowanie interfejsów użytkownika zależnie od potrzeb w zakresie raportowania.

10. Pułapka subiektywizmu

Odbiorca analizy powinien mieć świadomość, że każdemu przedstawianiu informacji czy interpretacji wyników może towarzyszyć stronniczość – niezamierzona lub celowa. Skażenie subiektywizmem może zaczynać się już na etapie zbierania danych do analizy. Podobnie na etapie interpretacji analityk nie zawsze (mimo szczerych chęci) jest w stanie zachować pełną neutralność i obiektywizm. W końcu jako człowiek ma własny punkt widzenia i pracuje wykorzystując osobiste doświadczenie. W kontekście odbioru różnego rodzaju analiz należy też pamiętać, że ich brzmienie może zostać celowo poddane zniekształceniom, np. gdy analiza powstaje tylko po to, by udowodnić lub obalić z góry postawioną tezę.

Czytaj także: Czym jest analityka biznesowa?

Jak ustrzec się przed błędami w analizie danych?

Czy można ustrzec się przed błędami w analizowaniu danych? Na pewno większości z nich można skutecznie unikać lub minimalizować je do poziomu dającego możliwość efektywnego działania. Głównym eliminatorem błędów w obliczeniach i wizualizacji danych są dedykowane systemy informatyczne, takie jak np. Qlik Sense czy Qlik View.

Rozwiązania te w sposób automatyczny wizualizują dane, tak jak sobie tego życzą indywidualni użytkownicy. Informacje przetwarzane są w czasie rzeczywistym, co oznacza, że odbiorcy analiz mają pewność, że dane są zawsze aktualne. Ponadto rozwiązania z rodziny Qlik dają możliwość wielowymiarowego eksploatowania danych, co z kolei zmniejsza ryzyko ich niewłaściwej interpretacji czy zmanipulowania na etapie opracowywania wniosków w procesie analizy.

Czytaj więcej: Qlik Sense: narzędzie pomocne w analizie biznesowej i modelowaniu danych

Przetwarzanie danych – co warto wiedzieć?

W każdej działalności gospodarczej (niezależnie od jej rodzaju) przetwarzane są dane, na podstawie których wyciąga się wnioski i podejmuje decyzje. Na czym polega przetwarzanie danych i co można zrobić, by dzięki dostępnym w firmie informacjom móc efektywniej nią zarządzać?

Jeżeli uznamy, że trafność decyzji podejmowanych przez kierownictwo organizacji zależy od jakości danych i ich dostępności, to równocześnie możemy stwierdzić, że jakość procesów przetwarzania danych bezpośrednio wpływa na to, na ile skutecznie dana organizacja jest zarządzana. 

Sposób, w jaki firma przetwarza dane, ma kluczowe znaczenie w budowaniu przez nią pozycji konkurencyjnej. Dlaczego? Rozpatrzmy dwie sytuacje.

W pierwszej organizacja zatrudnia utalentowanego managera, który jednak ma ograniczony dostęp do potrzebnych mu informacji – np. systemy ewidencyjne i inne źródła danych nie posiadają odpowiednich informacji lub dostępne w nich dane są pełne błędów. 

W drugiej sytuacji w przedsiębiorstwie są zgromadzone wszystkie potrzebne do podejmowania decyzji dane i są one prawidłowe lecz w samej firmie nie ma odpowiednich praktyk i narzędzi, które pozwoliłyby z tych danych wyciągać ważne dla kierownictwa informacje. W obu sytuacjach funkcja zarządzania działa źle, niosąc duże ryzyko operacyjne i osłabiając pozycję konkurencyjną firmy.

Co to jest przetwarzanie danych?

Warto podkreślić, że samo pojęcie przetwarzania danych zostało precyzyjnie określone na gruncie prawnym – przede wszystkim w Rozporządzeniu Parlamentu Europejskiego i Rady UE nr 2016/679 z 27 kwietnia 2016 r. oraz w ustawie uchwalonej w 2018 r. w związku z koniecznością wdrożenia w Polsce unijnej dyrektywy unifikującej przepisy dot. ochrony danych osobowych na terenie UE (tzw. RODO). Choć uszczegółowienie przepisów odnosi się tu tylko do danych osobowych, warto je przytoczyć, aby mieć jasność co do pełnej listy operacji uznawanych za przetwarzanie danych. W ww. rozporządzeniu wskazano (zob. art. 4 pkt 2), że przez przetwarzanie danych należy rozumieć następujące czynności:

  • zbieranie,
  • utrwalanie,
  • organizowanie,
  • porządkowanie,
  • przechowywanie,
  • adaptowanie lub modyfikowanie,
  • pobieranie,
  • przeglądanie,
  • wykorzystywanie,
  • ujawnianie poprzez przesłanie, rozpowszechnianie lub innego rodzaju udostępnianie,
  • dopasowywanie lub łączenie,
  • ograniczanie, usuwanie lub niszczenie danych.

Ponadto w rozporządzeniu zaznaczono, że za przetwarzanie uznaje się zarówno czynności zautomatyzowane, jak i niezautomatyzowane – a zatem w świetle prawa nie ma znaczenia, czy operacje na danych odbywają się z pomocą systemu informatycznego, czy też wykorzystywane są do tego nośniki i narzędzia analogowe. Warto też zauważyć, że za przetwarzanie danych uznaje się ich przechowywanie. Według interpretacji prawnej samo przechowywanie danych (np. w ewidencji systemów informatycznych) jest uznawane za ich przetwarzanie.

Czytaj także: Praca w chmurze – na czym polega?

Przetwarzanie danych zależy od skali działalności, liczby źródeł danych oraz potrzeb kierownictwa

Rozwojowi każdej organizacji towarzyszy zwykle rosnące zapotrzebowanie na przetwarzanie danych – rozumianych w bardzo szerokim kontekście, najczęściej jako informacje opisujące konkretne zdarzenia gospodarcze. Firmy, które w sposób aktywny walczą o swoją pozycję konkurencyjną, muszą jak najszybciej podejmować decyzje, starając się o ich trafność, tak by zminimalizować ryzyko błędu. Dodatkowym wyzwaniem dla firm jest utrzymanie sprawności zarządzania informacją w erze transformacji cyfrowej, która z jednej strony cechuje się dynamicznym rozwojem nowych źródeł danych napływających do firm, a z drugiej strony często niesie z sobą konieczność migracji do nowszych rozwiązań informatycznych lub przenoszenia części procesów biznesowych do chmury. W wielu większych przedsiębiorstwach tylko w samym obszarze sprzedaży, obsługi klienta i marketingu, obok systemów dziedzinowych, takich jak CRM czy ERP, istnieje co najmniej kilkanaście odrębnych kategorii źródeł danych. Dla firmy, która chce zachować spójność w prowadzonej komunikacji, zapewnić wysoką jakość procesów i móc z sukcesem się rozwijać, jednym z najważniejszych celów jest uzyskanie wysokiej dostępności danych dla pracowników na wszystkich szczeblach – nie tylko kierowniczych, ale też operacyjnych. 

Oczywiste jest, że obecnie do efektywnego przetwarzania danych niezbędne są odpowiednie narzędzia informatyczne. Organizacje o skromniejszych potrzebach analitycznych często zadowalają się podstawowymi funkcjonalnościami oferowanymi przez systemy dziedzinowe – np. programy kadrowo-płacowe, finansowo-księgowe, czy systemy ERP. W tego typu podmiotach analizy najczęściej są wspomagane arkuszami kalkulacyjnymi. 

W większych organizacjach, gdzie apetyt na analitykę jest naprawdę spory i gdzie konieczne jest prowadzenie pod rygorem obowiązujących przepisów sprawozdawczości wewnętrznej i zewnętrznej, potrzeby przetwarzania danych stają się mocno wyrafinowane. Zresztą kwestia dostępności informacji i wielowymiarowego ich przetwarzania pojawia się wszędzie tam, gdzie o pozycji rynkowej decyduje zwinność w działaniu, zdolność adaptacji zmian, szybkość podejmowanych decyzji i umiejętność wielokontekstowego spojrzenia na dostępne dane – niejako z różnych perspektyw. W takich sytuacjach często okazuje się, że analitykę biznesową powinny wspierać rozwiązania do tego dedykowane, jak np. Business Intelligence, takie jak Qlik Sense, czy też rozwiązania klasy Corporate Performance Management. 

Na tym polu wielką role odgrywa technologia OLAP (z ang. Online Analytical Processing). Czym charakteryzuje się OLAP? To technologia, która umożliwia:

  • wielowymiarową analizę danych, które mogą być rozproszone w wielu źródłach i zasobach,
  • elastyczne eksplorowanie danych (generowania raportów, prowadzenia analiz typu drill-down itp.) zależnie od potrzeb użytkownika,
  • scentralizowanie rozproszonych danych,
  • równoczesny dostęp do tych samych danych wielu użytkownikom,
  • szybką i zautomatyzowaną analizę danych oraz elastyczne zaprezentowanie zwizualizowanych informacji, przy czym nie mniej ważne jest utrzymanie łatwego w obsłudze, intuicyjnego interfejsu użytkownika (np. tzw. kokpitu zarządczego).

Z wyników większości badań prowadzonych na grupach rywalizujących ze sobą przedsiębiorstw jasno wynika istotna prawidłowość, o której warto pamiętać. Firmy, które wykazują lepszą zdolność do analizowania posiadanych danych i wykorzystywania w zarządzaniu płynących z nich informacji, statystycznie szybciej zdobywają nowe udziały w rynkach i tym samym szybciej się rozwijają – oczywiście kosztem tych podmiotów, które obszar analityki i przetwarzania danych zaniedbały. Dlatego właśnie świadomi managerowie powinni na liście swoich priorytetów bardzo wysoko stawiać kwestię jakości procesów zarządzania danymi w swojej organizacji. 

Czytaj także: Jak zwiększyć bezpieczeństwo danych w chmurze?

Prognozowanie sprzedaży – jak to zrobić skutecznie?

Sprzedaż jest zwykle głównym źródłem zasilania przedsiębiorstw w środki finansowe niezbędne do prowadzenia działalności i do rozwoju. Z tego względu prognozowanie sprzedaży, podobnie jak planowanie kosztów, jest jednym z kluczowych elementów zarządzania firmą. Jakie są zatem metody skutecznego prognozowania sprzedaży?

Prognozowanie jest wynikiem stosowania naukowych metod przewidywania zdarzeń, zjawisk czy trendów, które mają się wydarzyć w przyszłości. W odniesieniu do sprzedaży prognozowanie polega na określeniu możliwie przybliżonej jej wartości w danym czasie (np. roku), ale także szacowaniu jej dynamiki w kolejnych okresach, np. w poszczególnych kwartałach czy miesiącach.

Określić przewidywalne w nieprzewidywalnym, czyli analizowanie ogromu informacji

Należy pamiętać, że każda prognoza to jedynie przewidywanie zdarzeń mających się wydarzyć w przyszłości, oczywiste jest więc, że przesądzenie o ich wystąpieniu zawsze obarczone jest pewnym ryzykiem – mniejszym lub większym, zależnie od typu zdarzenia. O ile niektóre zdarzenia są niemal pewne lub z góry przesądzone (np. fakt, że każdej doby słońce wschodzi i zachodzi), to nawet w stosunku do nich przynajmniej na gruncie teoretycznym nie możemy mieć pewności, czy kolejnego dnia, za miesiąc czy rok faktycznie będą one miały miejsce. 

Oczywiście zdarzenia, okoliczności i czynniki wpływające na sprzedaż, nie są tak stałe jak astronomiczne prawidła. Przeciwnie, wykazują się ogromną zmiennością. Liczba zmiennych, które w sposób bezpośredni i pośredni determinują sprzedaż, jest naprawdę spora, a znaczna ich część trudno przewidywalna i często zależna od czynnika losowego. Dlatego w praktyce można spotkać się ze stwierdzeniem, że nie ma absolutnie skutecznej metody określenia przyszłej sprzedaży, tzn. takiej, która daje nieomylną i pewną prognozę. Mało tego – nigdy też nie ma pewności, że nawet najrzetelniejsze prognozy się sprawdzą. A jednak w planowaniu zasobów, zatrudnienia, produkcji czy inwestycji zawsze jest lepiej mieć jakąkolwiek prognozę sprzedaży, niż nie mieć nic…

Prognozowanie sprzedaży jest dziedziną złożoną i stosunkowo trudną, wymagającą solidnej wiedzy z zakresu matematyki, statystyki i ekonometrii. Ponieważ sprzedaż zależy od wielu zmiennych, podstawową zasadą w jej planowaniu jest analizowanie danych historycznych. Warto tu dodać, że same informacje, jakimi z reguły dysponuje przedsiębiorstwo, można podzielić na te o charakterze twardym, opisujące konkretne fakty, zdarzenia czy liczby, jak i dane o charakterze miękkim powstałe na bazie indywidualnych doświadczeń pracowników, a nawet ich intuicji. 

Zmienne kształtujące prognozę sprzedaży

Jakie zmienne mogą wpływać na sprzedaż i które z nich powinny być brane pod uwagę w procesie prognozowania sprzedaży? Można je podzielić na czynniki wewnętrzne i zewnętrzne.

Czynniki wewnętrzne wpływające na poziom sprzedaży

  • ceny oferowanych produktów i usług, 
  • parametry jakościowe określające poziom konkurencyjności oferowanych produktów i usług,
  • jakość materiałów marketingowych oraz komunikacji w procesie sprzedaży,
  • jakość obsługi klienta lub też jakość wrażeń i doświadczeń klienta na każdym z etapów współpracy z firmą i w każdym punkcie kontaktu (tzw. customer experience),
  • poziom motywacji pracowników z obszaru sprzedaży i marketingu oraz poziom ich satysfakcji z pracy w firmie,
  • różnego rodzaju promocje, stopień ich dopasowania do poszczególnych segmentów rynku oraz siła ich wpływu na decyzje zakupowe klientów,
  • etyka w działaniu na różnych poziomach organizacji, 
  • rodzaj podejmowanych aktywnych działań sprzedażowych i marketingowych wobec potencjalnych i obecnych klientów oraz częstotliwość tych działań,
  • jakość procesu zarządzania informacją w obszarze sprzedaży, zarządzania relacjami z klientami i lejkiem sprzedażowym,
  • jakość komunikacji prowadzonej przez firmę z jej otoczeniem poza obszarem sprzedaży,
  • szybkość reakcji na zgłoszenia, czas realizacji zamówień i dostarczania produktów i usług do klientów,
  • ilość, jakość i produktywność dostępnych w firmie zasobów,
  • dostępna sieć dystrybucji oraz partnerów mających wpływ na poziom sprzedaży,
  • zasięg działania i zasięg komunikacji w procesie sprzedaży (stopień wykorzystania różnych narzędzi).

Czynniki zewnętrzne wpływające na poziom sprzedaży

  • parametry jakościowe produktów i usług oferowanych przez konkurentów,
  • działania konkurencji w zakresie sprzedaży, dystrybucji, promocji, komunikacji, 
  • ceny konkurencyjnych produktów i usług,
  • jakość obsługi klientów i serwisu podmiotów konkurencyjnych,
  • opinia klientów o produktach i usługach firmy oraz jej konkurentów (siła poszczególnych marek),
  • lojalność klientów, ich przywiązanie do danej marki, nawyki zakupowe,
  • uwarunkowania makro – prawne, polityczne i gospodarcze – mające wpływ na popyt, kształtowanie cen, procesy wytwarzania i dostarczania produktów, koszty prowadzenia działalności,
  • wszelkie zmiany w trendach po stronie klientów, które mają wpływ na skalę popytu – wzrost lub kurczenie się segmentów rynku.

Do powyższych czynników należy dodać szereg informacji i danych o charakterze archiwalnym, opisujących rzeczywiste wyniki sprzedaży w przeszłości. Analizowanie tych informacji i badanie korelacji między różnymi parametrami pozwala wyciągać wnioski na temat estymowanych poziomów sprzedaży w przyszłych okresach.

Prognoza sprzedaży wynika z modelu biznesowego firmy

Lista potencjalnych parametrów, które wpływają na poziom sprzedaży, jest bardzo rozbudowana. Trzeba natomiast dodać, że nie wszystkie one muszą być brane pod uwagę przy formułowaniu prognoz sprzedaży. Wiele zależy bowiem od modelu biznesowego, w jakim działa przedsiębiorstwo, jego rynków, charakteru oferty i stopnia skomplikowania samego procesu sprzedażowego. 

Jako analogię można tu przytoczyć proces prognozowania pogody, który z naukowego punktu widzenia jest bardziej skomplikowany od przewidywania poziomu sprzedaży. Firmy zajmujące się modelowaniem numerycznych prognoz pogody nieustannie analizują nawet kilkaset różnych parametrów meteorologicznych, wykorzystując do tego potężne superkomputery i ciągle doskonalone algorytmy. W wyniku tej pracy generowane są różne typy prognoz pogody – inne parametry są analizowane na użytek farm fotowoltaicznych, inne na potrzeby elektrowni wiatrowych, jeszcze inne dla ciepłowni czy podmiotów zajmujących się transportem i logistyką. Podobnie jest w sprzedaży – zależnie od modelu działania firmy, rynku i jego segmentów należy wybrać odpowiednie parametry, które poddaje się analizom i na ich podstawie prognozuje sprzedaż. Należy też wybrać właściwą metodę opracowania prognozy.

Metody prognozowania sprzedaży

Istnieją różne metody formułowania prognoz sprzedaży, dobierane zarówno pod kątem modelu biznesowego przedsiębiorstwa, jak i dostępnych do analizy danych. Najbardziej popularne metody to:

Analiza i prognozowanie szeregów czasowych 

Wychwytuje i bada trendy w ubiegłych okresach, by na tej podstawie określić przybliżone wartości sprzedaży w przyszłości;

Wykorzystanie wskaźników wyprzedzających

Wychwytuje i analizuje parametry, których wahania poprzedzają określone zmiany w poziomie sprzedaży;

Zastosowanie analogii i prognozowania indukcyjnego

Zastosowanie analogii polega na wykorzystaniu do prognozowania sprzedaży produktu lub usługi danych ze sprzedaży podobnych produktów lub usług. Metoda indukcyjna wykorzystuje pewne prawidłowości zachodzące w węższym zakresie (np. w obrębie sprzedaży jednego produktu) do prognozowania sprzedaży w szerszym kontekście (np. dla całej rodziny produktów);

Metody heurystyczne 

Bazują na doświadczeniach, wiedzy i intuicji osób zaangażowanych w formułowanie prognozy. Ten model pracy jest szczególnie polecany w sytuacji niedostatku lub braku historycznych danych twardych lub niemożności wykrycia trendów w sprzedaży. Odmianą metody heurystycznej jest metoda delficka, która polega na agregowaniu informacji od ekspertów zaangażowanych w kształtowanie prognozy sprzedaży. Informacje zbierane są etapowo z wykorzystaniem anonimowych ankiet. Po zebraniu wszystkich informacji wskazuje się stanowisko najbardziej zbieżne z opiniami większości ankietowanych;

Metoda ekonometryczna 

Wykorzystuje równania ekonometryczne, w których występują prognozowane zmienne objaśniane oraz zmienne objaśniające. Metody te bazują na przyjętych założeniach, które mówią, że zarówno czynnik losowy, jak i wychwycone zależności między zmiennymi objaśniającymi a objaśnianymi są niezmienne w czasie.

Metoda badania rynku 

Bazuje na informacjach pozyskanych w wyniku badań prowadzonych na grupach potencjalnych klientów, którzy w sposób bezpośredni lub pośredni określają swoją skłonność do zakupu określonego produktu lub usługi;

Metoda prowadzenia symulacji 

Wykorzystuje dane pozyskane w drodze przeprowadzenia eksperymentalnej sprzedaży, np. w okresowo otwartych wybranych punktach lub poprzez okresowo uruchomione kanały sprzedaży online.

Kto powinien opracowywać prognozy sprzedaży?

W prognozowanie sprzedaży powinni być zaangażowani ludzie posiadający odpowiednie kompetencje oraz wiedzę z obszaru sprzedaży, marketingu i finansów. Dobrze jest, gdy nad prognozą pracuje interdyscyplinarny zespół wywodzący się z tych trzech obszarów, natomiast często popełnianym błędem jest pozostawienie odpowiedzialności za przygotowanie prognozy sprzedaży tylko jednemu działowi – np. finansów. 

Oprogramowanie do prognozowania sprzedaży

Zapewne najczęściej stosowanym przez przedsiębiorstwa narzędziem informatycznym do opracowywania planów sprzedażowych jest Excel. Jednak w przypadku gdy prognoza wymaga bardziej wyrafinowanych i zaawansowanych analiz danych archiwalnych bardzo pomocnym systemem może być rozwiązanie klasy Business Intelligence, takie jak np. Qlik Sense, które umożliwia wielowymiarową analizę i wizualizowanie danych bez potrzeby angażowania specjalistów z działu IT. 

Czytaj więcej: Qlik Sense: narzędzie pomocne w analizie biznesowej i modelowaniu danych

Trafne prognozy = lepsza sprzedaż

Międzynarodowe badania przeprowadzone na grupie szefów sprzedaży wykazały, że tylko 45% z nich ma przekonanie o trafności i wiarygodności opracowanych prognoz sprzedaży. Podobny odsetek (47%) twierdzi, ze głównym powodem błędnych prognoz jest niska jakość danych lub dane niekompletne (informacje pochodzą z raportu Gartnera „State of Sales Operations Survey”, luty 2020). Liczby te jasno wskazują, jak bardzo w firmach potrzebna jest standaryzacja danych określających rzeczywiste wyniki prowadzonej sprzedaży, a jednocześnie na ile pomocne w wykorzystaniu tych zasobów mogą być systemy informatyczne służące do analizy danych i wnioskowania.