Informacja Zarządcza - od jakości danych do BI i koncepcji Enterprise Performance Management.
Zanim zaczniemy myśleć o systemie informacji zarządczej, najpierw powinniśmy zastanowić się jakie dane posiadamy i w jaki sposób będziemy w stanie je pozyskać. Dobrze jest na tym etapie, odciąć się całkowicie od myślenia typu „potrzebujemy BI”. Rozwiązaniami do raportowania i wizualizacji danych, które są na samym czubku „góry lodowej” nie pokażą nam nic innego niż to co im dostarczymy. Pamiętajmy, że efekt na wyjściu jest tak zły jak dane na wejściu i tu żaden system Business Intelligence nam nie pomoże.
Praktycznie chyba nie ma aktualnie firmy (w szczególności, gdy mowa o dużych i średnich organizacjach), która wykorzystywałaby system do podejmowania decyzji bazujący na jednym źródle danych. Oprócz „standardowego” systemu ERP, możemy mieć zupełnie oddzielny system HR, CRM, czy inne systemy dziedzinowe. Do tego możemy także chcieć wykorzystywać duże ilości danych zewnętrznych od partnerów, użytkowników itp. związanych z komunikacją, zachowaniem, oddziaływaniem na markę w sieci (Big Data).
Dlatego, planując wdrożenie na samym początku powinniśmy pomyśleć skąd będziemy czerpać dane do naszego systemu. Oczywiście nie musimy w punkcie zero starać się oszacować zaraz ich wszystkich, ale nasze koncepcja powinna zakładać bazowy stan na dzisiaj i ewentualną wizję rozwoju na przyszłość. Jest to podstawowy element konstrukcji takiego projektu, ponieważ brak danych lub problemy z ich pozyskaniem spowodują, że późniejsze raporty nie będą w stanie być utrzymywane i powtarzalne (więcej o krokach jakie powinniśmy wykonać definiując potrzeby raportowe).
Jesteśmy na etapie, na którym już wiemy jakimi danymi dysponujemy i przechodzimy do kolejnego kroku, czyli jak „nasze” dane pozyskać i przetransformować do stanu jaki będzie dla nas przydatny w następnych etapach ich przetwarzania. Technologia w tym obszarze to głównie ETL – czyli zestaw narzędzi, który w sposób automatyczny pozwoli łączyć się do źródeł, automatycznie pobierać dane, zbierać pliki informacji, żeby gwarantować już na wstępnym etapie ich dobrą jakość do dalszej obróbki. Nasze dane będą połączone, spójne, „oczyszczone” – będą bazowały na dobrym fundamencie – dzięki czemu będą porównywalne, dopasowywane do naszego określonego modelu informacji zarządczej.
Nasze dane są już doprowadzone do stanu używalności, ale musimy je teraz gdzieś utrzymywać. I tu pojawia się już mocno dojrzała technologia – Hurtownia Danych. Z punktu widzenia użytkownika, można powiedzieć, że jest to jakby najgłębsze miejsce, do którego sięga. Tu znajdziemy nasze wszystkie, wcześniej załadowane dane na najbardziej szczegółowym, detalicznym poziomie, będące podstawą do analiz. Hurtownie danych są na szczęście na tyle dojrzała technologia, że gdy podejmiemy decyzję o ich wyborze…trudno jest wybrać źle.
W kolejnym kroku będziemy musieli przetwarzać nasze dane, na taką postać która z punktu informacji zarządczej będzie istotna, czyli z suchych danych stworzymy struktury, agregacje, kalkulacje, wskaźniki, itp. Z dużego zbioru danych, dobrze przygotowanego, przechowywanego w konkretnym miejscu (Hurtownia Danych), zaczynamy wydzielać istotne z punktu funkcjonalnego składniki – nasze dane są dzielone na te elementy, ze względu na ich obszary wykorzystania. Narzędzia te służą do dostarczania danych w postaci zagregowanej gotowych już do przetwarzania, filtrowania.
W końcu jesteśmy, ale tylko teoretycznie, na końcu naszej drogi, czyli systemach BI. Jest to ostatni krok technologiczny, czyli udostępnienie i przetwarzanie (analizowanie) danych przez samych użytkowników. Jest to swoisty czubek góry lodowej, w większości przypadków postrzegany jako system informacji zarządczej – dashboardy, kpi, trendy itp. itd. Niestety zdarza się, że organizacje rozpoczynają swoje podejście do usprawniania organizacji, systemu informacji zarządczej właśnie od myślenia o systemie BI – takie podejście w znamienitej większości przypadków kończy się porażką.
To by mogło zakończyć krótki wywód na temat technologii, danych i w jakich krokach zabrać się do definiowania procesu informacji zarządczej, natomiast jest to tylko pewna podstawa – tu pojawiają się jeszcze dwa trzyliterowe skróty MDM i EPM (PM, CPM).
Biorąc pod uwagę, że użytkownik korzysta z danych, ale też w mniej lub bardziej świadomy sposób korzysta z metadanych – czyli danych opisujących dane. To właśnie dzięki metadanym zdefiniowany wskaźnik, będzie zawsze pokazywać ten sam wynik, niezależnie w której części organizacji jest on przeliczany.
O ile przy okazji procesów pobierania, czyszczenia danych czy potem ich mapowania, przechowywania jesteśmy w stanie poradzić sobie z jakością danych, o tyle utrzymanie tej jakości może po pewnym czasie stanowić już spore wyzwanie. Dlatego powstały rozwiązania MDM – czyli system, a raczej koncepcja zarządzania danymi w sposób zorganizowany w skali całej firmy. W idei MDM to jakby strażnik, który jest odpowiedzialny za poprawność i spójność metadanych. Posiada zdefiniowane pewne wzorce (metadane), które definiują konieczne dane do zdefiniowania procesów, produktów, … Choć brzmi to bardzo skomplikowanie, to w zasadzie nie jest. Chodzi z jednej strony o jasne odpowiedzialności połączone z góry ustalonymi standardami np. jak zdefiniować nowe konto, aby było opisane od razu właściwymi atrybutami, jak powinien być opisane nowy produkt, klienta, … W mniej skondensowanej, a zarazem bardziej przejrzystej formie o Master Data management.
Doszliśmy do ostatniego punktu, który w sumie można traktować jako podsumowanie. Najwyższą instancją jest aktywne wykorzystywanie informacji do efektywnego zarządzania firmą… i w dużym skrócie to jest właśnie koncepcja Enterprise Performance Management. Jeżeli popatrzymy na dane, jak są ukształtowane w strukturze firmy, od operacyjnych o niskiej istotności, taktycznych – potrzebujemy większej ilości informacji, po strategiczne – wspierające rzadkie decyzje, ale kluczowe o bardzo dużej istotności, to EPM spina je wszystkie w całość i łączy je w pętlę. Tworzy powtarzalny proces zarządzania firmą, dzięki któremu będziemy w stanie błyskawicznie adaptować się do zmian i weryfikować skutki podjętych decyzji czy działań. Business Intelligence jest platformą będącą tylko (albo aż) narzędziem w koncepcji EPM. Pod tym skrótem kryją się wszystkie narzędzia do budżetowania, prognozowania, konsolidacji finansowej…, ale nie jako oddzielne byty, tylko jako wspomniana wspólna koncepcja dojścia do zamierzonego celu.
W koncepcji EPM wszystkie decyzje, niezależnie od szczebla ich podejmowania, współgrają ze sobą i podporządkowane są strategii, z drugiej strony sama strategia też ewoluuje.
Żeby to dobrze działało musi być połączone w odpowiednie procesy. Biorąc pod uwagę, że na każdym szczeblu mamy różne potrzeby, które często działają na różnych, innych danych, często niepołączonych – nie jest to takie proste. Dlatego, żeby patrzeć w sposób kompletny powstała koncepcja i zarazem systemy Enterprise Performance Management.
Przeszliśmy zatem od surowych danych, aż po ich mniej lub bardziej użyteczne formy, aż do wizji organizacji bazującej na wiedzy. Kolejny raz można by postawić tu kończącą kropkę, jednak „niestety” technologia prze na przód. O ile pewne koncepcje jak Enterprise Performance Management, czy poszczególne jego elementy jak budżetowanie, planowanie są w miarę stabilne (choć i tu pojawiają się nowe koncepcje), o tyle obszar technologiczny zmienia się w tempie bardzo szybkim.
Dostępność rozwiązań do gromadzenia danych i ich przetwarzania (chociażby przetwarzanie In-memory) sprawia, że do naszych analiz jesteśmy w stanie zaprzęgnąć coraz większe ilości danych, także tych spoza organizacji (Big Data). O samym Big Data czy o technologiach – a raczej usługach – dostępnych w chmurze mamy już wystarczająco dużo „szumu” i wcześniej czy później nie unikniemy tego kierunku.
Pojawiają się, a zasadniczo są dostępne – i często wykorzystywane – rozwiązania kryjące się pod zwrotami Data Discovery, czy Data Lakes. Są to elementy, które w przyszłości albo i już zastąpią technologie OLAP czy same Hurtownie Danych. Ich logika jest jakby inna, a bazuje z jednej strony na potrzebie przetwarzania, dużej ilości danych (zarówno tych nieustrukturalizowanych – zewnętrznych i wewnętrznych oraz tych o przejrzystej strukturze – powtarzalnej, definiowalnej itp.).
Nie schodząc zbyt nisko technologii, rozwiązania Data Lakes nie potrzebują przechowywać danych w specjalnie zdefiniowanych strukturach, a w celu „zadania zapytania” nie potrzebują przeszukiwać zapytaniem całej Hurtowni Danych. Zadają pytanie jakby wprost do miejsca, w którym wiedzą, że dana odpowiedź się znajduje (mają zapisane w pamięci, gdzie znajduje się odpowiedź, na dane pytanie). Jakie są tego korzyści?
Przede wszystkim przy analizie różnego typu danych (w szczególności nieustrukturalizowanych) mowa o tradycyjnym podejściu raczej traci sens; a nowe podejście gwarantuje szybkość uzyskania odpowiedzi, elastyczność – możemy tworzyć zapytania, których do tej pory nie byliśmy w stanie zdefiniować, … i wiele innych korzyści.
Na zakończenie jeszcze przykład ciekawego rozwiązania, które od niedawna pojawiło się na rynku polskim, a jest plasowane przez takie autorytety analityczne jak Gartner czy Forrester jako lider w obszarze Data Discovery.
Birst jest opisywany przez producenta jako Networked Analytics and BI Platform. Inny słowy jest to połączenie możliwości integracji, przetwarzania i udostępniania danych z najnowocześniejszymi funkcjami wizualizacji i analizy danych, a całość dostępna jest jako serwis w chmurze lub tradycyjna instalacja on premise. W efekcie Birst godzi potrzeby funkcjonalności, skalowalności oraz zasad przetwarzania i bezpieczeństwa danych (koniecznych ze strony IT) z elastycznością, szybkością i łatwością obsługi wymaganą przez użytkowników.