Globalny rynek danych i analityki biznesowej, jest obecnie wyceniany na 130 mld dolarów i będzie rósł w kolejnych latach w dwucyfrowym tempie. Przewiduje się, że w 2020 roku przekroczy już próg 203 mld dolarów. Technologie Big Data rozwijają się sześciokrotnie szybciej niż pozostałe segmenty sektora IT. Tymczasem polski biznes wydaje się być wciąż nieświadomy wyścigu, w którym uczestniczy. Wygrają w nim te firmy, które będą mieć dostęp do odpowiednich danych i zrobią z nich jak najlepszy pożytek.

 REKLAMA 
 Wdrażasz KSeF w firmie 
Według IDG Enterprise 2016 Data & Analytics Research, 78% przedstawicieli przedsiębiorstw uważa, że zbieranie i analizowanie danych może zainicjować fundamentalną zmianę sposobu prowadzenia ich biznesu w ciągu najwyżej trzech lat. Polska wpisuje się w ten światowy trend. Rodzimi przedsiębiorcy podchodzą jednak do Big Data z daleko idącą ostrożnością – tylko 5,9% polskich firm korzysta z rozwiązań do analizy dużych zbiorów danych.
Polacy, podchodzą z dystansem do technologicznych nowinek. Świadczy o tym dalekie, 23. miejsce wśród zaawansowanych cyfrowo państw Unii Europejskiej według analiz KE. Jednak w przypadku Big Data perspektywy są optymistyczne. Aż 8 do 10 polskich menedżerów IT jest zdania, że analityka wielkich zbiorów danych będzie stanowić podstawę strategii biznesowych dla ich firm w przeciągu najbliższych 5 lat. Natomiast w ciągu najbliższych dwóch aż siedem na dziesięć przedsiębiorstw planuje zwiększenie wydatków na analizę dużych zbiorów danych – Bogdan Brzozowski, IT Consultant w Capgemini
Zamienić dane na pieniądze

2016 rok stanowił przełom dla wielu firm powiązanych z segmentem Big Data. Według Deloitte kluczowym trendem w tym okresie była monetyzacja danych. W oparciu o Big Data coraz częściej podejmuje się ważne decyzje biznesowe dotyczące rozwoju, strategii czy kampanii marketingowych. Dlaczego? Osoby zarządzające przedsiębiorstwami zakładają, że wraz z zaawansowanymi analizami pozyskają nowy, głębszy wgląd w informacje, które dają możliwość wzrostu dla swojego biznesu. Według IDG Enterprise 2016 Data & Analytics Research firmy inwestowały do tej pory w narzędzia do analityki danych głównie z myślą o dwóch celach biznesowych: poprawie jakości systemów CRM oraz poszukiwaniu w danych możliwości ich wymiernego wykorzystania w przedsiębiorstwie (tzw. data – driven business).
Przewiduje się, że do 2020 roku analityka predyktywna i preskryptywna przyciągnie około 40% nowych inwestycji w Business Intelligence. Pierwsza służy przewidywaniu przyszłych scenariuszy rozwoju rynku oraz zachowań klientów i konkurencji. Druga dostarcza wiedzy, jak te zachowania można modelować i wpływać aktywnie na postawy korzystne z punktu widzenia firmy. Przedsiębiorstwa coraz bardziej koncentrują się na analizie zachowań klientów. W ten sposób poszukują szansy na wejście na nowe rynki, kreowanie nowych modeli biznesowych oraz chcą poprawiać swoją operacyjność. Inwestycje w analitykę, Big Data oraz BI wychodzą tym celom naprzeciw – tłumaczy dalej Bogdan Brzozowski
Skala możliwości zastosowania rozwiązań Big Data jest w dużej mierze zależna od branży. Przede wszystkim korzystają z nich firmy z sektora usług finansowych. W ich wypadku Big Data służy m.in. do oceny ryzyka kredytowego lub selekcji klientów, którym zostanie przedstawiona oferta konkretnego produktu bankowego. Dzięki zaawansowanym algorytmom takie procesy są realizowane w czasie rzeczywistym. Jeszcze niedawno zajmowały nawet do kilku dni. Kolejnym sektorem świadomym użyteczności Big Data jest handel i telekomunikacja. Do tego grona zaliczają się również firmy produkcyjne, które dzięki analityce mogą obniżać koszty operacyjne nawet o 20% i liczyć na 30% wzrost zysków. Na ten efekt, a więc wymierne pójście w górę słupka przychodu, liczą wszyscy menedżerowie wprowadzający do firm projekty BI. I oczekują wykazania ich skuteczności.

Główne wyzwania dla biznesu: jakość i dostępność danych

Monetyzacja danych wiąże się jednak z pewnymi wyzwaniami. Głównym problemem jest dokładna ocena przydatności i wiarygodności zasobów danych. Także tych pochodzących ze źródeł zewnętrznych, których do tej pory przedsiębiorstwa w ogóle nie brały pod uwagę, a będą wykorzystywane coraz częściej. Zasilanie systemów firmowych danymi zewnętrznymi to działanie określane jako „data enrichment”. Dzięki niemu firma zyskuje możliwość przetestowania skuteczności zebranych przez siebie informacji. Ze względu na to, biznes będzie przywiązywał coraz większą wagę do jakości danych, zasilając nimi wewnętrzne systemy BI. W tej sytuacji kluczowa staje się aktualność tego typu treści. Dane muszą być regularnie odświeżane i aktualizowane, ponieważ coraz więcej parametrów (np. intencja zakupowa klienta) ma charakter krótkoterminowy. Do tego dochodzi kwestia utrzymywania w bazie pewnego porządku, mająca na celu chociażby uniknięcie mnożenia się kosztów np. związanych z utrzymaniem serwerów. Bogdan Brzozowski, podaje przykład takiej sytuacji:
Olbrzymia ilość danych utrudnia ich analizę oraz utrzymanie spójności przechowywanej informacji. 33 proc. zbieranych przez firmy danych klasyfikuje się jako zbędne, przestarzałe lub nieistotne, czyli ROT (Redundant, Obsolete or Trivial).Typowym przykładem są zduplikowane rekordy, które bardzo często pojawiają się podczas wprowadzania danych adresowych podmiotów prawnych lub osób fizycznych. Tradycyjne metody wyszukiwania były niewystarczające w identyfikacji takich przypadków. W odpowiedzi na ten problem wykorzystaliśmy rozwiązanie nazwane „fuzzy search”, będące nowym podejściem do przeszukiwania i analizy tekstów w relacyjnych bazach danych – komentuje Bogdan Brzozowski.
Drugim istotnym zagadnieniem, zaraz po jakości danych, jest ich dostępność oraz łatwość zarządzania nimi. Firmy chcą analizować treści w czasie rzeczywistym i sprawnie dostosowywać swoje oprogramowanie w zależności od bieżących potrzeb. Takie możliwości otwierają przed nimi usługi chmurowe – czyli w skrócie model usług przetwarzania danych oparty na zewnętrznej infrastrukturze dostawcy. Według analiz Gartnera do ich zalet należą m.in. elastyczność, skalowalność, obniżka kosztów, innowacyjność i wsparcie wzrostu biznesu.
Usługi w modelu cloud dają użytkownikom szansę sprawnego funkcjonowania w świecie Big Data bez zbędnych inwestycji np. w drogi sprzęt czy serwery, przy zachowaniu pełnej sprawności działania. Umożliwiają też pracę z dowolnego miejsca. Równie ważny jest fakt, że dzięki funkcjonowaniu „na zewnątrz” produkty cloudowe mogą być szybko aktualizowane i dostosowywane do zmian zachodzących na rynku. Trudno się więc dziwić, że zyskują na popularności. Jak przewiduje Gartner, do 2020 roku aż 50 proc. usług w zakresie tzw. outsourcingu IT będzie związanych z strategiami wdrożenia usług chmurowych. Duże zainteresowanie firm w tym zakresie odczuwamy także na przykładzie własnych doświadczeń z projektami cloud realizowanymi przy użyciu technologii przetwarzania in-memory SAP HANA. Tylko w 2016 roku liczba subskrybentów usług SAP w tym modelu sięgnęła aż 110 mln, a poziom przychodów firmy z tego tytułu wyniósł 3 mld dolarów - mówi Tomasz Niebylski, dyrektor ds. wsparcia sprzedaży w SAP Polska.

PRZECZYTAJ RÓWNIEŻ:


Back to top