- TNS Infratest i spółka T-Systems zbadały powszechność występowania rozwiązań Big Data w międzynarodowych firmach.
- 90 proc. respondentów pozytywnie oceniło swoje doświadczenia w zakresie przechowywania danych w technologii in-memory zamiast na dyskach twardych.
- Polski rynek reaguje z 2-3 letnim opóźnieniem, jednak od masowego wykorzystywania technologii Big Data nie będzie odwrotu.
_______________________________________________________________
Rosnące liczba danych, wyższa prędkość przetwarzania oraz różnorodność źródeł i typów danych stawiają nowe wyzwania dla przedsiębiorstw.
To sprawia, że o ile cloud computing był gorącym tematem ostatnich lat, trend Big Data powinien wręcz rozpalać do czerwoności. Niemiecka firma badawcza TNS Infratest na zlecenie spółki T-Systems zrealizowała badanie wśród menedżerów specjalizujących się w obszarze teleinformatyki (Information and Communication Technology) na temat ich strategii zarządzania danymi.
W badaniu udział wzięło ponad 1000 menedżerów wysokiego szczebla
z dziewięciu krajów, w tym z: Niemiec, Austrii, Szwajcarii, Francji, Hiszpanii, Rosji, RPA, Brazylii i USA.
Wyniki badania wskazują na wysoką świadomość dotyczącą kwestii Big Data. W międzynarodowych korporacjach występuje bardzo silna presja,
aby możliwie najszybciej wdrożyć wysoce zaawansowane technologie umożliwiające kompleksowe zarządzanie dużymi zasobami danych. Nacisk
ten jest szczególnie widoczny w USA, Brazylii czy Hiszpanii.
Nie powinno to jednak dziwić, biorąc pod uwagę ogólnodostępne statystyki dotyczące ilości danych na świecie. Już w 2010 r. wytworzono ponad
1 zettabajt (tryliard bajtów) cyfrowych informacji. Do 2015 r. liczba
ta ma przekroczyć 9 zettabajtów. Transakcje, połączenia, tysiące dokumentów wytwarzanych w firmach – wszystkie te elementy wpływają na niezwykle dynamiczny wzrost liczby przetwarzanych danych. Zgodnie z prognozami,
do 2015 r. wdrożenie technologii Big Data pochłonie 70 proc. wydatków
na rozwój i modernizację infrastruktury IT na świecie.
Termin Big Data określa nową generację technologii i architektur, pozwalających wydobywać wartościowe informacje z szerokiego zakresu różnych danych. Innymi słowy, technologie te mają za zadanie efektywne kosztowo przechowywanie danych, ich analizowanie oraz wydobywanie najbardziej wartościowych informacji. Wykorzystując Big Data, korelować będziemy dane z systemów zajmujących się ich gromadzeniem (ERP, CRM)
i przetwarzaniem (BI) z sygnałami płynącymi w czasie rzeczywistym
z otoczenia biznesowego, wskaźników makroekonomicznych, trendów konsumenckich m.in. w social media.
Jedną z kluczowych technologii, pozwalających na zarządzanie i analizę dużych ilości danych w bardzo krótkim czasie jest technologia in-memory, która jest jednocześnie jednym z najważniejszych elementów generacji Big Data. Dzięki in-memory, dane nie są przechowywane na dyskach twardych,
a bezpośrednio w pamięci urządzenia, co sprawia, że znacznie skraca się czas potrzebny na dostęp do niezbędnych informacji. Co więcej, możliwości wykorzystania tej technologii znacząco wykraczają poza przyspieszenie procesów biznesowych. Przedsiębiorstwa postrzegają technologię in-memory,
jako pionierską możliwość tworzenia złożonych analiz, które mogą stanowić podstawę dla opracowywania nowych produktów i usług. Ponad połowa respondentów (56 proc.) wskazuje, że wdrożenie technologii in-memory odgrywa kluczową rolę w aktualnej strategii zarządzania dużymi zasobami danych. 48 proc. badanych postrzega technologię in-memory, jako możliwość optymalizacji procesów biznesowych, zaś 47 proc. widzi w niej potencjał
do zwiększenia efektywności pracy.
– Badanie pokazało, że kwestia Big Data zyskuje na znaczeniu. Oprócz wykorzystywania jej w celu analizy dużych ilości danych, generacja technologii tej klasy usprawnia również pracę i procesy biznesowe w firmie – mówi Maciej Plebański, Dyrektor Działu Sprzedaży w T-Systems. – Widzimy ogromny potencjał w zakresie innowacji w tej dziedzinie, co jest niezbędne
do tworzenia nowych segmentów biznesowych i aplikacji – dodaje Maciej Plebański z T-Systems.
Ponadto, według badania, 90 proc. respondentów korzystających z in-memory ocenia tę technologię dobrze lub bardzo dobrze. 36 proc. respondentów stwierdziło, że aplikacje in-memory są najchętniej wykorzystywane
w obszarach o krytycznym znaczeniu z perspektywy firmy. Około połowa badanych w Niemczech powiedziała, że przy wdrożeniu rozwiązań Big Data skorzystałaby ze wsparcia zewnętrznych dostawców takich, jak T-Systems.
– Rolą profesjonalnych firm teleinformatycznych jest nie tylko pokazanie możliwości, ale również wartości płynącej z Big Data. Firma T-Systems
już w latach 2010-2011 realizowała największe globalne projekty integracji danych w niemal dziewięćdziesięciu data center przygotowanych do technologii Big Data. Obecnie analogiczne rozwiązania możemy również zaoferować Klientom w Polsce za pośrednictwem naszego nowo otwartego data center
w Katowicach – mówi Krzysztof Łapiński, Kierownik ds. Klientów Kluczowych
w T-Systems.
Obecnie największe wyzwania w opracowaniu skutecznych strategii zarządzania danymi są związane z: liczbą i stopniem skomplikowania oprogramowania, dynamicznie rosnącymi kosztami (total cost of ownership) oraz stale zwiększającą się liczbą danych.
Niemal 1/3 badanych menedżerów ICT już wygospodarowała odpowiednie budżety na wdrożenie technologii in-memory w zarządzanych przez nich firmach. 29 proc. oszacowało budżety na ten cel na poziomie ponad
1 mln EUR. Ponad 23 proc. firm aktualnie opracowuje możliwość włączenia technologii in-memory w ich strategię IT, przy czym 21 proc. już pracuje
nad konkretnymi wdrożeniami.
W porównaniu do zachodnich konkurentów, wśród polskich przedsiębiorców jest jeszcze niewielka świadomość rozwiązań Big Data.
– Polski rynek reaguje z 2-3 letnim opóźnieniem, jednak od wykorzystywania technologii Big Data nie będzie odwrotu. Obecnie, znaczna część polskich przedsiębiorstw nadal nie zdecydowała się na przeniesienie swoich danych
do data center. Około 90 proc. top managementu jest przekonana,
że informacja stanowi element przewagi rynkowej, jednak tylko 10 proc. potrafi oszacować wartość informacji – tłumaczy Krzysztof Łapiński z T-Systems.
Badanie zrealizowane przez TNS Infratest i T-Systems wyłoniło również najbardziej popularne aplikacje z zakresu Big Data. Jak wynika z badania,
do najbardziej znanych na skalę międzynarodową aplikacji in-memory należą: Microsoft SQL Server 2012 (67 proc.), SAP HANA (63 proc.) i IBM Solid DB (33 proc.). To oznacza, że aplikacji SAP HANA udało się uzyskać wysoki poziom rozpoznawalności zaledwie w ciągu roku po wprowadzeniu jej na rynek. Łącznie 19 proc. respondentów prognozuje, że SAP HANA stanie się standardową bazą danych w środowisku SAP.
Pełne badanie „Quo vadis Big Data” jest dostępne na stronie:
www.t-systems.com/bigdata
Słowa kluczowe: badanie, Big Data, Krzysztof Łapiński, t-mobile, T-Systems