fbpx

Co raz więcej danych jest wykorzystywanych przez firmy na potrzeby zwiększenia konkurencyjności na rynku. Jeszcze kilka lat temu te same dane były tylko gromadzone dla samego faktu gromadzenia. Rynek zasiał buzzword w stylu „robimy big data” a serwery robiły puste przebiegi. Na szczęście organizacje dojrzewają do decyzji związanej z wykorzystaniem zgromadzonych danych. Jaki trendy w obszarze big data na 2020?

Z roku na rok poziom innowacyjności i zaawansowania zaskakuje rynek, szczególnie ww. obszarze. W tym wpisie zapoznasz się z kilkoma wybranymi przeze mnie, których wzrasta znaczenie. Możesz również posłuchać wersji audio.

Jakie trendy w obszarze danych w 2020?

Narzędzia BI staną się popularniejsze

Przede wszystkim wśród nowej generacji młodych ludzi, którzy zadają wiele pytań, a jednocześnie chcą uzyskiwać szybkie odpowiedzi. W rezultacie popularność narzędzi Business Intelligence wrasta nie tylko w obszarze wyższego managementu, ale również na innych szczeblach, np. działu marketingu. To powoduje, że udział narzędzi tej klasy będzie rósł.

Kubernetes do wszystkiego

Już jakiś czas temu Kubernetes prześcignął Dockera i widać wyraźne zainteresowanie technologiami związanymi z kontenerami. Samo zagadnienie kontenerów opartym Kubernetesa ma o wiele szersze spectrum popularności. Raczej nie ma co traktować tego jako chwilowy trend (na 2020). Sam Kubernetes ma swoje niedociągnięcia, ale  jego popularność wśród technologii powiązanych z danymi, na pewno będzie skłaniać różne organizacje lub firmy do rozwoju tego rozwiązania.

Wzrost znaczenia DaaS

Data-as-a-service (DaaS) to analityka danych świadczona jako usługa IT. Korzysta z niej już co raz więcej firm. Odnosi się ona do przetwarzania w chmurze, generowania tych danych, przechowywania, w celu ich późniejszego wykorzystania w biznesie. Z takich usług korzystają firmy, które potrzebują unikatowych danych o wysokiej rozdzielczości. W branży e-commerce monitorowanie zmian cen tysięcy produktów u konkurencji może być problematyczne. Z pomocą przychodzą firmy, które oferują właśnie rozwiązania w ramach usługi DaaS. 

Dalsze popularyzacja Apache Arrow

Dla tych, którzy nie znają tego projektu kilka słów wstępu. Główny cel polega na zwiększeniu wydajności aplikacji służących do przetwarzania dużych zbiorów danych. Apache Arrow jest czymś na zasadzie między platformowej warstwy danych, która służy do analityki in-memory. Projekt, który jest współtworzony przez firmę Dremio odnotowuje bardzo duże zainteresowanie projektem. 

Cyberbezpieczeństwo i Big Data

Ogromne ilości danych to również duże wyzwanie dla infrastruktury i samego bezpieczeństwa danych. Wycieki danych są na porządku dziennym, a raczej powinno być odwrotnie. Między 2014-2018 wyciek danych w sieci hotelowej Marriott dotyczył 500 milionów kont. Jest oczywiście wiele przykładów, ale co istotne firmy kładą co raz większy nacisk na bezpieczeństwo samych danych.

Wzrost implementacji rozwiązań opartych na ML/AI

2019 był przełomowym jeżeli chodzi o ilość inicjatyw komercyjnych związanych z uczeniem maszynowym i sztuczną inteligencją. Do tej pory niektóre firmy mylnie używały określenia AI albo ML w kontekście wdrożeń lub narzędzi, które proponowały. Był to najczęściej wykorzystywany buzzword w kontekście narzędzi, które miały w nazwie AI, ale nie miały z nim nic wspólnego. Przykładowa usługa chatbota. W wielu sytuacjach nie było tam żadnego uczenia maszynowego czy sztucznej inteligencji a zwykłe przepływy. Natomiast ten rok i następny na pewno będą przełomowe pod tym kątem, że rynek dojrzeje, a firmy tworzące rozwiązania w oparciu o te algorytmy będą zyskiwać na znaczeniu.

Przetwarzanie in-memory

Innym trendem, który również będzie widoczny w obszarze Big Data jest przetwarzanie danych in-memory. Z racji tego, iż w ostatnich latach ceny pamięci RAM mocno spadły takie rozwiązanie bardzo zyskuje na popularności. 

Rozszerzona analityka

Połączone elementy sztucznej inteligencji oraz technik uczenia maszynowego  pozwoli na stworzenie, rozwój i konsumpcję nowego rodzaju analityki. Napędzającym ogniwem w temacie rozszerzonej analityki jest rosnące zapotrzebowanie na wolumen danych biznesowych oraz gromadzenie kluczowych informacji w oparciu o dane klientów. W 2018 roku wydatki na rozszerzoną analitykę kształtowały się na poziomi 8,4 mld $ a do roku 2023 mają już osiągać 18,4 mld $.
Korzyścią przemawiającą za rozszerzoną analityką jest możliwość automatyzacji wielu funkcji analitycznych, takich jak przygotowanie, analiza i budowanie modeli w oparciu o dostarczone dane.

Trendy w obszarze big data będą zmieniać się z roku na rok. Warto mieć na uwadze wybrane zagadnienia, ponieważ widać tendencję dalsze utrzymania wzrostu zainteresowania technologiami, jak np. Apache Arrow.

Author