Big Data – Duża szansa?

By Weronika Skotnicka

Czy dane finansowe można wizualizować? Analiza wizualna i KPI finansowe w Tableau

Często spotykam się z klientami, którzy postanowili rozpocząć swoją przygodę z rozwiązaniami Business Intelligence. W przypadku danych sprzedażowych nikt nie ma wątpliwości, że można je prezentować wizualnie. Jednak dość powszechna jest opinia, że dane finansowe można przedstawiać wyłącznie w postaci tabel. Wynika to z faktu, że często w tego rodzaju danych porównujemy wskaźniki w czasie, zestawiamy je z innymi wskaźnikami i badamy ich udziały. Czy rzeczywiście tak jest?

Przyjrzyjmy się przez chwilę, w jaki sposób dokonujemy wyborów w życiu codziennym. Jeśli popatrzymy na prostą decyzję, jaką jest przejście przez ulicę, używamy naszego wzroku. Oceniamy odległości, szacujemy prędkości pojazdów, porównujemy do naszej prędkości, możliwości etc. Finalnie w ciągu sekund wybieramy właściwy moment i... przechodzimy. A teraz wyobraźmy sobie podjęcie takiej decyzji, gdybyśmy dostali liczby. Analiza danych i podjęcie decyzji zajęłyby nieporównywalnie więcej czasu. Używamy więc naszego wzroku, aby najszybciej uzyskać i przetworzyć otaczające nas informacje. Dlaczego więc nie korzystamy z tej przewagi w biznesie? Szczególnie w finansach?

Excel jest natomiast bardzo dobry w tworzeniu tabel z liczbami. Z tego właśnie powodu raportowanie w postaci tabel jest najczęściej spotykane, szczególnie w przypadku danych finansowych. W tym szczególnym przypadku porównujemy bardzo wiele wartości, w czasie i w relacji do innych. Sprawdzamy, jakie relacje zachodzą między poszczególnymi elementami. Stąd suma naszych nawyków, narzędzi i potrzeb spowodowała, że finansowe dane są analizowane w tabelach. Czy faktycznie jest tak, jak się wydaje?

Jako przyczynę często podaje się jedno z głównych narzędzi kalkulacyjnych – Excel. Zdominował on rynek aplikacji służących do obliczeń. Tym samym, również z racji powszechnego dostępu do Excela, łatwości jego użycia oraz relatywnie niskiej ceny, zaczął być używany zarówno jako baza danych (a aplikacja ta ma spore ograniczenia w tym zakresie), jak również jako narzędzie do wizualizacji danych. W tym przypadku ma ograniczenia nie tylko w funkcjonalnościach w porównaniu do narzędzi przeznaczonych do wizualizacji danych, jak np. Tableau, ale również prezentuje niewłaściwe typy wizualizacji, takie jak wykresy 3D czy pasiaste wzory na słupkach (Rysunek 1).

Przez chwilę pomyślmy, skąd powszechna opinia o wyższości danych numerycznych nad wizualizacją, szczególnie często spotykana w przypadku danych finansowych.

Jeśli spojrzymy na dane finansowe w porównaniu do danych sprzedażowych, czy jakichkolwiek innych, okazuje się, że właściwie niewiele się od siebie różnią. Oczywiście nie co do stopnia komplikacji czy specyfiki. Jednakże wciąż możemy pokazywać miary, porównywać je w czasie czy do innych miar. To oznacza, że każde dane możemy wizualizować, tylko niektóre trudniej wyliczyć.

W przypadku danych finansowych szczególnie ważna jest możliwość pokazania wielu wskaźników obok siebie, jednocześnie z informacją o tym, jak dany KPI zmienia się w czasie czy też jak możemy go porównać do innych wartości. Ta opinia wynika najczęściej z faktu, że dane finansowe na ogół prezentowane są w postaci arkuszy z danymi, w podziale na kategorie. Nawyk wywołany przez czytanie tego rodzaju raportu powoduje, że osoby zajmujące się danymi nie widzą możliwości zastosowania analizy wizualnej do prezentacji danych finansowych.

Tymczasem, jeśli popatrzymy na dane, nie różnią się one specjalnie od innych. Oczywiście dane dotyczą głownie finansów, ale to nadal liczby. KPI’s nadal są liczone według określonych wzorów, mogą być więc pokazywane w taki sam sposób jak jakiekolwiek inne wskaźniki.

Powyższa konkluzja oznacza, że nic nie stoi na przeszkodzie, aby użyć narzędzi do wizualizacji w celu oszczędzenia czasu i przyspieszenia analizy danych.

Tableau jako narzędzie do wizualizacji danych. Każdych danych!

Kluczem do wyboru narzędzia do analizy wizualnej jest dobór odpowiedniego rozwiązania. Tableau, aplikacja służąca do analizy wizualnej, ma nie tylko narzędzia odpowiednie do przygotowania warstwy wizualnej analizy, ale również łatwość użycia tych funkcjonalności przez biznesowego użytkownika.

Dzięki doborowi właściwego narzędzia nie tylko oszczędzamy czas podczas tworzenia wizualnego dashboardu, ale również podczas analizy danych.

Przewagą Tableau jest użycie technologii drag & drop, która pozwala na intuicyjną pracę, począwszy od zbudowania modelu danych, przez uporządkowanie wymiarów i miar, aż po stworzenie warstwy wizualnej raportu. Dzięki takiemu podejściu możemy w krótkim czasie uzyskać analizy, które mogą być później również udostępniane całej organizacji za pomocą Tableau Server.

Tableau daje nam również możliwość kreatywnego podejścia do wizualizowania danych poprzez możliwość użycia podstawowych typów wizualizacji i ich modyfikacji. Możemy je wywołać jednym kliknięciem poprzez unikatową funkcjonalność ShowMe (Rysunek 2).

Po najechaniu na konkretną wizualizację otrzymujemy również informację, jakich elementów potrzebujemy, aby otrzymać dany jej typ (Rysunek 3).

Możemy wybrać wymiary i miary za pomocą klawisza CTRL (wybór wielokrotny), a następnie wybrać typ wizualizacji (Rysunek 4).

A następnie należy wybrać typ wizualizacji, klikając ikonkę w liście ShowMe, co widać na Rysunku 5.

Pigułki z panelu danych zostały automatycznie umieszczone na odpowiednich półkach. Użytkownik ma jednakże wciąż możliwość modyfikacji widoku poprzez przenoszenie, dodawanie pigułek, jak również formatowanie widoku przy użyciu półek w Marks Card (Rysunek 6).

Ta intuicyjna i szybka praca w Tableau powoduje, że w wygodny i optymalny sposób możemy stworzyć widoki analityczne, które ułatwiają pracę z danymi.

Podsumowując, wybór narzędzia, które pozwoli nam szybciej analizować dane, jest kluczowy, przede wszystkim, kiedy mówimy o wciąż rosnącej ich liczbie, szczególnie w przypadku danych finansowych.

Prezentacja finansowych KPI’s

Kiedy mówimy o danych finansowych, posługujemy się określoną specyfiką, wynikającą z metod i procesów związanych z finansami. Jednakże możemy podzielić te KPI’s na kilka grup, a następnie dobrać do nich określony sposób wizualizacji.

Popatrzmy przez chwilę na dane giełdowe. Rozwój aplikacji mobilnych spowodował powszechne użycie aplikacji do monitorowania danych finansowych na giełdach światowych. Bardzo dużo danych, wiele spółek, możliwość analizy trendów. To wszystko w postaci aplikacji mobilnej jest o wiele prostsze do analizy niż tabele tekstowe. Zadziwiające, że kilka wielkich monitorów może nie wystarczyć, a aplikacja na niewielkim smartfonie, używająca prostych narzędzi wizualnych, da nam potrzebne informacje szybciej i wygodniej (Rysunki 7a, 7b, 7c, 7d).

Ten prosty przykład daje nam wyobrażenie, jak możemy wizualizować dane finansowe, zamiast przedstawiać je w postaci danych tabelarycznych (Rysunek 8).

Aby móc użyć Tableau w celu prezentacji KPI’s finansowych, musimy więc stworzyć formuły (kalkulacje), które wykonujemy za pomocą opcji Calculated Field (Rysunek 9).

Przy pracy z kalkulacjami możemy operować dowolnymi formułami dostępnymi w Tableau. Po stworzeniu kalkulacji możemy już zacząć prezentować wyniki w formie wizualnej.

Dobór odpowiedniej wizualizacji

Bardzo ważnym aspektem projektowania wizualizacji jest dobór odpowiedniego jej rodzaju. W zależności od typu danych i sposobu ich prezentacji możemy wybrać wizualizację z kilku typów.

W celu porównywania różnych danych między sobą najlepiej użyć wykresów słupkowych, poziomych lub pionowych. Pionowe pozwalają dodatkowo lepiej zobaczyć ranking wartości (Rysunek 10).

Bardzo dobrze działa też mapa obszarowa, na której możemy oznaczyć kolorami wielkości danej miary i porównywać wyniki w regionach (Rysunek 11).

Wreszcie, do porównywania celu z wykonaniem świetnie może posłużyć wykres typu Bullet Graph, używający linii referencyjnej i wykresów słupkowych (Rysunek 12).

Porównując w postaci proporcji i udziałów, możemy użyć np. pie charts lub ich specyficznej odmiany, czyli donut charts (Rysunek 13).

Dobrym przykładem jest też bubble chart, gdzie możemy jednocześnie pokazać aż trzy miary (Rysunek 14).

Efektywny sposób pokazania udziałów do całości zapewni poziomy wykres słupkowy, gdzie udziały posortowane są malejąco według udziałów.

W celu pokazania relacji między kategoriami lub miarami możemy użyć wizualizacji typu scatter plot (Rysunek 15).

W tym typie wizualizacji można jednocześnie analizować wiele obiektów, np. klientów, patrząc na dwa KPI umieszczone na osi pionowej i poziomej, dzięki czemu łatwo zobaczymy trendy, ­zidentyfikujemy outliery i to nimi zajmiemy się w pierwszej kolejności.

Doskonałym sposobem na porównywanie przecięcia kategorii – np. segmentu i regionu – będzie heat map, czyli wizualizacja używająca kolorów do określenia punktów nas interesujących – hot spotów (Rysunek 16).

Ostatni z podstawowych typów porównań to porównanie danych w czasie. W takim przypadku możemy użyć wykresów liniowych, obszarowych, słupkowych czy kalendarzy (Rysunki 17a, 17b, 17c).

Sposób doboru typów wizualizacji jest kluczowy w procesie projektowania efektywnej analizy, dlatego warto poświęcić temu więcej czasu. Tableau pozwala na testowanie różnych typów za pomocą kilku kliknięć myszą, co oszczędza czas podczas tego etapu procesu przygotowywania analiz.

Jak użyć Tableau w celu pokazania KPI?

W ostatniej części artykułu postaram się pokazać, jak w prosty sposób możemy skonstruować widok pokazujący wartość KPI i jego porównanie w czasie. Za przykład posłuży nam podsumowanie KPI w postaci Tile, czyli płytki.

Tile to inaczej płytka pokazująca wartość KPI razem ze zmianą w porównaniu do poprzedniego okresu. Układ wielu płytek obok siebie jest bardzo łatwy do stworzenia w Tableau. Tworzymy płytkę jako Worksheet, a następnie na dashboardzie układamy je obok siebie (Rysunek 18).

Duże liczby pokazują wartość KPI, małą czcionką po prawej stronie pokazujemy wzrost/spadek procentowy w porównaniu do poprzedniego okresu. Dodatkowo kolorowe trójkąty pokazują spadki/wzrosty. Na górze płytki mamy informację o czasie oraz nazwie pokazywanego wskaźnika.

Jak to zrobić?

Krok 1 – ustawienie elementów podstawowych

Ustawiamy wskaźniki (pole Type) i daty (Start Date) w kolumnach. Dodatkowo filtrujemy widok dla miesiąca daty, aby filtr pokazywał miesiąc bieżący i poprzedni (Rysunek 19).

Następnie musimy ukryć miesiąc poprzedni, używając opcji Hide w menu pigułki. To pozwoli na użycie kalkulacji tablicowej przy pokazywaniu tylko bieżącego miesiąca.

Krok 2 – typ wykresu

W półce Marks Card wybieramy opcję Shape, dzięki czemu będziemy mogli uzyskać efekt strzałki w górę/dół i dodania wartości miar (Rysunek 20).

Krok 3 – Kalkulacje dodatkowe

W trzecim kroku dodamy kalkulację tablicową, liczącą różnicę okres do okresu oraz dodatkowe kalkulacje oznaczające wzrost/spadek wskaźnika. Kalkulacja Difference pozwala na wyliczenie wzrostów i spadków. W bazie danych liczymy liczbę rekordów, ale może to być jakakolwiek inna miara (Rysunek 21).

Kolejne kalkulacje pozwalają dodać inne kształty i kolory przy wzroście/spadku miary (Rysunki 22 i 23).

W kolejnym kroku wstawiamy do Marks Card miary i wskaźniki. Tile jest specyficzną formą wizualizacji, bo używa tekstu/labelki jako jednej warstwy, a kształtu jako drugiej (Rysunek 24).

Następnie formatujemy labelkę, edytując półkę Label (Rysunek 25).

Dzięki temu mamy już warstwę tekstową labelki. Pole Difference dodajemy do półki Shape i Color – następnie wybieramy odpowiednie kształty i kolory, klikając na odpowiednie półki. Chowamy również nagłówki (Show Header) dla wymiarów dodanych w kolumnach. Następnie formatujemy wielkość okienka, przesuwając odpowiednio linie graniczne lub używając opcji Fit:Entire View.

Podsumowanie

W naszej pracy, ale nie tylko, analizujemy coraz więcej danych. Jeśli chcemy oszczędzić czas i szybciej otrzymywać odpowiedzi na biznesowe pytania, musimy użyć naszego największego atutu – wzroku. Analiza wizualna pozwoli nam na szybkie uzyskanie informacji. Należy tylko wybrać odpowiednie, efektywne narzędzie oraz zacząć zmieniać swoje nawyki. Dane finansowe to wciąż dane. Jak każde inne.

Szkoła Doktorska UPWr: prof. Szyda i analiza bioinformatyczna

Prof. Joanna Szyda z Katedry Genetyki na Wydziale Biologii i Hodowli Zwierząt w swoich badaniach łączy genetykę, analizę statystyczną i matematykę. Jak tłumaczy, dzisiejsza genetyka to już nie są legendarne groszki Pana Mendla, na przykładzie których uczy się w szkole dziedziczenia cech.

– Nasza wiedza sięga coraz głębiej, ale to oznacza, że potrzebujemy też narzędzi, które pozwolą nam zdobywane dane grupować, analizować i wyciągać z nich wnioski. Tymi narzędziami są statystyka matematyczna właśnie i informatyka, bo trudno sobie wyobrazić współczesne badania genetyczne, przy coraz większej precyzji, bez oprogramowania pozwalającego uzyskiwane dane analizować. Nie da się tego robić „ręcznie”, na papierze, czy mówiąc kolokwialnie, „na piechotę”, tym bardziej, że obecne dane biologiczne to często dane wielkoskalowe, wpisujące się do modnej kategorii big data czy data minig – tłumaczy prof. Joanna Szyda.

Jak podkreśla wiceprzewodnicząca Rady Dyscypliny Zootechnika i Rybactwo, Szkoła Doktorska na Uniwersytecie Przyrodniczym we Wrocławiu to miejsce, gdzie młodzi naukowcy szukający wyzwań, mogą się realizować w dobrych zespołach badawczych.

Prof. Joanna Szyda: – Nasza Szkoła Doktorska czeka

fot. Tomasz Lewandowski

– Nasza Szkoła Doktorska jest otwarta na ludzi ambitnych. Ale też daje wiele możliwości – podkreśla prof. Szyda.

Jednym z tych ambitnych jest Krzysztof Kotlarz, laureat pierwszej edycji grantu Narodowego Centrum Nauki „Preludium Bis”. Doktorant Szkoły Doktorskiej UPWr jest jednocześnie studentem pierwszego roku studiów magisterskich, ponieważ takie możliwości daje grant „Preludium Bis”. Jego praca doktorska polega na zastosowaniu metod sztucznej inteligencji do analizy danych wielkoskalowych – czyli właśnie big data – w kontekście analizy genetycznej populacji bydła. Pierwsza część projektu polega na zastosowaniu metod głębokiego uczenia (ang. Deep learning) do stworzenia klasyfikatora poprawnie i niepoprawnie zidentyfikowanych polimorfizmów na podstawie danych o całych sekwencjach DNA genomu, tzw. DNAseq. Druga część analizy dotyczy klasyfikacji krów, jako podatnych i opornych na zapalenie wymienia na podstawie genotypów polimorfizmów również uzyskanych z sekwencji całych genomów. Ostatni etap pracy to stworzenie klasyfikatora ras bydła – też na podstawie danych o genomowej sekwencji DNA.

Jeden z realizowanych w Szkole Doktorskiej grantów dotyczy analizy genetycznej populacji bydła

fot. Shutterstock

– Pan Krzysztof zajmuje się też analizą innych danych wielkoskalowych. To dodatkowy projekt. Wykorzystujemy klasyczne narzędzie biostatystyki – liniowe modele mieszane (ang. Linear mixed models) do obliczenia efektów genów, których ekspresja zmienia się w warunkach stresu cieplnego. Projekt ten wykorzystuje inny rodzaj biologicznych danych wielkoskalowych – ekspresję całego egzomu, tzw. RNAseq szczurów, jako gatunku modelowego – tłumaczy prof. Joanna Szyda.

Aktualnie Szkoła Doktorska, w której wiceprzewodnicząca Rady Dyscypliny Zootechnika i Rybactwo jest jednym z promotorów, zgłosiła projekt doktoratu pt. „Analiza mikrobiomu gleby na terenach zanieczyszczonych przemysłowo", czyli porównanie składu gatunkowego oraz ilościowego mikrobiomów glebowych.

– Analiza obejmie gleby z terenów poprzemysłowych, np. hut miedzi Legnica i Głogów oraz odpowiadających im pod względem charakterystyki morfologicznej i typu użytkowania, gleb z terenów nie objętych działalnością przemysłową hut, służących za grupę kontrolną – mówi prof. Joanna Szyda i od razu wyjaśnia, że w zależności od możliwości finansowych projektu, planowane jest pozyskanie sekwencji regionów genu kodującego podjednostkę 16S rybosomu lub sekwencji całych genomów mikroorganizmów glebowych z technologii shot-gun.

Szkoła Doktorska UPWr zgłosiła też projekt doktoratu „Analiza mikrobiomu gleby na terenach zanieczyszczonych przemysłowo"

fot. Shutterstock

Praca w tym projekcie realizowanym w dziedzinie nauk biologicznych to m.in. analiza bioinformatyczna DNA reprezentujących mikrobiom próbek gleby i analiza statystyczna danych.

Natomiast w dziedzinie nauk rolniczych Szkoła Doktorska czeka na kandydata, wraz z którym będzie rozwijać najnowszą metodykę statystyczną przewidywania wartości genetycznej buhajów. Do tego celu posłuży tzw. model jednostopniowy, wykorzystujący wszystkie dostępne źródła informacji, jakimi są wydajności osobników oraz ich genotypy.

– Jak więc widać, nauki rolnicze to dzisiaj również znajomość statystyki matematycznej, umiejętność pracy z różnorodnym oprogramowaniem rozwijanym w trybie open-source oraz jego instalacji czy tworzenia własnych programów w języku Python oraz R. Szkoła Doktorska na Uniwersytecie Przyrodniczym daje możliwość ich rozwijania, ale też stwarza szanse na pracę w międzynarodowych zespołach badawczych – podkreśla prof. Joanna Szyda i dodaje, że dzięki pracy genetyków i wykorzystywanych przez nich narzędzi informatycznych zwierzęta zdradzają naukowcom coraz więcej tajemnic. Dzieje się tak również dzięki pracom doktorskim realizowanym na Uniwersytecie Przyrodniczym we Wrocławiu.

kbk

Big Data – Duża szansa?

Z terminem Big Data spotykamy się coraz częściej, powoli zaczyna do nas docierać z każdej strony. W znacznej mierze to powszechność i stale rosnąca popularność Internetu sprawiła, że o Big Data zrobiło się głośno. Wszędzie tam gdzie ma miejsce przetwarzanie dużych zbiorów danych można mówić o Big Data. Big Data można odnaleźć w tak wielu dziedzinach, sytuacjach i kontekstach, że z pewnością warto zwrócić uwagę i poznać bliżej to określenie. Biorąc pod uwagę to, w jak wielu miejscach korzysta się z Big Data, nasuwa się oczywisty wniosek, że dane tego typu mają w sobie ogromny potencjał. Jednak czy rzeczywiście jest to wielka szansa? Jeśli tak, to kto może zyskać? Jak działają Big Data i jak z nich korzystać, aby faktycznie były przydatne?

Jak to działa?

Big Data to termin, którym określane są ogromne zbiory danych. Dane te charakteryzują się dużą różnorodnością i zmiennością. Są to tak duże zbiory, że ich przetwarzanie najprostszymi metodami jest po prostu niemożliwe. Do tego celu stworzone zostały specjalnie dedykowane programy i rozwiązania technologiczne, które pozwalają na efektywne przetwarzanie dużych zbiorów danych. Przetwarzanie danych polega głównie na zasadach porównywania zbiorów danych i szukania czegoś co je łączy, jakiejś korelacji, która pozwala stwierdzić, że następuje pewna zależność pomiędzy analizowanymi danymi, a właściwie zjawiskami których dotyczą.

Sensem Big Data nie jest samo w sobie gromadzenie danych. Najważniejsza w tym wszystkim jest ocena i selekcja zgromadzonych informacji i poddanie ich analizom, a w konsekwencji wyciągnięcie wniosków. Analiza zbiorów danych pozwala znaleźć zależności, jednak dopiero wyciągnięcie właściwych wniosków i ich weryfikacja tworzy cały potencjał Big Data.

Skąd dane w Big Data?

Wiadomo już, że Big Data to ogromne zbiory danych, ale skąd właściwie pochodzą te dane? Wśród wielu osób, które nie są bliżej związane z analizą danych, termin ten wzbudza czasami niechęć i podejrzliwość. Pojawiają się pytania dotyczące pochodzenia danych i ich źródeł. To co należy podkreślić to fakt, że dane wchodzące w skład Big Data pozyskiwane są w sposób legalny i zgodny z prawem. Zatem skąd pochodzą? Najogólniej – z różnych źródeł. W większości to my sami dostarczamy tych danych korzystając z Internetu czy aplikacji zainstalowanych w naszych smartfonach. Generalnie zbieranie danych powiązane jest z usługami, z których korzystamy na co dzień, a wyrażenie zgody na gromadzenie i przetwarzanie tych danych najczęściej odbywa się w momencie akceptacji regulaminu świadczenia usług. Często sami udzielamy dostępu do naszych danych np. w momencie instalacji różnych aplikacji w telefonie. Ogromnym źródłem informacji na nasz temat są portale społecznościowe, a przecież korzystamy z nich chętnie i dobrowolnie. I chociaż nie są to dane łatwe w analizie to są zawierają bogactwo informacji na temat nas, naszych zainteresowań i potrzeb. Właściwa analiza takich danych i słusznie wyciągnięte wnioski to prawdziwa skarbnica wiedzy.

Co można zyskać?

Obecnie Big Data, a właściwie wyniki analiz zebranych danych, wykorzystywane są niemal w każdym sektorze gospodarki. Wszędzie tam, gdzie gromadzi się dane można je później opracować, wyciągnąć wnioski i wykorzystać do wprowadzenia ulepszeń. Big Data znalazło już swoje miejsce w ochronie zdrowia, instytucjach publicznych, edukacji, szeroko pojętej produkcji czy też sektorze zajmującym się handlem i usługami. Efekty wykorzystania wyników analiz w tej ostatniej dziedzinie są dla nas widoczne chyba najczęściej. Big Data pomaga firmom w tworzeniu profili konsumentów, daje im możliwość poznania ich preferencji i oczekiwań. To na podstawie naszych zachowań w sieci, takich jak np. wpisywanie haseł w wyszukiwarki, wyświetlane są nam później reklamy na określony temat, a sklepy internetowe przygotowują dla nas ofertę. Wszystko to dzięki analizie zebranych danych. Taka personalizacja ofert skierowanych do konsumentów może przynieść przedsiębiorcom wiele korzyści – proponują nam dokładnie to, czego szukamy. Jednak, aby przygotować ofertę skrojoną pod konsumenta i faktycznie dla niego odpowiednią konieczne jest wykorzystanie Big Data.

Big Data coraz śmielej wkracza w nasze życie. Dla przedsiębiorców idących z duchem czasu wręcz koniecznością wydaje się wykorzystywanie potencjału Big Data. Obecnie tworząc np. sklep internetowy należy mocno rozważyć to jak wiele korzyści może przynieść gromadzenie i analiza zbiorów danych, ponieważ teraz działania marketingowe w głównej mierze opierają się na personalizacji przekazu.