czwartek, 28 grudnia 2017

Tworzenie dashboardów w Tableau - 13 najważniejszych zasad

W tym artykule chciałbym podzielić się z Wami moją subiektywną listą 13 najważniejszych zasad, które musicie wziąć pod uwagę podczas tworzenia dashboardów w Tableau. Owe 13 przykazań jest oparte na obecnych best practices stosowanych w branży i z pewnością warto się z nimi zapoznać niezależnie od tego czy właśnie pracujesz nad dużym komercyjnym projektem, czy też stawiasz dopiero pierwsze kroki w świecie Tableau i szukasz po prostu wskazówek odnośnie obecnych standardów w tworzeniu współczesnych raportów.


  1. Pomyśl o swoich odbiorcach na etapie planowania - nigdy nie zaczynaj procesu tworzenia raportu bez wcześniejszego zdefiniowania docelowej grupy odbiorców (top management, dyrektorzy operacyjni, analitycy finansowi, itp.) oraz ich potrzeb. Idealnym rozwiązaniem byłoby poznanie konkretnych pytań, na jakie Twój dashboard będzie musiał odpowiedzieć. Jeżeli to niemożliwe, zbierz jak najwięcej wytycznych, aby dostosować kontent do potrzeb swoich głównych odbiorców. Pamiętaj, że w praktyce mogą to być grupy o zupełnie innych oczekiwaniach - warto zastanowić się nad tym jeszcze na etapie planowania (szkice koncepcyjne, diagramy use case).
  2. Dobierz adekwatną rozdzelczość dashboardu - jak najszybciej rozpoznaj dominującą platformę, z której będą korzystać twoi userzy i wykorzystaj odpowiednią rozdzielczość ekranu zapewniająca wysoki komfort pracy. W przypadku istnienia kilku wiodących platform w firmie (desktopy, laptopy, iPady i inne urządzenia mobilne) pomyśl o zdefiniowaniu kilku wersji layoutu w zależności od platformy docelowej. Unikniesz w ten sposób frustracji wielu użytkowników i oszczedzisz sobie dodatkowej pracy. Najczęściej stosowane rozdzelczości dla użytkowników desktopów u laptopów to odpowiednio 1000x800 i 800x600. Nigdy nie zakładaj, że wszyscy dysponują zewnętrzym monitorem o przekątnej min. 27'' :)
  3. Zawsze staraj się dzielić swój dashbord na 4 główne sekcje podobnej wielkości - to optymalne rozwiązanie które ułatwi korzystanie z Twojego rozwiązania mniej doświadczonym użytkowikom. Umieść najważniejsze informacje w lewym górnym rogu - w naszym zachodnim społeczeństwie naturalnym jest czytanie informacji od strony lewej do prawej przy wykorzystania charakterystycznego "zygzaka". Miej to na uwadze planując "flow" informacji wystwietlanych na dashboardzie.
    Standardowy four-pane design oraz naturalny kierunek czytania informacji
  4. Używaj dashboard actions zamiast quick filters - duża liczba dropdownów (filtrów, parametrów) potrafi znacznie spowolnić każdy dashboard - wygenerowanie takiej listy wymaga skanowania całego źródła danych przy każdorazowym uruchomieniu raportu. Dużo lepszym rozwiązaniem jest użycie istniejących wizualizacji bądź tabel danych jako naturalny filtr, który zostanie uruchomiony po kliknięciu na konkretną serię danych. To rozwiązanie dużo bardziej estetyczne niż dziesiątki filtrów renderowanych na defaultowej stronie (vide prompty ze starej szkoły BI)
  5. Zastosuj kaskadowy dashboard design - czyli zacznij od przedstawienia globalnych, zagregowanych danych w lewym górnym panelu i pozwól użytkownikowi na swobodne "drillowanie" do bardziej szczegółowych subsetów danych w kolejnych krokach (punkty 2,3,4 na powyższym rysunku). Poza zachowaniem naturalnego kierunku eksploracji danych ograniczysz również w ten sposób ilość danych wyświetlanych przy renderowaniu dashboardu, co znacznie poprawi jego wydajność (oczywiście w dużym uproszczeniu, bo temat "dashboard performance" jest nieco bardziej złożony i zależy od wielu czynników opisanych w poprzednich artykułach).
  6. Ogranicz liczbę wykorzystywanych kolorów - w praktyce najcześciej stosuję się jedną, dominującą paletę o stonowanych barwach do podkreślenia najważniejszych informacji, które powinny przykuć uwagę odbiorcy. Jeśli przesadzisz z ilością użytych barw, żadna z informacji nie bedzię się wybijać na pierwszy plan - osiągniesz w ten sposób efekt odwrotnie proporcjonalny do zamierzonego!
  7. Nie eksperymentuj z czcionkami - stosuj znane, czytelne czcionki takie jak Arial, Verdana czy Times New Roman. W tooltipach i nagłówkach możesz się pokusić o wykorzystanie czegoś mniej tradycyjnego np. bardzo ładny Trebuchet MS. Unikaj jak ognia wszystkiego, co może sprawić userowi trudności w odczytaniu najprostszego komunikatu.
  8. Nie zapomnij o dodaniu krótkiej instrukcji odnośnie korzystania z nawigacji - nie wszystkie dashbard actions są oczywiste dla przeciętnego usera. Wykorzystaj nagłówki i tooltipy do przekazania podstawowych informacji na temat zasad poruszania się po dashboardzie, celu analizy oraz znaczenia użytych metryk/ pojęć biznesowych. Twoi użytkownicy będą Ci za to bardzo wdzięczni, a ty ograniczysz w ten sposób ilość otrzymywanych pytań na temat poszczególnych funkcjonalności.
  9. Zawęź rezultaty pokazywane w crosstabach - unikaj gigantycznych tabel zawierających dziesiątki kategorii i metryk. Staraj się zawęzić kontekst analizy/ umożliwić swobodne filtrowanie, aby łatwiej odnaleźć interesujące "patterny" i trendy w zbiorze analizowanych danych.
  10. Usuń wszystkie zbędne elementy - bez zastanowienia eliminuj tzw. "non-data-ink elements", które nie wnoszą żadnej wartości dodanej do analizy a jedynie pochłaniają cenne miejsce. Dotyczy to wszystkich opcjonalnych obiektów, takich jak: tekst, linie czy zbędne formatowanie (shading, kolory). Twój dashboard będzie idealny dopiero wtedy, gdy nie będziesz już w stanie rozpoznać żadnych elementów, które jesteś w stanie usunać bez wpływu na kontekst wyświetlanych informacji.
  11. Responsywność jest podstawą dobrego UX - nikt z nas nie chcę już dzisiaj korzystać z narzędzi, które każą nam czekać więcej niż kilka sekund na wyświetlenie interesujących nas informacji. Jeśli nie jesteś w stanie osiągnąc takiego rezultatu, pomyśl nad redesignem raportu albo całkowitym przemodelowaniem danych.
  12. "Less is More" - prosta zasada, która powinna Ci przyświecać podczas pracy nad każdym dashboardem. Unikaj pokusy pokazywania wszystkich informacji na jednym widoku - skup się na tym, co najistotniejsze z perspektywy end-usera, ewentualnie podziel dashboard na kilka odrębnych stron.
  13. Tworzenie pofesjonalnych dashboardów to proces iteracyjny - nie zapominaj o tym, że nawet najlepszy deweloper nie jest w stanie dostarczyć perfekcyjnego dashboardu wyłącznie w oparciu o stos zebranych wymagań. Zazwyczaj potrzeba wielu godzin konsultacji z użytkownikiem biznesowym, aby dojść do satysfakcjonującego rozwiązania dla obu stron. Postaraj się jak najszybciej dostarczyć pierwsze techniczne demo, żeby wyznaczyć ogólny kierunek działań. Nie wahaj się zadawać dodatkowych pytań w celu doprecyzowania wymagań!
Każdy projekt ma swoją specyfikę, jednak warto pamiętać o tych 13 złotych zasadach, które pozwolą Ci oszczędzić wiele czasu, a także uniknąć frustracji ze strony potencjalnego odbiorcy. Pamiętaj, że praktyka czyni mistrza :) Korzystając z okazji chciałbym Wam życzyć samych sukcesów w nadchodzącym 2018 roku!



środa, 13 grudnia 2017

Tableau Desktop Certified Professional - nie taki diabeł straszny, jak go malują

W ubiegłym miesiącu pisałem o nowych zasadach zdawania egzaminów Tableau Qualfied Associate i Tableau Certified Professional. Było też trochę informacji o samym egzaminie Desktop 10 Certified Professional i o tym, jak się do niego przygotować. Mam nadzieję, że nikogo z Was nie zniechęciłem do spróbowania swoich sił swoim dośc krytycznym spojrzeniem na cały proces egzaminacyjny, dlatego chciałbym potwierdzić, że nie jest to walka z góry skazana na porażkę jeśli weźmiecie sobie do serca kilka rad, o których wspomniałem.

Właśnie otrzymałem wyniki mojego listopadowego egzaminu i ku mojej uciesze tym razem wszystko poszło zgodnie z planem :) Poniżej przedstawiam jak prezentuje się nowy, pozbawiony numeru wersji certyfikat Tableau Desktop Certified Professional, który zgodnie z tym co wcześniej mówiono jest ważny równe 3 lata od dnia samego egzaminu (2 lata w przypadku stopnia QA).





środa, 6 grudnia 2017

Wizualizacja danych - jakie książki warto przeczytać?

Na rynku pojawia się coraz więcej książek o tematyce wzualizacji danych i budowy dashboardów (głównie w wersji anglojęzycznej). Niektóre z tych tyułów dorobiły się już miana kultowych bestsellerów (książki autorstwa Stephena Few czy Edwarda Tufte). Cześć z nich nie wnosi kompletnie nic nowego i jest zwykłym "skokiem na kasę" w dobie popularności tematyki wizualizacji danych. W takim razie na co warto wydać nasze ciężko zarobione pieniądze?

Przedstawiam swoją subiektywną listę najciekawszych książek, jakie udało mi się do tej pory dorwać. Uwaga - na liście nie uwzględniałem pozycji stricte technicznych dotyczących samej obsługi Tableau - w tej kwestii moim numerem jeden pozostaje druga edycja książki Dana Murray'a, którą zrecenzowałem w tym artykule.

Książki, które musicie przeczytać:

  1. Show Me the Numbers: Designing Tables and Graphs to Enlighten (Stephen Few)
  2. Now You See It: Simple Visualization Techniques for Quantitative Analysis (Stephen Few)
  3. Information Dashboard Design: The Effective Visual Communication of Data (Stephen Few)
  4. Signal: Understanding What Matters in a World of Noise (Stephen Few)
  5. The Visual Display of Quantitative Information (Edward Tufte)
  6. Envisioning Information (Edward Tufte)
  7. Beautiful Evidence (Edward Tufte)
Książki, które warto przeczytać:
  1. The Functional Art: An Introduction to Information Graphics and Visualization (Alberto Cairo)
  2. The Truthful Art: Data, Charts, and Maps for Communication (Alberto Cairo)
  3. Storytelling with Data: A Data Visualization Guide for Business Professionals (Cole Nussbaumer Knaflic)

czwartek, 30 listopada 2017

Jak przygotować się do egzaminu Tableau Desktop 10 Certified Professional?

Ostatnio miałem okazję przekonać się na własnej skórze jak dużym wyzwaniem jest Tableau Desktop Certified Professional Exam i chciałbym się z Wami podzielić tą wiedzą. Zgodnie z tym co można usłyszeć od ludzi z branży/ w internecie, egzamin jest naprawdę trudny i może stanowić wyzwanie nawet dla ludzi, którzy profesjonalnie zajmują się Tableau od kilku lat i znają jego funkcjonalności "na wylot". Trudność ta nie polega jednak na samym zakresie materiału, który jest bardzo podobny do tego z QA (przynajmniej od strony wiedzy technicznej, jaką należy posiąść). Tym razem chodzi przede wszystkim o znajomość dobrych praktyk wizualizacji danych oraz umiejętność sprawnego korzystania ze wszelkich dobrodzejstw oferowanych przez Tableau do rozwiązywania realnych problemów biznesowych.

Sam egzamin trwa około 3 godziny i uwieżcie mi, że wcale nie jest to dużo czasu biorąc pod uwagę ilość zadań, jakie dostaniecie do rozwiązania. Presja czasu jest po prostu nieziemska, więc nie ma tutaj miejsca na dylematy i rozważania na temat poszczególnych wyborów - wszystko dzieje się w takim tempie, że nawet nie ma co liczyć na możliwość powrotu do pominiętych wcześniej zadań, bo im dalej w las tym więcej drzew. Do tego dochodzą jeszcze bardzo nieprzyjemne problemy ze stabilnością połączenia (egzamin zdajecie na wirtalnej maszynie w obecności opiekuna), które mogą powodować okropne lagi i ogólne problemy z działaniem Tableau. Niestety straconego w ten sposób czasu nikt Wam nie zrekompensuje. Jeśli problemy będą bardzo poważne, to oczywiście macie prawo przerwać egzamin i zażądać podejścia w innym terminie (tak było w moim przypadku). Dodam jeszcze tylko, że egzamin zdawałem na stacjonarnym PC podłączonym do sieci po kablu (nawet nie próbujcie tego robić na bezprzewodowym internecie) przy naprawdę dobrych parametrach łącza (250Mbps DL/ 20Mbps UP i latency na poziomie 40ms) 

Egzamin został podzielony na 3 moduły:
  1. Best Practices (15%) - trzy zadania polegające na zaproponowaniu alternatywnej wizualizacji danych (z uzasadnieniem)
  2. Advanced Skills (20%) - 3 problemy do rozwiązania przy pomocy zaawansowanych funkcjonalności Tableau (joiny, uniony, sety, parametry, table calculations, LoD)
  3. Storytelling (65%) - moduł polegający na utworzeniu kompleksowego dashboardu odpowiadającego na około 4 biznesowe pytania + przedstawienie spójnej historii za pomoca funkcji Story (4-6 storypoints)
Dokładna punktacja oczywiście nie jest znana, natomiast powszechnie wiadomo, że oceniający przykładaja dużą uwagę nawet do najmniejszych szczegółów związanych z formatowaniem (czcionki, tła, tooltipy, nagłówki, etc.). Jak widzicie ostatni moduł jest tutaj kluczowy i nie bezpodstawnie zaleca się poświęcenie na niego nawet 110 min. Problem w tym, że zadania w dwóch pierwszych modułach również wymagają określonego formatowania, więc czasu jest naprawdę niewiele. Tableau tłumaczy to istotą szybkiego podejmowania decyzji, jednak powiedzmy sobie szczerze - nie są to warunki, które znamy z naszej codziennej praktyki zawodowej, gdzie na rozwiązanie każdego problemu mamy zdecydowanie więcej czasu.

Jeśli dodamy do tego dosyć wygórówaną cenę (600 USD), to nasuwa się podstawowe pytanie - czy warto w ogóle próbować? Moja odpowiedź to tak, o ile naprawdę czujecie, że macie już wystarczające doświadczenie w zakresie wizualizacji danych i bez zastanowienia korzystacie ze wszystkich funkcjonalności tableau, które zostały wymienione w oficjalnym CP Exam Guide. Na pewno warto rozwiązać przykładowe zadania zamieszczone na stronie producenta żeby sprawdzić, jak sobie poradzimy z realnymi problemami przy mocno ograniczonej ilości czasu. Jeśli widzicie, że idzie Wam zbyt wolno, to polecam jeszcze poczekać i nabyć trochę więcej doświadczenia. Warto również przeczytać kilka książek traktujących o wizualizacji danych (polecam wszystkie publikacje rewelacyjnego Stephena Few), aby poszerzyć trochę swoje perspektywy i ogólną wiedzę z tego zakresu. Życzę Wam wszystkim powodzenia! Jeśli macie dodatkowe pytania związane z certyfikacją Tableau, to piszcie śmiało w komentarzach :)

środa, 29 listopada 2017

Ruszyła beta Project Maestro

Właśnie ruszyła pierwsza beta długo wyczekiwanego Projektu Maestro, czyli nowego narzędzia ETL od twórców Tableau. Wersja opatrzona numerem 0.1 prezentuje się dosyć ubogo i oferuje jedynie kilka podstawowych funkcjonalności z zakresu przetwarzania danych, które od dłuższego czasu były już dostępne w Tableau.


Wśród funkcjonalności oferowanych przez pierwszą betę znajdziecie m.in.:
  • łączenie się z plikami tekstowymi, excelami i najpopularniejszymi sytemami baz danych
  • podstawowe tranformacje takie jak joiny, uniony, agregacje, filtrowanie pól i wierszy
  • czyszczenie danych poprzez kalkulację, zmiany typu danych, splity, automatyczne parsowanie dat, zmiany nazw i zastępowanie wartości, klastrowanie metodą "rozmytego grupowania"
  • zapisywanie do formatu tableau extract
Oczywiście to dopiero początek - twórcy obiecują, że dużo więcej funkcji pojawi sie już wkrótce w ramach kolejnych faz programu beta. Póki co nie zostaje nam nic innego, niż uzbrojenie się w cierpliwość i nadzieja, że nowe narzędzie umocni pozycję Tableau w segmencie rozwiązań do przetwarzania danych.

sobota, 25 listopada 2017

Zmiany w systemie certyfikacji Tableau

W ostatnim czasie nastąpiły pewne zmiany w systemie certyfikacji o których wypada wspomnieć. Od października tego roku zniesiono system przyznawania certyfikatów dla konkretnej wersji oprogramowania Tableau Desktop/Server (v8, 9, 10 etc) - teraz będziemy otrzymywać po prostu tytuł "Qualified Associate" albo "Professional", co wydaje się bardzo sensownym podejściem biorąc pod uwagę tempo pojawiania się nowych wersji programu. Niestety w wyniku takiego zabiegu wszystkie otrzymane certyfikaty będą miały swój "termin ważności" i po pewnym czasie będziemy musieli do nich podejść ponownie.

  • Qualified Associate będzie ważny przez 2 lata
  • Certified Professional będzie ważny przez 3 lata
Historyczne tytuły mają działać bezterminowo, jednak musimy zaznaczyć, że zostały otrzymane dla konkretnej wersji. Od teraz wszystkie egzaminy będą przeprowadzane na aktualnej wersji oprogramowania. Jeśli chodzi o cenę samych egzaminów i ich formułę, to nic się nie zmienia.

Po szczegółowe informacje na temat ostatnich zmian odsyłam do tego dokumentu.

W najbliższym czasie postaram się zamieścić szczegółowy artykuł o egzaminie Tableau Desktop Certified Professional, który jest zdecydowowanie trudniejszy niż QA i potrafi sprawić problem nawet największym wyjadaczom Tableau :)

czwartek, 12 października 2017

Tableau 10.5 Beta, czyli spore zmiany na horyzoncie


Właśnie dobiega końca coroczna konferencja Tableau w Las Vegas, na której prezentowana jest między innymi kolejna wersja naszego ulubionego oprogramowania do wizualizacji danych. Wersja 10.5 niesie ze sobą szereg istotnych zmian, takich jak wsparcie Tableau Server dla systemów linuksowych (nareszcie) oraz ostateczną przesiadkę na 64 bitową architekturę (koniec wspierania wersji 32 bitowej).



Jednym z najgorętszych tematów jest na pewno Hyper, czyli nowy mechanizm typu in-memory, który wkrótce ma zastąpić wysłużony tableau data engine. Producenci przekonują, że nowy system przechowywania danych będzie pozwalał na jeszcze szybsze tworzenie i odświeżanie ekstraktów danych przy użyciu Tableau zarówno w wersji desktopowej, jak i serwerowej. Co ciekawe dostaniemy również możliwość bezproblemowego upgradowania starych ekstraktów do nowego formatu (*.hyper) za pomocą jednego kliknięcia. Po przeprowadzonej operacji oraz zapisaniu pliku w nowym formacie zmiany będą już nieodwracalne.



Oto lista pozostałych nowości w wersji 10.5:

  • możliwość wykorzystania miniatur wizualizacji w tooltipach (nice!)
  • możliwość zmiany nazwy workbooków z poziomu tableau server oraz poprawiona funkcja kompatybilności, czyli możliwość eksportu w starszej wersji bez grzebania w xml
  • więcej opcji customizacji subskrypcji
Ja osobiście najbardziej czekam jednak na możliwość przetestowania wczesnej wersji Project Maestro, czyli długo wyczekiwanego narzędzia do ETL i przygotowania danych - publiczna beta ruszy podobno jeszcze w tym roku, więc warto śledzić temat na bieżąco :)

Tableau 10.5 ma zadebiutować w ostatnim kwartale tego roku. W trakcie oczekiwania na nową wersję oprogramowania polecam zapoznać się z licznymi materiałami z Tableau Conference 2017 udostępnionymi na tej stronie. Do zobaczenia!

czwartek, 22 czerwca 2017

Rusza Tableau 10.4 Beta

Właśnie ruszył program betatestów kolejnej wersji oprogramowania Tableau. Co nowego czeka nas tym razem?

  • System rekomendacji i certyfikacji opublikowanych źródeł danych (tableau server)
  • Dashboard spacing - funkcja umożliwiająca precyzyjną kontrolę nad formatowaniem naszego dashboardu (dotyczy głównie pustych przestrzeni, tzw. "white spaces")
  • Dalsze usprawnienia w web authoringu - tym razem dodano m.in możliwość edycji osi, filtrów, aliasów i grup (kolejny krok w kierunku przeniesienia najważniejszych funkcji desktopa do wersji online)
  • Poprawa geocodingu i garść nowych konektorów (to już standard)
  • Wsteczna kompatybilność przy publikowaniu na starszą wersję tableau server (do 10.2 włącznie)
  • Zupełnie nowy system komentowania dashboardów (z poprzedniego chyba nikt nie korzystał)
  • Integracja z Matlabem
  • Wprowadzenie funkcji geometrii liniowej umożliwiająca wizualizację sieci połączeń


Według informacji zamieszczonej na stronie producenta, program beta potrwa do połowy sierpnia. Tradycyjnie odsyłam do pełnej listy zmian na stronie producenta.

czwartek, 8 czerwca 2017

Tableau Performance Tuning - część II

W ostatnim artykule poświęconym Performance Tuningowi dashboardów prayglądaliśmy się wszystkim czynnikom na poziomie środowiska oraz źródła danych, które mogą poważnie wpłynać na wydajność naszych raportów. Tym razem pora zastanowić się nad konkretnymi działaniami oraz tzw. dobrymi praktykami, które możemy zastosować w trakcie tworzenia dashboardów aby przyśpieszyć ich działanie.

Wyłącz automatyczną aktualizację danych


Jeśli pracujemy z wyjątkowo dużym zbiorem danych w trybie live, warto rozważyć tymczasowe zablokowanie automatycznych update'ów (pause auto updates) do czasu dodania wszystkich dodatkowych miar i wymiarów - dzięki temu unikniemy niezwykle irytującego oczekiwania na wyrenderowanie się widoku przy każdej modyfikacji. Po zakończeniu całej operacji wystarczy ponownie włączyć opcję "resume auto updates" lub wymusić ręczny update poprzez użycie kolejnego buttona "Run Update" (również dostępny po wciśnięciu F9).

Opcje Pause Auto Updates i Run Update


Połączenie ze źródłem danych


Staraj się nie korzystać z Custom SQL, jeśli nie jest to absolutnie konieczne. Pozwoli to uniknąć kosztownych podzapytań generowanych przez Tableau. Generalnie dobrą praktyką jest używanie jak najmnijeszej liczby źródeł danych (jakkolwiek trywialnie by to nie zabrzmiało) i usuwanie na bieżąco niepotrzebnych połączeń, które mogą się stać dodatkowym obcążeniem.


Filtry kontekstowe


Nie wahaj się korzystać z filtrów kontekstowych (context filters) jeśli wiesz, że dany worksheet potrzebuje jedynie małego fragmentu całego zbioru danych np. ściśle sprecyzowanego okresu czasu, produktu czy klienta. Złota reguła mówi, że jeśli na dzień dobry musimy odfiltrować 90% naszych danych, to użycie filtra kontekstowego powinno znacznie przyśpieszyć całą operację (szczególnie, jeśli mamy do czynienia z tzw. "slow changing dimensions").

Opcja użycia filtra kontekstowego

Kolejny sposób na wykorzystanie filtrów kontekstowych w celu poprawy wydajności to zastosowanie pozornie bezsensownego filtra typu "include all" w celu zmateralizowania joinów wykonywanych przez Tableau. Dzięki takiemu prostemu zabiegowi zostanie stworzona tableau tymczasowa, która powinna kilkukrotnie przyśpieszyć dostęp do danych (pod warunkiem, że korzystamy z joinów w tableau). Jak stworzyć taki filtr? Najprościej wykorzystać Exclude none :)

teoretycznie nieistniejący filtr, czyli "exclude none"


Ekstrakty


O ekstraktach i wszystkich pozytywnych aspektach ich wykorzystywania pisaliśmy w jednym z poprzednich artykułów. Warto pamiętać o tym, że ekstrakty w Tableau są niezwykle wydajne i pozwalają w znaczny sposób przyśpieszyć dostęp do największych źródeł danych. Wyjątkowo przydatne opcję, które możemy wykorzystać przy tworzeniu ekstraktu to:

  • Hide All Unused Fields - pozwala wykluczyć wszystkie nieużywane pola w celu "odchudzenia" ekstraktu i znacznego wzrostu wydajności
  • Aggregate data for visible dimensions - czyli agregacja danych na poziomie wykorzystywanym przez wizualizację (szczególnie przydatne przy pracy z danymi transakcyjnymi )


Filtry


Istnieją pewne sytuacje, w których zwykłe filtry potrafią w znacząc sposób wpłynąc na wydajność naszego workbooka.

Staraj się unikać opcji Exclude - w przypadku zastosowania tej opcji Tableau musi każdorazowo przeskanować wszystkie dane. Dodatkowo można wtedy zapomnieć o wszystkich korzyściach związanych z wykorzystaniem indeksów na poziomie bazy danych!

Fltrowanie wymiaru czasu po indywidualnych datach (Individual dates and times) również nie jest najlepszym pomysłem w przypadku pracy z wielomilionową tabelą - zdecydowanie lepiej zastosować filtrowanie kaskadowe (np. rok, miesiąc, dzień) i wyświetlić tylko cześć danych, która nas interesuję. W celu ograniczenia dużych zbiorów danych można też wykorzystać tzw. relative date filters (np ostatni dzień, miesiąc, rok).

Opcja Only Relevant Values dostępna w przypadku quick filters powinna być wykorzystywana z rozwagą i jedynie wtedy, gdy jest naprawdę wymagana. Jej wykorzystanie może drastycznie wpłynąć na szybkość działania dashboardu!

W większości przypadków filtering dashboard actions są szybsze, niż quick filters. Wynika to z tego, że w przypadku tych drugich tableau jest zmuszone do każdorazowego skanowania całego wymaru przed wyśwetleniem listy dostępnych wartości. W przypadku dashboard actions nie jest to wymagane, ponieważ filtry te wykorzystują wyrenderowane wizualizację, które posiadają już taką informację. Warto również zwrócić uwagę na to, co ma się dziać z widokiem bo resecie selekcji (opcja "clearing the selection will" w menu Dashboard->Actions). Jeśli pracujemy z wyjątkowo dużym zbiorem danych, zaleca się wykorzystanie opcji "Exclude all values" w celu uniknięcia wyświetlania dużych ilość danych w trybie "defaultowym".

Edytowanie dashboard action


W kolejnym artykule z tej serii postramy się przyjrzeć dobrym praktykom związanym z tworzeniem kalkulacji w Tableau, dzięki którym możemy bezpośrednio wpłynąć na wzrost wydajności całego dashboardu. Do zobaczenia następnym razem!

środa, 31 maja 2017

Tableau Performance Tuning - część I

Szybkość działania jest jedną z najważniejszych cech każdego rozwiązania w IT - nie inaczej jest z raportami w Tableau. Bo niby po co komu piękne raporty odpowiadające na wszystkie pytania użytkownika jeśli w czasie ich renderowania można sobie spokojnie zaparzyć herbatę? Prawdą jest, że w dzisiejszych czasach użytkownicy oczekują błyskawicznej reakcji na swoje zapytania oraz interakcje z poszczególnymi elementami dashboardu. Z przyczyn technicznych nie zawsze jest to możliwe, jednak można śmiało stwierdzić, że w dobie dzisiejszych rozwiązań nikt nie chcę już oglądać "loading screenów" dłużej niż kilka sekund. Czas jest naszym najcenniejeszym zasobem i nie powninno nas wcale dziwić, że tak dużo mówi się dzisiaj o optymalizacji.



Tableau udostępnia moduł Performance Recording, który pozwala na analizę poszczególnych zapytań i zidentyfikowanie potencjalnych źródeł problemów z wydajności. O tym narzędziu pisaliśmy już w jednym z poprzednich artykułów. Porównywaliśmy również wszystkie zalety i wady używania ekstraktów i źródeł danych typu "live". To dobre wprowadzenie do Performance Tuningu w Tableau, jednak aby lepiej zrozumieć istotę tego zagadnienia musimy przyjrzeć się kilku podstawowym zasadom, które pozwolą nam wycisnąć z naszych workbooków jak najwięcej w jak najkrótszym czasie. W pierwszej części tego artykułu przyjrzmy się temu, co można w tej kwestii zrobić na poziomie samego środowiska i źródła danych (bazy).

Środowisko

Tableau Desktop działa zdecydowanie lepiej na maszynach z 64-bitowym systemem operacyjnym, co nie powinno nikogo dziwić. Kluczowym aspektem jest tutaj ograniczenie w pamięci operacyjnej dla systemów 32-bitowych (efektywnie jest to około 3-3,5 GB RAM), które nie pozwala Tableau rozwinąć skrzydeł, a w przypadku pracy z większymi źródłami danych kończy się znienawidzonym błędem "out of memory". Generalnie im więcej pamięci RAM, tym lepiej. Maszyna deweloperską powinna mieć przynajmniej 8GB (zaleca się 16 GB). Liczy się również szybkość taktowania pamięci i dysków twardych. Niezłym pomysłem jest wykorzystanie ciągle taniejących dysków SSD.

Te same zasady dotyczą serwera - przy instalacji nowej instacji tableau server na pewno warto zainwestować w mocny sprzęt z dużo ilością ramu i szybkim, wielordzeniowym CPU. Wiele testów pokazuję, że rówież przeglądarka ma duże znaczenie. Generalnie Chrome i Firefox wypadają lepiej niż IE. Warto oczywiście zadbać o ich najnowsze wersję biorąc pod uwagę jak szybko wypuszczane są aktualizacje do Tableau Desktop/Server.

Baza danych

W większości środowisk korporacyjnych relacyjne bazy danych stanowią główne źródło danych. Mając doświadczenia z wieloma setupami mogę stwierdzić, że najlepszą wydajność w Tableau odnotowałem pracując z bazami Teradata i Oracle. Trochę gorzej wspominam pracę z MS SQL Server i IBM DB2, ale często jest to kwestia tuningu samej bazy, która jest naszym wąskim gardłem jeśli chodzi o wydajność raportów - szczególnie warto zwrócić na to uwagę używając połączeń typu "live data connection". Oto kilka rad odnośnie tego, co warto zoptymalizować na poziomie bazy:
  • Indeksy to podstawa. Na pewno warto indeksować wszystkie kolumny wykorzystywane w operacjach join i filtrach/ dashboard actions
  • Obecność kluczy głównych i obcych we wszystkich tabelach pozwala Tableau na zignorowanie wielu "integrity checks", co znacznie przyśpiesza zadanie (weryfikacja powinna być po stronie bazy)
  • Przy dużych ilościach danych istotne jest partycjowanie danych np na poziomie daty
  • Tableau nie lubi wartości typu NULL - unikaj ich jeśli tylko masz taką możliwość!
  • jeśli potrzebujesz skomplikowanych kalkulacji, pomyśl o stowrzeniu dedykowanego widoku na poziomie bazy danych który wykona czarną robotę za Tableau - w większości przypadków system bazodanowy wykona to zadanie zdecydowanie szybciej niż Tableau!
  • Korzystaj z tabeli zagregowanych jeśli masz do czynienia wielkimi źródłami danych (o ile nie musisz prezentować danych transakcyjnych i wystarczą Ci podsumowania). Pamiętaj, że możesz również wykorzystać opcję agregacji na danym poziomie przy tworzeniu ekstraktu w Tableau!
Więcej informacji znajdziecie w kolejnej części artykułu poświęconej optymalizacji wydajności w samym Tableau!

sobota, 8 kwietnia 2017

Nowy model licencjonowania Tableau

Właściciele Tableau właśnie zakomunikowali znaczące zmiany w modelu licencjonowania ich narzędzi. Otóż od tej chwili oprogramowanie będzie można nabyć również w modelu subskrypcyjnym. W przypadku Tableau Desktop oferowane są dwa warianty:
  • Personal Edition za 35 USD miesięcznie
  • Professional Edtion za 70 USD miesięcznie
Właściciele zapewniają, że wszystkie licencje zakupione w starym systemie (perpetual) pozostaną dalej ważne, a obecny system subskrypcyjny jest tylko rozszerzeniem oferty wynikającym z bezpośrednich oczekiwań klientów. Taka strategia to zapewne efekt bardzo agresywnej konkurencji ze strony Microsofttu, który ciągle oferuję swój analogiczny produkt Power BI w żenująco niskiej cenie (10 USD/mies) oraz wyjście na przeciw obecnym trendom w branży. Według analityków Gartnera już około 65-70% dostawców oprogramowania korzysta z takiego modelu, a do końca 2020 roku ten odsetek może wzrosnąć nawet do 80%. Polecam poniższy artykuł, z którego można dowiedzieć się nieco więcej o właśnie wprowadzonym modelu sprzedaży oraz strategii nowego CEO Tableau (Adam Selipsky, były dyrektor Amazon Web Services).


https://www.information-management.com/news/new-tableau-ceo-seeks-smoother-sales-with-subscription-push

niedziela, 26 marca 2017

Tableau Beta dla wersji 10.3 już dostępna

W tym tygodniu producent Tableau rozpoczął kolejną fazę beta-testów swojego oprogramowania,  tym razem dla wersji 10.3. Wśród najciekawszych nowości znajdują się:
  • automatyczne alerty wysyłane z poziomu Tableau Server (tzw. data-driven alerts)
  • garść nowych konektorów (PDF, Dropbox, OneDrive, ServiceNow, Amazon Athena, MongoDB, Denodo)
  • Tableau Bridge dla wersji Tableau Online (możliwość bezpiecznego łączenia się z bazami danych w trybie live connection)
  • Usprawnienia i wbudowane rekomendacje dla modułu przygotowania danych (smart table & join recommendations)
  • Usprawniony Web Authoring (możliwość edycji i tworzenia stories online)
  • Dalszy rozwój API (REST API, JS API)

Pełną listę zmian znajdziecie pod tym adresem. Liczna zmian może nie poraża, ale to kolejny krok przed wypuszczeniem poełnoprawnej wersji Tableau 11, która według wielu źródeł powinna się pojawić pod koniec tego roku. Obecna faza testów potrwa do 19 maja.

wtorek, 7 marca 2017

Raport o kondycji rynku BI według Gartnera - najważniejsze funkcjonalności narzędzi Business Intelligence oraz platform analitycznych

Właśnie ukazał się szczegółowy suplement do tegorocznego raportu Gartnera dotyczący najważniejszych funkcjonalności współczesnych narzędzi Business Intelligence oraz platform analitycznych (Critical Capabilities for Business Intelligence and Analytics Platforms).

Critical Capabilities Matrix (Gartner, Marzec 2017)


Analitycy z Gartnera po raz kolejny podkreślają fundamentalną zmianę, jaka zaszła na rynku BI w ciągu ostatnich lat (przesunięcie osi ciężkości w kierunku narzędzi typu data discovery).
 Najważniejsze wnioski z tegorocznej edycji raportu są następujące:
  • tradycyjne narzędzia BI zaczynają w dużej mierze doganiać możliwości pierwotnie oferowane tylko przez grono dostawców narzędzi typu data discovery, jednak różnice w ich funkcjonalnościach są ciągle widoczne (w zależności od przyjętych kryteriów)
  • Kolejna faza innowacji produktowej już się rozpoczęła (smart data discovery) i tym razem to duże firmy są o krok przed obecnymi liderami rynku (Tableau, Qlik, PowerBI, Tibco) dzięki ogromnych nakładom na innowacje (IBM, Microsoft, Microstrategy, SAP, SAS) oraz licznym przejęciom dobrze prosperujących start-upów (Oracle, Salesforce)
  • Pomimo relatywnie dużego nasycenia rynku platform analitycznych, większość produktów cechuje pewna rożnica w funkcjonalnościach, w związku z czym każde z tych narzędzi ma nieco inne przeznaczenie/jest skierowane do innej grupy odbiorców
Kilka kluczowych rekomendacji/wniosków dla osób zastanawiających się nad wdrożeniem współczesnych narzędzi klasy Business Intelligence bądź też modernizacją obecnie wykorzystywanej technologii:
  • Rozwijaj portfolio tradycyjnych narzędzi do raportowania poprzez wykorzystanie możliwości jakie oferuje nurt data discovery
  • Dokonaj wnikliwej analizy możlwości współczesnych narzędzi BI w celu wyboru optymalnego rozwiązania w zależności od Twoich potrzeb oraz sytuacji w Twojej organizacji
  • Ustal w jakim stopniu scentralizowane zespoły IT będą w stanie wesprzeć Twoich użytkowników biznesowych w zakresie przygotowania bądź udostępnienia niezbędnych danych
  • Zostań zwolennikiem przyjaznych narzędzi zorientowanych na łatwość obługi oraz wykorzystanie metodyk zwinnych w celu wykorzystania pełnego potencjału analitycznego drzemiącego w Twojej organizacji
  • Kontroluj na bieżąco zadowolenie użytkowników biznesowych z wykorzystywanej technologii i podczas wyboru narzędzi nie kieruj się wyłącznie ewaluacją samych funkcjonalności, możliwością integracji oraz całkowitym kosztem inwestycji
Przyjżyjmy się jeszcze wizualnej reprezentacji oceny 5 najważniejszych funkcjonalności BI według Gartnera:
  1. Agile Centralized BI Provisioning
    Źródło: Gartner 2017
  2. Decentralized Analytics
    Źródło: Gartner 2017
  3. Governed Data Discovery
    Źródło: Gartner 2017
  4. OEM or Embedded BI
    Źródło: Gartner 2017
  5. Extranet Deployment Use Case
    Źródło: Gartner 2017
Jak wypadło Tabelau na tle swoich konkurentów? W ocenie pierwszych 3 "krytycznych funkcjonalności" oprogramowanie zostało wymienione w pierwszej dziesiątce rankingu, co na pewno jest wynikiem bardzo dobrym, ale nie wybitnym i pokazuje, że konkurencja nie śpi. W przypadku dwóch ostatnich cech, Tableau plasuje się mniej więcej w połowie stawki.

Równie ciekawie przedstawia się ocena cząstkowa poszczególnych funkcjonalności. Warto zauważyć, że możlwiości Tableau są oceniane bardzo podobnie zarówno przez klentów, jak i analityków którzy wzięli udział w badaniu (wykres poniżej).
Critical Capabilities Matrix - analyst opinion only (Gartner, Marzec 2017)
Zgodnie z moimi przewidywaniami, Tableau wypada znakomicie pod względem wizualizacji danych, budowy interaktywnych dashboardów, wykorzystanie plarform mobilnych, łatwość użycia oraz integracji z innymi platformami (tzw. żargonowy BI gold standard). Nieco zaskoczyła mnie wysoka ocena zdolności transformacji i przetwarzania danych (Self-Contained ETL and Data Sorage) - moim zdaniem funkcje te są na dzień dzisiejszym dosyć mocno ograniczone, ale wszystko ma się zmienić dzięki tajemniczemu projektowi Maestro, który ujrzy światło dzienne już wkrótce. Nie zaskoczyła mnie natomiast umiarkowana ocena rozwiązań cloudowych (wszak są ciągle rozwijane), zarządzania metadanymi (mimo ciągłych usprawnień od wersji 9) oraz bardzo słaba odpowiedź na rzekomy kolejny krok rewolucji - smart data discovery (przynajmniej w chwili obecnej, ponieważ deweloperzy Tableau deklarują, że cięzko pracują nad tym, żeby dogonić konkurentów pokroju IBM Watson Analytics w niedalekiej przyszłości).

Kompletnie nie zgadzam się z bardzo niską oceną zdolności do publikowania i administrowania kontentu w Tableau Server oraz zdolności szeroko rozumianej "kolaboracji". Myślę, że niska ocena tych komponentów to efekt porzucenia wielu starych, dobrych praktyk stosowanych przez tradycyjne platformy BI takie jak Cognos czy OBIEE, która przez wielu starych wyjadaczy jest ciągle uważana za "must have".

Pełny raport zawiera oczywiście dużo więcej szczegółowych informacji, w tym opis wykorzystanych kryteriów oraz ocena sytuacji każdego z zakwalifikowanych vendorów. Gorąco zachęcam do zapoznania się z jego treścią!

środa, 1 marca 2017

Tableau 10.2 już dostępny

Od wczoraj można już pobierać stabilną wersję Tableau 10.2:
https://www.tableau.com/support/releases/10.2.0



Poza całą masą zmian na poziomie przygotowania danych, najnowsza wersja oferuję przede wszystkich znaczne usprawnienia w kwestii wizualizacji danych geoprzestrzennych oraz wykorzystaniu analizy statystycznej. Szczegółowy wykaz wszystkich wprowadzonych zmian znajdziecie na oficjalnym blogu oraz w sekcji what's new na stronie producenta.

poniedziałek, 27 lutego 2017

Jak przygotować się do egzaminu Tableau Desktop 10 Delta?

Ostatnio dostaję coraz więcej zapytań o certyfikacje i materiały szkoleniowe dotyczące Tableau. Kilka dni temu udało mi się zdać kolejny egzamin Tableau, więc stwierdziłem, że podzielę się swoimi przemyśleniami na jego temat.

Tym razem chodzi o wspomniany Delta Exam, który pozwala na upgrade najwyższej istnejącej licencji (QA albo CP) do ostatniej opublikowanej wersji. Jedynym wymogiem jest posiadanie certyfikatu dotyczącego poprzedniej wersji. Uwaga - jeśli pominiecie dwie wersje z kolei, czyli np przespaliście możliwość zdanwania Delty w wersji 9, a posiadacie tylko licencje Desktop/Server QA 8, to musicie niestety zdawać ponownie cały egzamin QA (w tym przypadku wersja 10). Jak widać, Tableau chce w ten sposób zmotywować ludzi do uzupełniania swojej wiedzy o nowości dotyczące najnowszych wersji, a jest ich ostatnio naprawdę sporo.

Jeśli chodzi o formę egzaminu, to ponownie mamy do czynienia ze sprawdzoną formułą egzaminu QA. Tym razem jest tylko 16 pytań, z czego zdecydowana większość (w moim przypadku 11) to tzw. pytania knowledge base dotyczące nowości w Tableau Desktop 10 - forma bardzo podobna do tej z egzaminu QA, więc nie powinno to być dla Was nic nowego. Do tego tylko 5 pytań, gdzie trzeba coś policzyć, każde za 3 pkt. Pytania teoretyczne są za 1 pkt, więc łącznie można uzyskać 26 pkt. Do otrzymania 'passa' musimy uzyskać ponad 75%. Czasu jest sporo mniej, bo tylko 60 min, ale przy tak małej ilości zadań praktycznych jest to w pełni uzasadnione - zasadniczo powinniście się wyrobić w pół godziny.

Jak się do tego egzaminu przygotować? Wystaczy dogłebnie przestudiować podany zakres materiału. Polecam dokładne zapoznanie się z sekcją "What's New in Tableau Desktop" dla wersji 10 na oficjalnej stronie Tableau:
http://onlinehelp.tableau.com/current/pro/desktop/en-us/help.htm#whatsnew_desktop.html

Jedna wskazówka, która powinna znacznie ułatwić Wam zadanie - możecie korzystać z tych zasobów również w trakcie egzaminu :) Standardowo przygotujcię się na pracę z wieloma źródłami danych w formacie excelowych plików. Sam egzamin jest zdawany na wirtualnej maszynie, na której macie tylko Tableau 10 i dostęp do internetu. To naprawdę dużo. Życzę wszystkim powodzenia i chętnie usłyszę jak Wam poszło!



czwartek, 23 lutego 2017

Gartner Magic Quadrant dla Business Intelligence and Analytics Platforms - pełny raport już dostępny!

Na oficjalnej stronie Tableau można już znaleźć link do pełnej wersji raportu Gartnera dotyczącego rynku Business Intelligence oraz współczesnych platform analitycznych. Po raz kolejny vendorzy zostali podzieleni na segmenty modern BI (wspomniany raport) oraz tradycyjne platformy BI (ta część raportu jest dopiero w przygotowaniu), więc możemy tutaj mówić o kontynuacji ubiegłorocznej rewolucji.

Najważniejsze trendy zauważone w tym roku:
  • dalszy boom platform typu smart/visual data discovery
  • coraz mniej wdrożeń tradycyjnych systemów BI (it-centric)
  • do 2020 roku większość narzędzi BI będzie oferować natywną obsługę zapytań w języku naturalnym (NLP)
  • w tym samym roku nawet 50% zapytań będzie już generowanych przy wykorzystaniu sztucznej inteligencji

Tradycyjnie polecam lekturę pełnego raportu w celu zapoznania się z tegorocznymi kryteriami Gartnera oraz oceną oferty poszczególnych vendorów:

https://www.gartner.com/doc/reprints?id=1-3TYE0CD&ct=170221&st=sb

poniedziałek, 20 lutego 2017

Test Microsoft Power BI - nowy rywal Tableau?


Od jakiegoś czasu uważnie przyglądam się poczynaniom Microsoft w sferze Business Intelligence. Trzeba przyznać, że w ciągu ostatnich lat giganci z Redmond sporo zainwestowali w rozwój swojej najnowszej platformy analitycznej Power BI. Gdy rok temu publikowałem porównanie najlepszych narzędzi na rynku (Tableau vs Qlik vs Tibco), Power BI był jedynie dobrze zapowiadającą się ciekawostką. Czy w tym momencie można go już uznać za godziwego rywala dla złotej trójcy segmentu data discovery?

Microsoft Power BI zyskuję coraz większe grono użytkowników oraz bardzo przychylne opinie ekspertów branży. Wystarczy spojrzeć na ostatnią odsłonę raportu Gartnera, gdzie produkt Microsoft został oceniony niemal tak wysoko jak Tableau (a może nawet lepiej?). Wszystko za sprawą bardzo skutecznego marketingu (w końcu to Microsoft) oraz niezwykle atrakcyjnej wyceny narzędzia w modelu subskrypcyjnym - licencja Power BI Pro kosztuję obecnie jedynie 9.99 USD miesięcznie. W porównaniu do ceny Tableau to tyle co nic. Nawet dla krajów rozwijających się (pakiet Netflixa + Spotify kosztują Was drożej!). Niektórzy twierdzą wręcz, że są to ceny dumpingowe, ale nawet jeśli to prawda, to kto bogatemu zabroni? :)

Interfejs Power BI. Do najpiękniejszych nie należy

Przy tak dużej bazie klientów, jaką posiada obecnie Microsoft, nadrzędnym celem firmy jest obecnie szybka ekspansja, którą kilka lat temu przeprowadził Qlik, a następnie Tableau. Na zarabianie przyjdzie jeszcze czas. Aby ocenić czy w obecnej formie oprogramowanie Microsoftu może zagrozić Tableau, proponuję przyjrzeć się krótkiemu testowi opartemu na tej samej metodologii, którą zastosowałem ponad rok temu w analizie porównawczej narzędzi klasy BI.

Test jest oparty na darmowej wersji Power BI Desktop v2.42.4611.901 dostępnej w styczniu 2017 (wersja 64-bit)

Standardowo procedura testowa składa się z następujących kroków:

Nazwa testu
Waga testu
Test 1 – Kompatybilność
0,3
Test 2 – Wizualizacja danych
0,4
Test 3 – Funkcjonalność
0,3
Razem
1,0

TEST 1 - KOMPATYBILNOŚĆ

Tutaj na pewno nie mamy żadnych złudzeń - Microsoft postarał się, aby jego najnowsze narzędzie bezproblemowo łączyło się większością współczesnych źródeł danych. Cześć konektorów jest jeszcze w formie bety, ale już teraz widać, że lista jest imponująca i (co najważniejsze) ciągle aktualizowana, co bardzo dobrze rokuje na przyszłość.
źródło: https://powerbi.microsoft.com/en-us/documentation/powerbi-desktop-data-sources/



Menu nawiązywania nowych połączeń jest bardzo przejrzyste i uporządkowane dzięki zastosowaniu kilku zbiorczych kategorii (pliki zewnętrzne, bazy danych, azure, serwisy online, inne).

Ocena: 5/5

TEST 2 - WIZUALIZACJA DANYCH

Drugi test to esencja naszej analizy i prawdziwe wyzwanie dla Power BI, gdyż najważniejsi konkurenci tacy jak Tableau Desktop, Qlik Sense i Tibco Spotfire wypadli tutaj całkiem nieźle.

Naszym zadaniem ponownie jest odwzorowanie prostego dashboardu sprzedażowego na podstawie poniższych wymagań.

Dashboard miał składać się z trzech głównych sekcji:
1)      Geograficzna wizualizacja sprzedaży oraz zyskowności poszczególnych sklepów.
2)      Zyskowność sprzedaży poszczególnych kategorii produktów w formie interaktywnych wykresów słupkowych z użyciem hierarchii produktów.
3)      Pokazanie trendów sprzedaży poszczególnych kategorii produktów na przestrzeni 3 lat za pomocą interaktywnych wykresów liniowych (w ujęciu miesięcznym)
Dla przypomnienia, źródłem danych jest płaski excel (.xlsx) zawierający dane na temat ponad 10 tys. transakcji zawartych w ciągu 3 lat. Efekt końcowy możecie obejrzeć poniżej:



Jak widać najnowsza wersja Power BI oferuję naprawdę spore możliwości w zakresie budowy dashboardów, a efekt finalny jest całkiem niezły. Obsługa geolokalizacji kodów pocztowych trochę jeszcze szwankuje i nie wszystkie z nich zostały prawidłowo rozpoznane. Możliwości zmiany kolorystyki i skali gradientu również mogłyby być trochę bardziej rozbudowane - w chwili obecnej edycja jest nieco toporna i bardzo przypomina mi pierwszą wersję Qlik Sense sprzed roku (zresztą nie tylko ta funkcja). Nie było natomiast żadnych problemów z wykorzystaniem customowej hierarchii oraz dowolnej konfiguracji interakcji pomiędzy każdą z wizualizacji - ta funkcjonalność jest niezwykle intuicyjna w Power BI. Interfejs aplikacji jest całkiem przejrzysty (jak w innych produktach Microsoftu), ale moim zdaniem troszkę zbyt ciemny. Intensywny żółty kolor, który dominuję na welcome screenie i we wszystkich materiałach webowych również potrafi trochę zmęczyć.

Power BI - welcome screen
Po kilkugodzinnym użytkowaniu programu odnoszę wrażenie, że Power BI jest obecnie sporo wolniejszy od Tableau czy Qlika - widać to już na etapie łączenia się z danymi, czy renderowania wizualizacji (szczególnie mapy). Być może jest to wina mojego peceta? (nie sądzę). Wygląda na to, że Microsoft ma jeszcze dużo pracy w sferze optymalizacji swojego silnika. Warstwę graficzną natomiast oceniam pozytywnie (poza okropnymi szarymi menusami z prawej strony).

Ocena: 4.5/5

TEST 3 - FUNKCJONALNOŚĆ

Dobrnęliśmy do ostatniego, jednak bardzo ważnego testu, który jest moją subiektywną oceną łatwości obsługi, możliwości analitycznych i wsparcia producenta.

  • łatwość obsługi - narzędzie Microsoftu posiada standardowy, dobrze znany interfejs charakterystyczny dla tej firmy (oparty na ribbonach). Wszystko jest tutaj na swoim miejscu, aczkolwiek panel panel edycji pól i wizualizacji wymaga jeszcze wielu poprawek. Póki co wygląda to trochę pokracznie, a czarny kolor tła zupełnie tutaj nie pasuje. Wydaje mi się, że nawet w raczkującym Watson Analytics wygląda to o niebo lepiej.
  • możliwości analityczne  - przyznam szczerze, że nie miałem okazji sprawdzić zbyt wielu funkcjonalności typowo analitycznych. Większość z nich jest tutaj nowa bądź ciągle rozwijana. Microsoft zdecydowanie ma kompetencje w tej dziedzinie, więc myślę, że w przyszłości będzie chciał się skupić na tych funkcjonalnościach żeby wyróżnić się czymś spośród licznej konkurencji (poza niezła integracją danych, którą Power Bi oferuję już dziś).
  • wsparcie producenta - pod tym względem Power BI wypada równie dobrze, jak Tableau. Na stronie producenta znajdziecie masę poradników i video tutoriali (guided learning), a społeczność użytkowników rośnie ostatnio w tempie wykładniczym. Pod tym względem jest naprawdę dobrze. Widać, że Microsoft wzoruję się tutaj na wieloletnich liderach branży oraz ich sprawdzonych rozwiązaniach w zakresie self-learningu.
 Oceny cząstkowe

łatwość obsługi: 5/5
możliwości analityczne: 4/5
wsparcie producenta: 5/5

PODSUMOWANIE

test
Power BI
waga testu
kompatybilność
5
0.3
wizualizacja
4.5
0.4
łatwość obsługi
5
0.1
możliwości analityczne
4
0.1
wsparcie producenta
5
0.1
SUMA
4.7
1

 Końcowy wynik naszego testu jest bardzo optymistyczny - według przyjętej rok temu metodologii, Power BI w wersji 2.42 tylko nieznacznie ustępuje Tableau Desktop 9, które otrzymało notę końcową na poziomie 4.85.
 Warto jednak zauważyć, że ubiegłoroczne rezultaty Tableau Desktop, Qlik Sense i Tibco Spotfire mogły również ulec zmianie w związku z licznymi aktualizacjami tych programów i wprowadzeniem wielu nowości/usprawnień, dlatego w najbliższym czasie zamierzam opublikować odświeżoną wersję rankingu dla Tableau Desktop 10.1, Qlik Sense 3.1 oraz Tibco Spotfire 7.6. Na tę chwilę mogę jedynie stwierdzić, że Power BI stał się wyjątkowo interesującym narzędziem i zasłużenie został wymieniony wśród liderów prestiżowego rankingu Gartnera już drugi rok z rzędu.

Moim zdaniem, różnica między produktem Microsoftu a najnowszą, dziesiąta już odsłoną Tableau jest natomiast na tyle duża, że ciągle warto dopłacić i wybrać to droższe narzędzie i takie rozwiązanie rekomendowałbym organizacjom, którym zależy przede wszystkim na rezultatach i najwyższej efektywności pracy - innowacja ma niestety swoją cenę. Power BI będę natomiast traktować jako ciekawą alternatywę skierowaną do mniej wymagającego odbiorcy. Przy obecnej wycenie z czystym sumieniem polecam to narzędzie mniejszym firmom i organizacjom pozarządowym, które zapewne korzystają już z innych rozwiązań Microsoftu. Za takie pieniądze na pewno nie znajdziecie lepszej alternatywy.

Na koniec zamieszczam graficzną reprezentację testu Power BI: