Ten wpis to wpis gościnny. Napisał go Damian Rams. Jeśli Chcesz zamieścić coś ciekawego na łamach mojego bloga, to skontaktuj się ze mną — jestem zawsze otwarty na materiał, który przyniesie korzyść czytelnikom! Nie trzeba do tego być nindżą; spróbuj, niezależnie od poziomu!
Jakiś czas temu Wojtek opublikował swoje wrażenia po przeczytaniu raportu o UX w Polsce (całkiem dawno — hihi! — Wojtek). Zajmuję się analityką internetową, więc moją uwagę przykuł akapit o niskim wykorzystaniu danych ilościowych w procesie UX.
12,72% respondentów wskazało, że korzysta z Google Analytics. Tylko 64 osoby spośród 503 badanych. Pełny raport znajdziecie tutaj.
Włos mi się zjeżył, gdy zobaczyłem te dane. Postanowiłem podjąć próbę przekonania tych pozostałych 87,28%, że jednak warto czasem zajrzeć do cyferek.
UX a rozwiązywanie problemów biznesowych
Głęboko wierzę, że UX to nie jest rola, w której masz się (przede wszystkim) spełniać artystycznie. Celem ma być tworzenie wygodniejszych interfejsów (czy tam lepiej sprzedających). Jak to ocenić? Liczbami. Zmierzyć, jak zmiany na stronie wpływają na biznes.
Jeśli uznamy, że UX ma rozwiązywać problemy biznesowe, to proces ma tu z grubsza 4 etapy:
- Znalezienie problemu
- Analiza
- Rozwiązanie
- Ocena rezultatów
W etapach 1. i 4. nieocenione są dane ilościowe, np. pochodzące z Google Analytics, Heap, Mixpanel czy Yandex Metrica. Ponieważ standardem w Polsce jest Google Analytics, to pozwól, że dla uproszczenia będę go używał w nielicznych przykładach.
Z raportu o UX w Polsce wynika, że z danych ilościowych korzysta może 25% przebadanych UX designerów.
Liczby są drogowskazem dla prac UX
Badania jakościowe są cudowne. Uwielbiam stosować badania ankietowe, badania użyteczności czy wywiady pogłębione. To niesamowite, jak zaskakujące i nieoczywiste problemy z UX można w ten sposób znaleźć.
Jakościówki dają odpowiedź na pytania:
- Dlaczego dany problem z UX istnieje?
- Co jest jego źródłem?
- Jak użytkownicy na niego reagują?
Czasem obserwacje z badań jakościowych naprowadzają też na rozwiązanie problemu.
Badania ilościowe pokażą Ci z kolei, gdzie problem jest zlokalizowany.
Najprostsza analiza lejka konwersji powie Ci, czy użytkownicy rezygnują z zakupu na etapie koszyka, czy dopiero na ekranie wyboru formy płatności.
Z Google Analytics dowiesz się na przykład:
- Czy strona dostaje czkawki na mobile, czy na desktopie
- Czy ktoś korzysta z danej funkcjonalności
- Który baner się lepiej klika
- Dla jakiego odsetka odwiedzających dana sekcja jest widoczna
- Ile osób odtwarza wideo
Wtedy dokładniej wiesz, na jakich ekranach i ich aspektach skupić swoją energię.
Uważam, że budowanie listy priorytetów dla badań i prac UX powinno się odbywać w oparciu o liczby. Warto oszacować, które ekrany są najpopularniejsze oraz gdzie serwis traci zainteresowanie użytkowników. Identyfikacja kiepskich punktów na stronie internetowej czy w aplikacji, a następnie ich poprawienie, to dla mnie prawdziwy cel prac UX.
Popularna strona + kiepskie statystyki = idealny kandydat do wzięcia pod UXową lupę.
Google Analytics dla UXa
Tutaj wkracza do gry cały na biało elegancko skonfigurowany Google Analytics. Dlaczego warto zadbać o wysokiej jakości implementację tego narzędzia?
Prosty przykład. W sklepie internetowym, jeśli spojrzysz na odsłony adresów URL, to zwykle strona główna ma ich najwięcej. I często to ona jest obiektem priorytetowych prac. A to błąd!
Przeważnie to karta produktu jest najczęściej odwiedzana. W przykładzie poniżej zgarnia 71,34% odsłon (!). Jak to łatwo zmierzyć? Wdrożyć grupowanie treści. Wtedy widać jak na dłoni, jaki typ ekranu jest istotny.
Wiem, niby oczywiste. Niby każdy to wie. Ale zdziwiłbyś się, jak wiele osób idzie na skróty i dostaje obsesji na punkcie strony głównej. Warto ułatwić sobie życie i skonfigurować Analytics tak, aby nie rzucał kłód pod nogi, ale pomagał.
Grupowanie treści to wierzchołek góry lodowej. Analytics ma potężne możliwości customizacji. Pozwala dodawać własne wymiary, metryki, śledzić transakcje offline, mierzyć interakcje z wideo, przyciskami, sliderami czy śledzić mikrokonwersje.
Trzeba “tylko” przysiąść i go skonfigurować.
Ocena efektów, czyli trzęsiemy portkami
Po co się narobić jak wół, skoro nawet nie wiesz, czy ten nowy piękny ekran zdaje egzamin? Przed startem jakichkolwiek prac przydałoby się określić, na jakie metryki mają one wpłynąć i jak sprawdzisz efekty.
Dane ilościowe powiedzą Ci tutaj prawdę. Skoro to takie oczywiste, to czemu jest mało popularne?
Mamy tutaj jeden “mały” problem.
To stresujące. Może się przecież okazać, że 87 godzin Twojej pracy niczego nie zmieniło. A może nawet popsuło! Przecież szef Cię wyleje i dostaniesz branżowy wilczy bilet.
Często zmiany są wprowadzane “na czuja”, a efektów nikt nie mierzy, bo boi się wyników. To ma swoje uzasadnienie – w niektórych organizacjach lepiej się nie wychylać. Polityka korporacyjna robi swoje. Lepiej nie wiedzieć nic, niż żeby było wiadomo, że czyjaś praca była bezsensowna.
Aby ilościowa ocena efektów działań UX nie stresowała, otoczenie musi być odpowiednie. Nastawienie zespołu na eksperymenty i płynącą z nich naukę są kluczowe. Jeśli porażki są stygmatyzowane, to ilościowe analizy efektów mogą powodować niemiłe sytuacje.
Testy A/B
Jeśli serwis notuje wystarczająco dużo ruchu i konwersji, to polecam testy A/B. Ile to jest “wystarczająco”? Sprawdzisz w kalkulatorku. Generalnie przyjmuje się, że test powinien trwać ok. 4 tygodni. Wtedy jesteś w stanie prowadzić jeden test A/B miesięcznie.
Dzięki testom A/B niwelujesz wpływ czynników zewnętrznych. Porównanie statystyk przed i po zmianach jest wtedy bardziej wiarygodne, niż gdybyś porównał sierpień do lipca, czy nawet do sierpnia rok wcześniej.
Podsumowanie
Dane uczą pokory. Pokazują, że to, co nam się “wydaje” często ma zerowe odzwierciedlenie w rzeczywistości.
Ile to razy się z kimś kłóciłeś o to, jak ma wyglądać dany przycisk czy sekcja? Ile razy się irytowałeś, że masz pracować nad czymś, co – Twoim zdaniem – jest nieistotne?
Z moich skromnych obserwacji i doświadczeń wynika, że podparcie się danymi ilościowymi w procesie UX zmniejsza liczbę jałowych dyskusji. Umacnia też w przekonaniu, że pracujesz nad istotnymi sprawami.
Ocena efektów prac – o ile są pozytywne – sprawia, że kładziesz się spać spełniony. Bo coś usprawniłeś i masz na to twarde dowody.
Efekty są kiepskie? Cóż, może warto porzucić swoje ego i wypróbować inne rozwiązania. Moim zdaniem lepiej coś mierzyć i znać wyniki (nawet jeśli są negatywne), niż żyć w iluzji.
Ale zdecydujesz sam 😉
Damian Rams
Działa jako freelancer w obszarze analityki internetowej. Klientom pomaga poprawnie skonfigurować Google Analytics (i inne narzędzia analityczne), analizować dane i optymalizować konwersję. Prowadzi też bloga o analityce internetowej. W wolnych chwilach (między innymi) pokornie zgłębia tajniki gry na gitarze basowej.