Zarządzanie zespołem UX – odcinek 4: Adam Plona (NextWeb Ventures)

adamplona

Wreszcie dalszy ciąg wywiadów z osobami kierującymi zespołami UX w Polsce 🙂 Mój rozmówca, Adam Plona, ma olbrzymie doświadczenie w tworzeniu serwisów informacyjnych, czy też (brzydkie słowo) „kontentowych” – pracował kolejno w Polskapresse, Agorze i Axel Springer, a obecnie pracuje dla NextWeb.

ML: Jesteś dyrektorem ds. produktów i rozwoju w NextWeb Ventures. Na Waszej stronie przeczytałem, że „tworzysz strategie dla poszczególnych serwisów oraz dbasz o zapewnienie w nich optymalnego user experience”. Jakie są Twoje obowiązki? Nad czym na co dzień pracujesz?

AP: Na początek wyjaśnię, że NextWeb Ventures to inkubator internetowy. Specjalizujemy się więc w tworzeniu nowych serwisów online’owych. Budujemy ich koncepcje (model biznesowy i produktowy), następnie projektujemy, implementujemy i wdrażamy. Pracujemy nad nowo powstałymi produktami na wczesnym etapie rozwoju. Potem powołujemy osobny zespół, dążymy do jego usamodzielnienia i wydzielamy serwis lub ich grupę do osobnej spółki lub business unitu. Nie pracujemy jako agencja, jesteśmy zawsze właścicielem lub udziałowcem.

Jako szef produkcji nadzoruję większość prac nad koncepcją i strategią serwisów, a także projektowaniem, implementowaniem i wdrażaniem. Odpowiadam też, wraz z menadżerami poszczególnych business unitów, za ich rozwój już po starcie. W zakresie moich obowiązków, ale i zainteresowań, są też zagadnienia z obszaru business developmentu. Zgodnie z charakterem inkubatora, w tej chwili na co dzień pracuję nad nowym (i największym w historii firmy) produktem, o którym już wkrótce będę mógł powiedzieć nieco więcej 🙂

NextWeb znane jest przede wszystkim jako wydawca serwisu NaTemat.pl, który projektowałeś. Ile osób zajmuje się u Was user experience?

Tak, jesteśmy znani z naTemat.pl, ale w portfolio mamy wiele innych serwisów, niektóre z nich są wręcz większe niż naTemat. Chodzi mi np. o lidera kategorii zdrowie (wg grudniowego Megapanelu) – grupę abcZdrowie.pl. Stworzyliśmy też blogi tematyczne – z Gadzetomania.pl na czele. Stale rozwijamy młody serwis dla rodziców – Parenting.pl.

Dział produktowy, którym kieruję, to kilkanaście osób. Cztery z nich – wliczając mnie – bezpośrednio zajmują się holistycznie rozumianym UX. Mówię „holistycznie”, bo osoby zajmujące się tym obszarem są w epicentrum powstawania i rozwijania każdego naszego produktu. Nie tylko makietują czy prowadzą badania z użytkownikami, ale mają także donośny, a często wiodący głos w dyskusji na temat koncepcji, strategii redakcyjnej, podejścia do budowy i rozwoju społeczności czy nawet sposobu implementacji programistycznej. To dość niestandardowe podejście. Wierzę jednak, że w dzisiejszej rzeczywistości tworzenia produktów internetowych – cechującej się głęboką specjalizacją – jedynie projektanci UX są w stanie od początku do końca zadbać o jakość powstającego bytu.

Ten przywilej łączy się z koniecznością posiadania szerszego spektrum kompetencji aniżeli branżowy standard. Staramy się, aby nasi projektanci byli merytorycznie przygotowani do dyskusji na temat każdego obszaru funkcjonowania serwisu, nie wyłączając modelu biznesowego, specyfiki pracy redakcji czy nowoczesnych metod marketingowych. Powinni nie tylko sprawnie coś zaprojektować, ale i dostrzec okazje biznesowe, wykazując się pragmatyzmem i inituicją. Ich odpowiedzialność za produkt jest bowiem całościowa.

Serwisy, które robicie – NaTemat.pl, Parenting.pl, to projekty w których macie udziały, nie pracujecie jako dostawca. Skąd wziął się pomysł na NaTemat.pl? Wyszedł od Was, czy od Tomasza Lisa i to on Was znalazł?

Pomysł na stworzenie nowego, innego medium publicystyczno-informacyjnego w internecie wyszedł od Tomasza Lisa. Pewnego dnia przeczytał o historii Huffington Post i zaczęła dojrzewać w nim chęć zrobienia czegoś podobnego w naszym kraju. Zaprosił do współpracy Tomasza Machałę, a on z kolei zadzwonił do mnie i umówiliśmy się na spotkanie. Tak się zaczęło. Niedługo potem spotkaliśmy się już w nieco szerszym gronie i zaczęliśmy rozmawiać o wizji i koncepcji nowego medium. Okazało się, że mówimy tym samym językiem i wierzymy w te same rozwiązania. To sprawiło, że już dwa miesiące od pierwszego spotkania zawiązaliśmy joint-venture i rozpoczęliśmy prace nad ostatecznym kształtem produktu.

Jak nawiązaliście współpracę z Dorotą Zawadzką przy Parenting.pl?

Parenting.pl przejęliśmy od poprzednich właścicieli z zamiarem uczynienia z niego lidera swojej kategorii. Główną wartością była tam duża, stabilna społeczność na forum. Aby zwiększyć zasięg, początkowo wzmocniliśmy warstwę kontentową, potem zaczęliśmy pracę nad modelem biznesowym, aby nie być zależnym wyłącznie od przychodów z reklamy.

Ostatnim elementem układanki było nadanie serwisowi ludzkiej twarzy. Od dłuższego czasu towarzyszy nam refleksja o tym, że polski internet jest anonimowy i bezpłciowy. W dużych mediach internetowych, takich jak portale, nie ma nazwisk, twarzy i charakterów. A przynajmniej nie widać ich dostatecznie. Wynikiem tej refleksji była – wypracowana wspólnie z Tomszem Machałą i Tomaszem Listem – formuła naTemat, potem przyszedł czas na jej zaaplikowanie w nowej odsłonie Parenting.pl

Szukaliśmy więc rozpoznawalnej osoby, która weźmie aktywny udział w tworzeniu i kierowaniu serwisem. Nie chcieliśmy jedynie ozdoby, ale redaktora naczelnego z prawdziwego zdarzenia. Oczywiście Parenting.pl jest produktem internetowym, więc znajomość sieci i praw nią rządzących była dla nas kluczowa. Nawiązanie kontaktu z Dorotą Zawadzką było dla nas naturalną konsekwencją przyjętej strategii. Jest jedną z najaktywniejszych blogerek naTemat.pl, jest bardzo aktywna na Facebooku i Twitterze. Doskonale rozumie, na czym polega internet i świetnie się w nim odnajduje. Jest też jednym z najsilniej brzmiących w Polsce głosów w swojej tematyce.

Już po pierwszym spotkaniu byliśmy przekonani, że to strzał w dziesiątkę. Mówiliśmy dokładnie tym samym językiem, a zapał oraz ilość i jakość pomysłów Doroty przekonały nas ostatecznie, aby powierzyć Parenting.pl właśnie jej.

Parenting.pl to wciąż projekt na wczesnym etapie i cały czas pracujemy nad jego ostatecznym kształtem.

NaTemat.pl było projektem wyróżniającym się na polskim rynku: duże zdjęcia, duże tytuły, brak przejmowania się foldem, komentarze zintegrowane z Facebookiem, brak typowych form reklamowych. Czy trudno było Ci do tego wszystkiego przekonać partnerów?

Wbrew pozorom, nie było. Zarówno Tomasz Lis, jak i Tomasz Machała, to otwarci ludzie, wystarczająco pewni siebie, aby zaufać innym. Także Kuba Zieliński, prezes NextWeb, dał mi całkowicie wolną rękę. Chciał, abym zrealizował w tym projekcie swoje najdziksze fantazje 😉 Było to możliwe, bo od początku chcieliśmy, by naTemat był unikalny na rynku serwisów informacyjnych i publicystycznych pod każdym względem: podejścia redakcyjnego, oferty reklamowej czy właśnie formy i designu.

Oczywiście mieliśmy parę burzliwych dyskusji, było kilka kompromisów. Był to jednak ten ich rodzaj, który wzbogaca, a nie podcina skrzydła. Nie bez znaczenia jest też, że mogłem pracować z jednym z najlepszych grafików jakich znam – Renatą Machałą. Jej spojrzenie i propozycje z pewnością podniosły ostateczną jakość naTemat o kilka poziomów.

Jak długo trwała praca nad NaTemat.pl od pomysłu do wdrożenia?

Ogólna koncepcja naTemat skrystalizowała się bardzo szybko, była gotowa już pod koniec sierpnia 2011 r. Zacząłem projektowanie naTemat.pl we wrześniu, a skończony projekt przedstawiłem w połowie listopada. Prace graficzne zaczęły się około dwa tygodnie przed zamknięciem prototypów. W tym samym czasie zaczęliśmy też implementację programistyczną. To były bardzo pracujące święta Bożego Narodzenia dla naszych developerów 🙂 Zamkniętą wersję beta mieliśmy na początku stycznia, Tomek Machała skompletował wtedy pierwszy zespół redakcyjny, który zaczął tworzyć treści i wydawać „zerówki”. Zorganizowaliśmy dla nich też cykl szkoleń i spotkań z ciekawymi postaciami polskiego internetu. W lutym byliśmy gotowi do startu.

Dość dużo czasu zajęło nam przygotowanie się na sam start. W polskich realiach serwisy internetowe są uruchamiane zazwyczaj w modelu tzw. silent launch. Bez konferencji prasowych, bez kampanii informacyjnej. U nas było inaczej – start był zaplanowany na 22 lutego 2012 r., dokładnie o godzinie 11:00. Była konferencja prasowa, którą transmitowaliśmy live w internecie. Wszystkie redakcje w Polsce dostały informacje o godzinie startu. Podobna wiadomość została wysłana do wszystkich użytkowników, którzy wcześniej zostawili swoje e-maile na blogu poświęconym projektowi. Patrzyły więc na nas tysiące oczu.

Każdy, kto miał do czynienia z podobnymi wymaganiami i dużym ruchem internetowym, wie, jakie stawia to wymagania technologiczne. Naszemu zespołowi developerskiemu – kierowanemu przez Krzysztofa Pałkę, Bartka Stasiurkę i Mariusza Turka – udało się nie tylko nie przekroczyć terminu ani o minutę, ale i wytrzymać ogromne zainteresowanie serwisem bez nawet sekundy niedostępności. W szczytowym momencie notowaliśmy – bagatela – ponad 2300 odsłon na minutę (podkreślam: odsłon, nie requestów; każda odsłona to kilkadziesiąt requestów). Chapeau bas, panowie!

Co zmieniliście w NaTemat.pl po wdrożeniu? Czy pojawiły się jakieś zmiany wynikające z sygnałów od użytkowników, analizy statystyk, badań?

Większość nowości jest niewidoczna (lub niełatwa do zauważenia) dla użytkowników. Z tych bardziej rzucających się w oczy, mogę powiedzieć o grupowaniu elementów na stronie głównej za pomocą kolorowych apli. Projektowałem stronę główną naTemat.pl tak, aby dać redakcji maksymalnie dużą swobodę eksponowania treści. Pracując nad nią, kierowałem się sposobem projektowania wydań tradycyjnych, papierowych magazynów oraz skandynawskim designem. Dzięki takiemu podejściu, w odróżnieniu do większości innych mediów internetowych w kraju, naTemat.pl może być inny każdego dnia, może zaskakiwać użytkowników i opowiadać kolejne historie w różny sposób.

Oczywiście takie podejście rodzi też pewne problemy. Większości z nich nie widać na pierwszy rzut oka. Przykładowo każde większe wydarzenie, temat, zjawisko, jest zazwyczaj opisywane za pomocą wielu różnych materiałów, powiązanych ze sobą. Są to artykuły redakcyjne, wpisy blogerów, galerie zdjęć, etc. Zauważyliśmy w pewnym momencie, że modułowa konstrukcja strony głównej sprawia, że te powiązania nie są oczywiste dla użytkowników. Każdy materiał na stronie głównej funkcjonuje tam jak gdyby w oderwaniu od innych. Aby móc wizualnie połączyć ze sobą różne treści, wprowadziliśmy parę miesięcy po starcie stosunkowo proste rozwiązanie, polegające na podkładaniu jednolitego tła i opatrywaniu takiego modułu wspólnym tytułem. Rozwiązanie sprawdza się bardzo dobrze. Spójrzmy na prezentację materiałów związanych z abdykacją papieża. Dzięki fioletowej apli użytkownicy nie mają wątpliwości, że wszystkie sześć materiałów dotyczy właśnie tego tematu.

natemat

Tworzenie serwisów kontentowych, to nie tylko front-end, ale też dużo rzeczy niewidocznych dla użytkownika: pozyskiwanie treści, organizacja pracy redakcji, narzędzia i CMS dla redaktorów. Czy możesz powiedzieć coś na ten temat?

Cieszę się, że zadajesz to pytanie, bo pada ono wyjątkowo rzadko w dyskusjach branży UX na temat tworzenia mediów w internecie. Istotność dobrego front-endu jest nieoceniona, szczególnie w dzisiejszych czasach, ale nie można nie doceniać m.in. roli systemu CMS. Od przewidywalności jego projektantów zależy, na ile kreatywności będą mogli pozwolić sobie wydawcy. Przykładowo jeśli ich pole manewru na stronie głównej ogranicza się jedynie do manipulacji tytułem i pozycją materiału na liście linków, nie jest za dobrze. Stanowiska wydawców w internecie są coraz bardziej sprofesjonalizowane. Mając do dyspozycji dobre narzędzie, te osoby są w stanie zaprezentować treści w naprawdę zaskakująco ciekawy, nowoczesny sposób.

Mówienie o zarządzaniu stroną główną jest już zresztą banałem. Uwaga postępowych projektantów skupia się teraz raczej na najpopularniejszej stronie w każdym serwisie kontentowym – stronie artykułu (wpisu, treści). Jej konstrukcja w większości mediów internetowych jest wciąż do bólu standardowa. Tytuł, lid, zdjęcie, tekst i jakiś embed youtube’a w środku. Technologia pozwala dziś pójść o krok dalej i zaczerpnąć nieco więcej ze świetnych przykładów – w dziedzinie projektowania artykułów – jakich dostarcza prasa (w szczególności tygodniki i magazyny), czy takie narzędzia, jak aplikacja do tworzenia cyfrowych książek od Apple – iBooks Author. Artykuły w internecie mogą być bardziej zindywidualizowne, funkcjonalne i po prostu piękniejsze niż teraz. Jestem przekonany, że to jest kierunek, w którym – pod względem designu – będą zmierzać internetowe media.

Kwestią na osobną rozmowę jest utrzymanie łatwości obsługi takiego CMSa i proces edukacji redaktorów, by wiedzieli, jak poprawnie skorzystać z wszystkich jego możliwości. Pamiętam, jak parę miesięcy po starcie naTemat wprowadzaliśmy do naszego systemu kilka nowości. Któregoś dnia opisywałem ich działanie redakcji. Tomek Machała odpisał mi w odpowiedzi: „Stworzyliśmy potwora” 🙂 Aby CMS był nie tylko efektowny, ale i efektywny, trzeba poświęcić mu wyjątkowo dużo uwagi i dokładnie zrozumieć flow pracy redakcji. Jednocześnie wiem z doświadczenia, że projektowanie rozwiązań backoffice’owych to nie jest coś, co projektanci lubią najbardziej. Efekt naszej pracy widzi przecież tylko garstka ludzi. Niestety, czasem trzeba zagryźć usta.

Jakie narzędzia, oprogramowanie i metody wykorzystujecie przy projektowaniu? Research, makiety, prototypy, badania użyteczności, persony, burze mózgów?

Używamy z różną częstotliwością wszystkich, które wymieniłeś. Osobiście jestem tradycjonalistą i najbardziej cenię prototypowanie na papierze, tablice ze ścieralnymi flamastrami oraz po prostu rozmowy (nie tylko burze mózgów). Prototypy Hi-Fi robimy w Axure.

Oczywiście wszystko zależy od specyfiki konkretnego projektu. Z mojego doświadczenia wynika na przykład, że badania z użytkownikami, jakkolwiek ekscytujące, nie wnoszą zbyt wiele wartości przy pracy nad serwisami stricte kontentowymi, w szczególności informacyjnymi. Z kolei w projekcie, przy którym pracuję w tej chwili, nadzwyczaj użyteczne okazują się persony. Staramy się więc nie fetyszyzować żadnego narzędzia, a wykorzystywać raczej to, co ułatwia nam pracę lub dostarcza realnej wartości.

Co jest ważne przy współpracy z grafikami i IT? Jak to wygląda u Was?

Najważniejsze jest to, żeby pracować z najlepszymi 🙂 Ostateczna jakość każdego nowego bytu internetowego zależy od jakości najsłabszego ogniwa w zespole projektowym. Pracując z najlepszymi nie stracimy czasu na jałowe dyskusje o wielokrotnie przerobionych problemach. Lepiej skupić się na nowych zagadkach, których w nadmiarze dostarcza każdy nowy projekt. Równie istotne jest, aby każdy rozumiał swoją rolę w projekcie oraz doceniał wzajemnie swoje kompetencje. Tworzenie produktów internetowych to specyficzny rodzaj pracy zespołowej. Tutaj najlepsze produkty to wynik pracy wielu indywiduuów, ekspertów w swojej dziedzinie. W takim środowisku niezmiernie istotne jest zaufanie.

Pytasz o współpracę z grafikami. Ci najlepsi i najbardziej doświadczeni są specyficznym połączeniem wyrafinowanego artysty i sprawnego rzemieślnika. Potrafią perfekcyjnie balansować na granicy obu tych ról. Tym mniej doświadczonym zdarza się jednak ostro skręcać w jedną tylko stronę. W efekcie projekt jest albo poprawny lecz pozbawiony polotu, albo ładny lecz nieużyteczny i odstraszający elitarnością. Projektant UX powinien umieć zauważyć takie przesilenia i w porę zareagować. Czuwanie to jednak nie natarczywy nadzór czy inwazyjna kontrola. W takich warunkach żaden grafik nie radzi sobie zbyt dobrze.

Grafikom i projektantom jest do siebie dość blisko, więc ten rodzaj współpracy zazwyczaj układa się dobrze. Nie jest to takie oczywiste w przypadku developerów. Świat technologii i designu coraz bardziej zbliża się ku sobie, ale te dwie rzeczywistości wyrastają z nieco innych korzeni. Dla projektantów oznacza to konieczność znalezienia wspólnego języka z zespołem implementującym ich rozwiązania. Z tego powodu coraz trudniej wyobrazić mi sobie dobrego projektanta, któremu brakuje wiedzy na temat technologii – jej możliwości i ograniczeń. Nie chodzi mi tylko (choć także) o znajomość HTMLa, CSSa czy podstaw javascriptu. Ludzie zajmujący się UX muszą rozumieć, choćby na poziomie podstaw, jak funkcjonują bazy danych, co wpływa na czas ładowania strony, jakie techniki stosuje się w celu zwiększenia wydajności i co to oznacza dla projektanta. Muszą znać i rozumieć nowe trendy w technologiach, aby móc je wykorzystywać. Jeśli proponują podejście responsywne przy budowie serwisu, muszą rozumieć meandry media-queries oraz jakie wyzwania i problemy stawia takie podejście z punktu widzenia technologii. Chodzi o to, aby mogli dyskutować o projekcie z developerami, używając ostrych, precyzyjnych pojęć, zrozumiałych dla inżynierów. Celem nie jest dobra atmosfera w zespole, ale dobro produktu. Jakość UX serwisu internetowego jest liniowo zależna od jakości implementacji technologicznej. Żaden projektant nie może sobie dziś pozwolić na traktowanie tego elementu z przymrużeniem oka. Takie właśnie podejście staram się krzewić w naszej organizacji.

Design thinking, to coś nowego, wartościowego, czy raczej marketingowy bullshit? 🙂

Nie cierpię modnych buzzwordów w rodzaju „design thinking”. To efektowne, medialne sformułowania, które banalizują i spłaszczają realne zjawiska czy problemy. Pojęcie „design thinking” tworzy złudną, bajkową wizję projektowania czy myślenia o designie. Daje do zrozumienia, że „każdy może”, że to łatwe, przyjemne, zabawne, a może wręcz modne.

Oczywiście „design thinking” jest zdecydowanie nieodzownym elementem osobowości każdego projektanta. Nie jestem jednak przekonany, że potrzebuje własnego terminu. Tej specyficznej kreatywności nie da się przecież wyciągnąć przed nawias i rozpatrywać w oderwaniu od wszystkiego innego. Projektowanie to ciężka praca, która nie ogranicza się do generownia dziesiątek pomysłów i utrwalania ich na post-itach. To długie, żmudne dopracowywanie koncepcji i detalu. Wiele nieudanych prototypów. To nieustanne aktualizowanie swojej wiedzy i weryfikowanie stereotypów. To konieczność sprawnego poruszania się w świecie technologii, grafiki czy typografii. To poznawanie zasad i podejmowanie prób ich złamania. To długie noce i niewyspane poranki.

Ani to banalne, ani dostępne dla każdego.

Co sądzisz o jakości internetowych mediów – czy jesteśmy skazani na internetową papkę o majtkach Dody, artykuły przepisywane przez studentów z Zachodnich portali i newsy z agencji prasowych, bo mało kto będzie chciał płacić za rzetelne dziennikarstwo?

Te „majtki Dody”, o których piszesz, to tak naprawdę efekt kryzysu modelu biznesowego mediów w sieci. Polega on dziś w uproszczeniu na tym, że im więcej masz odsłon, tym więcej kasy zarabiasz. Jeśli chcesz więc wzrostu przychodów, musisz zwiększyć liczbę odsłon. Jedynym sposobem jest nakłonienie użytkowników, aby częściej klikali w Twoje treści. Metod jest sporo. Jedną z nich są właśnie majtki dody, czyli materiały związane z seksem, skandalem, celebrytami, przemocą, itp. Innymi są wielostronicowe galerie, tzw. odsłonoroby, czy kłamliwe tytuły.

Oczywiście model, o którym mówię, nie funkcjonuje w oderwaniu od podstawowych zasad ekonomii. Prawa równowagi rynkowej mówią, że im większa podaż czegoś, tym niższa cena za to coś. Z taką sytuacją mamy do czynienia na rynku mediów internetowych. Portale i duzi wydawcy tak bardzo skupili się maksymalizacji zysku przez zwiększanie liczby odsłon, że wywołali ich nadpodaż. To doprowadziło do drastycznego spadku stawek. Innymi słowy, za tyle samo odsłon, reklamodawcy chcą dziś płacić mniej niż kiedyś. Żeby utrzymać biznes właściciele mediów muszą więc dalej brać udział w tym chorym wyścigu i zdobywać tych odsłon jeszcze więcej. Koło się zamyka. Jednocześnie, aby nie dokładać do interesu, wydawcy tną koszty w swoich organizacjach. Największy w nich udział mają zawsze pensje. I tutaj znajduje się odpowiedź, dlaczego treści w serwisach informacyjnych to coraz częściej przepisywane przez studentów notki z zagranicznych źródeł.

Oczywiście dość mocno uprościłem całe zjawisko, ale chodziło mi o zarysowanie problemu. Pewne jest to, że dopóki nie zmieni się model monetyzacji mediów w sieci, dopóty niewiele się zmieni, jeśli chodzi o ich jakość i opłacalność tych biznesów. Na szczęście powoli docieramy do momentu przesilenia i jestem przekonany, że coś się w tym obszarze musi zmienić.

Czy w takim razie jakąś odpowiedzią na te problemy są płatności za treści? Co sądzisz o systemie Piano?

Muszę przyznać, że od początku zupełnie w niego nie wierzę. Oczywiście rozumiem motywację wydawców do podjęcia eksperymentu. Jestem w stanie zrozumieć (choć ich nie podzielam) argumenty o konieczności wykonania pierwszego kroku w kierunku spopularyzowania płacenia za treści. Piano jednak, bardziej niż eksperyment, przypomina akt desperacji, czy może ślepą wiarę w cud. Być może dramatycznie się mylę, ale widzę znikomą wartość w treściach, które są dostępne przez Piano. Nie wiem, na czym miałaby polegać motywacja użytkowników do skorzystania z tego systemu. Widzę też wiele barier na poziomie customer experience.

Płatność za treści wydaje mi się możliwa dopiero po rozgryzieniu kilku problemów: wartości dla użytkownika, sposobu płatności i momentu jej dokonania.

Abonamentowa płatność z góry, jaką proponuje Piano (a więc de facto cykliczne kupowanie obietnicy), jest moim zdaniem bardzo nienaturalna. Założenie, że zasługuje się na takie zaufanie, to wręcz pewna pycha wydawców. Jeśli mam już za coś płacić, to chce mieć nad tym pełną kontrolę. Chce kupować tylko te jednostki kontentu (konkretne artykuły), które akurat mnie zainteresują. Innym podejściem mogłoby być uczynienie momentu płatności niewidzialnym poprzez np. umieszczenie tej opłaty w kosztach dostępu do internetu. To jednak rodzi wątpliwości co do przyszłej wolności internetu i nie jestem pewien, czy da się te kontrowersje jakoś zniwelować.

Kupowanie pojedynczych jednostek kontentu od razu rodzi zaś problem dokonywania mikropłatności. Wciąż bowiem nie dorobiliśmy się żadnego sensownego mechanizmu dokonywania drobnych opłat w internecie. Istniejące są albo kompletnie nieopłacalne dla wydawców (płatność smsem), albo zbyt uciążliwe dla użytkowników (płatność przelewem lub kartą). Jeśli szukać gdzieś inspiracji, to pewnie w tym, co robi Apple, które od lat konsekwentnie buduje swój gigantyczny, choć zamknięty, model mikropłatności.

Ostatnim problemem jest wartość dla użytkownika. Coraz częściej mam wrażenie, że oczekiwanie zapłaty za kontent ogólnospołeczny czy ogólnopolityczny (newsy, publicystykę, opinie, dziennikarstwo śledcze, etc.) jest mrzonką i chciejstwem. Te treści muszą się finansować w inny sposób, niestety. Wydaje mi się, że płatności można odpowiedzialnie oczekiwać wyłącznie za kontent tematyczny, a co więcej specjalistyczny lub ekspercki. Nie oznacza to, że musi on być trudny czy nadzwyczaj wysublimowany. Chodzi raczej o to, żeby był fachowy, użyteczny, żeby nie był ogólny oraz żeby budził zaufanie. To jest wartość, którą można wycenić.

A co z prasą, jak widzisz jej przyszłość? Czy papier upadnie?

Przyszłość prasy jest cholernie trudna do przewidzenia. Główne pytanie brzmi, czy papier w ogóle przetrwa, czy też to, co nazywamy „prasą” przeniesie się po prostu w całości do postaci elektronicznej. Nie lubię bardzo długoterminowych przepowiedni, więc podzielę się jedynie przeczuciem. Wydaje mi się, że w perspektywie najbliższych 3 lat prasa raczej nie umrze, ale jej oblicze mocno się zmieni. Ta zmiana, jak sadzę, odbędzie się w trzech obszarach.

  • Specjalizacja treści. Ze względu na dzisiejszy model monetyzacji mediów internetowych sieć jest zalana treściami ogólnymi i popularnymi. Dotyczy to treści z każdej dziedziny: polityki, gospodarki, muzyki, sportu czy technologii. Tu prasa nie ma żadnej zdolności konkurencyjnej, a wszystko co ogólnego i popularnego wytworzy, zostanie błyskawicznie zagregowane (czy przedrukowane) w internecie. I właśnie tam, w internecie, będzie pierwotnie konsumowane przez czytelników. Każda złotówka poświęcona na produkcję takich treści jest więc de facto stracona. Tym, czego internet tak łatwo i chętnie nie przedrukuje (bo nie będzie mu się to opłacało), jest kontent niepopularny – ekspercki i specjalistyczny. Takie treści wciąż nie są tak proste do pozyskania dla przeciętnego użytkownika internetu. Tutaj jest dla prasy szansa i potencjał. Oznacza to co prawda konieczność jej uniszowienia, ale z drugiej strony daje szansę na zbudowanie atrakcyjnego dla reklamodawców profilu grupy docelowej.
  • Zmiana formatów. Nie wyobrażam sobie w dłuższej perspektywie istnienia dzienników i tygodników. Sensowną drogą dla prasy jest jej umagazynowienie i zmiana cyklu wydawniczego na co najmniej miesięczny. Chodzi o potrzeby czytelników oraz o koszty. Zalew kontentu w internecie powoduje, że potrzeba konsumpcji treści jest na co dzień zaspokojona. Nawet kiedy trafimy na coś ciekawego, coraz częściej „odkładamy to na później”, bo możliwości „przejedzenia” kontentu w jednostce czasu są ograniczone. Nie ma więc potrzeby zwiększania kosztów produkcji w celu zachowania krótkiego cyklu wydawniczego. Bułki też można dowozić do sklepu co pół godziny, ale robi się to zazwyczaj tylko z rana.
  • Zmiana modelu dystrybucji. Chodzi o zmniejszenie bariery wejścia dla czytelników. Żeby nabyć dziś dowolny tytuł prasowy, trzeba się nieco natrudzić. Albo wyjść do kiosku, albo zamówić prenumeratę. To nieporównanie większy wysiłek do wpisania w przeglądarce wu wu wu onet pe el. Potrzeba zmiany w tym obszarze nasuwa się sama. Jak miałoby to wyglądać to pytanie, które powinni sobie zadać zarządzający dzisiejszymi przedsiębiorstwami prasowymi.

Jak oceniasz polski rynek UX? Jakie są cechy i umiejętności dobrego projektanta UX? Czy trudno o takich ludzi w Polsce?

Tak jak wspomniałem na początku, wierzę w holistyczne podejście do projektowania UX. Jestem przekonany, że dzisiejsi projektanci powinni być ludźmi renesansu, którzy rozumieją biznes, technologię i design. Potrafią zauważyć zmiany zachodzące w przyzwyczajeniach konsumentów, czytelników czy po prostu użytkowników.

Chyba nie ma sensu prawić sobie czczych laurek, więc muszę przyznać, że takich ludzi nie ma niestety na rynku zbyt wiele. Pokutuje nieco funkcjonująca jeszcze do niedawna maniera rozdrabniania UX na dziesiątki poddziedzin – projektowanie interakcji, architekturę informacji, strategię kontentową, etc. Według mnie to nie są osobne zawody, ale kompetencje, które powinien posiadać absolutnie każdy projektant. Poza nimi jest jeszcze wiele innych, ale o tym powiedziałem już wcześniej.

Polska branża UX wydaje mi się także wciąż niewystarczająco odważna. Oczekiwałbym od rodzimych projektantów, aby częściej zastanawiać się nad stereotypami. Niektóre z nich są pożyteczne, ale ogromna ich ilość to po prostu zaszłości z czasów, kiedy zachowania użytkowników oraz cele biznesowe właścicieli były diametralnie inne od dzisiejszych. Wiem jednocześnie, jak trudną sztuką jest przekonywanie innych do łamania ustalonych reguł. Wiem także, jak niełatwą sztuką jest branie odpowiedzialności za innowacje. Niemniej, jeśli kocha się tę pracę, to powinno się dążyć do progresu. Dzięki temu można być dumnym ze swoich projektów. I ja, bez zbędnej skromności, ze swoich taką właśnie dumę czerpię 🙂

3 komentarze

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *