Przyszłość interfejsów: od GUI do ZUI. Czy AI sprawi, że zniknie interfejs, jaki znamy?
Zero User Interface (ZUI) to koncepcja, która jeszcze dekadę temu wydawała się futurystyczną mrzonką. Dziś – dzięki dynamicznemu rozwojowi sztucznej inteligencji – powoli przestaje być wizją, a zaczyna być projektowym wyzwaniem. Podczas konferencji Mobile Trends Conference Filip Makowiecki, service designer i wykładowca SWPS, postawił prowokujące pytanie: czy w świecie generatywnego AI interfejsy graficzne w ogóle będą jeszcze potrzebne?
Jak muzyka pomogła zrozumieć rewolucję w interfejsach
Makowiecki rozpoczął swoją prezentację od analogii z muzyką. Tradycyjne instrumenty potrzebowały trzech elementów: wibratora, incytatora i rezonatora. Przez wieki zmieniały się ich formy, ale idea działania pozostała. Dopiero wynalezienie tereminu – instrumentu, który działa bez fizycznego dotyku – zburzyło dotychczasowe myślenie o sposobie interakcji muzyka z dźwiękiem.
Ten sam proces zachodzi dziś w świecie cyfrowym. Interfejsy użytkownika (GUI), mimo ogromnego postępu technologicznego, nadal często przypominają swoje analogowe pierwowzory. Tymczasem sztuczna inteligencja może być naszym „tereminem” – zmianą paradygmatu, która prowadzi do świata Zero User Interface.
AI jako nowy materiał projektowania
Choć AI traktujemy dziś głównie jako narzędzie wspierające pracę projektantów – np. w generowaniu treści, kodu czy layoutów – Makowiecki przekonuje, że powinniśmy zacząć myśleć o AI jako o materiale projektowym.
Tak jak nie projektujemy kubków z drewna, tak nie powinniśmy bezrefleksyjnie osadzać AI w istniejących strukturach interfejsów. Tymczasem to właśnie się dzieje – wiele wdrożeń AI to zwykłe „doklejenie” chatbotów do starych UI, bez rzeczywistego przemyślenia interakcji.
Przykłady? Asystent AI w Snapchacie, który nie wiadomo do czego służy. Wyszukiwarka mieszkań, która z zaawansowanego modelu robi zwykły formularz. Nawet inteligentna szczoteczka do zębów – efekt rozbuchanej mody na wszystko z dopiskiem „AI”.
Trzy poziomy zgodności w projektowaniu z AI
Jak więc powinniśmy myśleć o AI w interfejsach? Makowiecki wyróżnia trzy kluczowe wymiary zgodności:
1. Zgodność z systemem
Czyli techniczna poprawność działania. Chatbot rozumie język użytkownika, rysuje obrazki na życzenie, generuje kod zgodnie z regułami składni. Z tym AI radzi sobie dziś całkiem dobrze.
2. Zgodność z intencją
Czyli – czy AI naprawdę rozumie, czego chcemy? To obszar, który wciąż sprawia problemy. Prompty stają się coraz bardziej elastyczne, ale błędy, halucynacje i niezrozumienie kontekstu nadal się zdarzają.
3. Zgodność z rzeczywistością
Najtrudniejszy poziom. AI nie działa deterministycznie. Generatywne modele nie „znają” faktów – one generują prawdopodobne odpowiedzi. To nie jest wyszukiwarka. To sen o rzeczywistości – i tylko czasem trafiony.
Pattern Pinokia i inne nowe wzorce interfejsów
Makowiecki zachęca, by szukać nowych wzorców projektowania. Jednym z nich jest tzw. Pinokio Pattern – użytkownik podaje prosty input (np. kilka słów lub szkic), a AI tworzy z tego coś bardziej „żywego”: grafikę, prezentację, utwór muzyczny, czy dashboard. Jak w bajce: z drewna powstaje chłopiec.
To otwiera pole do zupełnie nowej kategorii interfejsów – dynamicznych, personalizowanych, budowanych w czasie rzeczywistym. Przykładem może być Generative Dashboard od Salesforce, który na żywo dopasowuje układ treści do roli i kontekstu użytkownika.
Multimodalność: komunikacja bez granic
AI pozwala na interakcję w wielu modalnościach jednocześnie: tekst, głos, obraz, wideo. Przykład? Użytkownik pokazuje kamerze zmywarkę – a chatbot AI krok po kroku instruuje, jak ją naprawić. To nie jest już rozmowa w stylu Messenger. To asystent w czasie rzeczywistym, reagujący na otoczenie.
Multimodalność sprawia, że interfejs staje się bardziej kontekstowy. Rozumie miejsce, sytuację i potrzeby użytkownika – a nie tylko kliknięcia czy wpisane słowa.
Proaktywność: AI, które wyprzedza potrzeby
Nowoczesne AI nie tylko reaguje. Potrafi też przewidywać. Google Forms podpowiada typ pytania na podstawie jego treści. Miro grupuje karteczki i wciela się w rolę product managera, który komentuje nasze działania na tablicy.
To przykład projektowania proaktywnego interfejsu, który nie czeka na pytanie, tylko sam proponuje kolejne kroki. I nie dzieje się to w oknie chatu, ale tam, gdzie działa użytkownik – w kontekście zadania.
Czy Zero UI to przyszłość?
Zero User Interface to idea, w której interfejs przestaje być widoczny. System rozumie nasz kontekst, intencje i działanie – i po prostu robi to, co powinien. Przykłady już są:
- face ID – rozpoznaje twarz, bez potrzeby wpisywania kodu,
- smart parking rowerowy – rozpoznaje, że użytkownik zszedł z roweru i automatycznie uruchamia proces zabezpieczenia,
- brain-to-QWERTY – projekt Mety, pozwalający pisać „myślami” dzięki magnetoencefalografii.
Ale nie każda technologia prowadzi do uproszczenia. Przeciwnie – niektóre rozwiązania (jak Apple Vision Pro) mogą tworzyć jeszcze bardziej rozbudowane, wymagające interfejsy. Dlatego – jak podkreśla Makowiecki – AI trzeba projektować, pamiętając o równowadze między technologiczną wykonalnością, potrzebami użytkownika i celami biznesowymi.
Podsumowanie: AI to nie narzędzie, to materiał
Zamiast traktować sztuczną inteligencję wyłącznie jako narzędzie, warto zacząć postrzegać ją jako materiał projektowy – dynamiczny, probabilistyczny, multimodalny i proaktywny. Przykłady nowych rozwiązań pokazują, że AI może nie tylko wspierać użytkownika, ale też aktywnie kształtować doświadczenie i dopasowywać się do jego kontekstu w czasie rzeczywistym. W konsekwencji prowadzi nas to w kierunku interfejsów niemal niewidzialnych – Zero User Interface – które działają bez potrzeby angażowania użytkownika w tradycyjną formę interakcji.
Świat interfejsów zmienia się szybciej niż kiedykolwiek wcześniej. Pytanie brzmi już nie czy, ale kiedy interfejsy, jakie znamy, staną się przeszłością.
Artykuł powstał na podstawie prelekcji Filipa Makowieckiego wygłoszonej podczas Mobile Trends Conference 2025. Nagrania prelekcji dostępne do zakupu tutaj. A o bieżącej edycji Mobile Trends Conference przeczytasz tutaj.
