
Human-in-the-loop: klucz do zaufania i budowy odpowiedzialnej AI
Rozwój sztucznej inteligencji nabiera tempa – jednak z tą technologiczną rewolucją wiąże się równie istotna potrzeba: zbudowania zaufania. Kasia Szczesna, ekspertka zajmująca się projektowaniem etycznych systemów AI, podczas prelekcji na Mobile Trends Conference pokazała, że kluczem do stworzenia odpowiedzialnych rozwiązań jest nie tyle eliminacja człowieka z procesu, co jego świadome i celowe włączenie. Tak rodzi się koncepcja Human-in-the-loop – podejścia, które umożliwia tworzenie technologii wspierających ludzi, a nie zastępujących ich za wszelką cenę.
Chatbot, który „odpowiada sam za siebie”? Przykład, który uczy pokory
Jednym z najbardziej obrazowych przykładów nieodpowiedzialnego użycia AI była sprawa Air Canada, gdzie chatbot podał błędną informację o zniżkach pogrzebowych. Klient, który na tej podstawie zakupił bilet, został odprawiony z kwitkiem – linia lotnicza próbowała się wyprzeć odpowiedzialności, twierdząc, że „to wina bota”. Sprawa trafiła do sądu, który… przyznał rację klientowi.
Jak skomentowała to Marisa Garcia, ekspertka branży lotniczej:
„To nie jest obowiązek pasażerów, aby wiedzieć, że chatbot może się mylić”.
To wydarzenie obnaża kluczowy problem współczesnych wdrożeń AI – brak przejrzystości, odpowiedzialności i przemyślanego projektowania etycznego.
Co to jest Responsible AI i jak ją zoperacjonalizować?
Responsible AI (odpowiedzialna sztuczna inteligencja) to podejście, które łączy technologię, etykę i projektowanie w duchu człowieka. To nie tylko zbiór wartości – to konkretne narzędzia i procesy, które pozwalają wdrażać etykę w praktyce.
Przykład? Scotiabank
Bank stworzył aplikację „AI for AI”, której nie tylko powierzono kontakt z klientem, ale też zapewniono pełną przejrzystość działania. Edukacja pracowników, kontrola jakości i optymalizacja procesu sprawiły, że 40% interakcji odbywało się z pomocą AI, a czas obsługi przez człowieka skrócił się o 70% – dzięki temu, że chatbot podsumowywał kluczowe informacje.
Human-in-the-loop: człowiek jako strażnik sensu
Nowoczesna AI potrafi generować obrazy, teksty, decyzje. Ale czy każde zadanie musi być zautomatyzowane? Kasia Szczesna pokazuje, że w wielu przypadkach ważniejszy jest proces niż sam rezultat. Szczególnie w IT, gdzie rezultat bywa zmienny i nieprzewidywalny.
Przykład? Łączenie dzieł sztuki w jednym promptcie. Technicznie możemy połączyć “Krzyk” Muncha z romantycznym pejzażem – ale znaczeniowo to może być chaos.
Dlatego tak ważne jest pytanie:
Co by było, gdybyśmy automatyzację traktowali nie jako eliminację człowieka, ale jego selektywne włączenie?
Zaufanie, nie manipulacja: lekcje z ekonomii behawioralnej
W budowaniu AI warto sięgać po wiedzę z ekonomii behawioralnej. Kasia Szczesna przywołuje koncepcje nudgingu(kuksańca) Richarda Thalera – czyli drobnych impulsów, które kierują ludzkim wyborem. Problem? Łatwo tu przejść z etyki do manipulacji.
Przykład? Booking.com kiedyś pokazywał, że „został tylko jeden pokój” – dziś pokazuje też te niedostępne, co paradoksalnie zwiększyło konwersję.
Zaufanie wiąże się też z efekt trudności (effort justification) – im więcej wysiłku wkładamy, tym bardziej doceniamy rezultat. To wpływa na motywację i poczucie kontroli.
Przejrzystość, kauzalność i XAI
W centrum odpowiedzialnej AI leży wyjaśnialność (Explainable AI) oraz kauzalność – użytkownik musi rozumieć, jak powstała dana odpowiedź i jakie czynniki na nią wpłynęły. Przejrzyste modele, interaktywne interfejsy i możliwość zadania pytania zamiast przyjmowania wszystkiego na wiarę – to fundament budowy zaufania.
Warto tu stosować podejście:
Jeśli nie jesteśmy pewni – postawmy pytajnik, a nie kropkę.
Dark patterns pod lupą regulatorów
Odpowiedzialność to także kwestia prawa. UOKiK opublikował Białą Księgę dotyczącą tzw. dark patterns – technik projektowania interfejsów, które manipulują użytkownikiem. Aż 75% zbadanych stron i aplikacji stosowało co najmniej jeden z takich wzorców.
Najczęstsze dark patterns:
- Nagging – natarczywe prośby o akceptację.
- Preselection – domyślnie zaznaczone zgody.
- Obstruction – utrudniona rezygnacja.
- Confusion – niejasny język, podwójne zaprzeczenia.
Etyczny framework: projektuj środowisko, nie człowieka
Na zakończenie Kasia Szczesna zaprezentowała swój Ethical AI + Human Behaviour Framework – narzędzie wspierające zespoły projektowe i biznesowe. Jego kluczowym przesłaniem jest:
„Nie zmieniaj człowieka. Zmień środowisko, w którym podejmuje decyzje” – Harvard Business School
Projektując z człowiekiem w centrum i z wiedzą o jego zachowaniach, możemy wpływać w etyczny sposób – budując zaufanie, przejrzystość i skuteczność.
Podsumowanie
Ostatecznie, odpowiedzialna sztuczna inteligencja to nie tylko kwestia technologii, ale przede wszystkim świadomego projektowania z udziałem człowieka. Podejście Human-in-the-loop pozwala budować systemy, które są nie tylko skuteczne, ale też przejrzyste, etyczne i godne zaufania. To właśnie człowiek – obecny w procesie – nadaje sens i odpowiedzialność działaniom AI.
Artykuł powstał na podstawie prelekcji Katarzyny Szczesnej podczas Mobile Trends Conference 2025. Nagrania z prelekcji Kasi oraz wystąpienia innych prelegentów dostępne są do zakupienia tutaj!
A jeśli chciał_byś dowiedzieć się więcej na temat nowych technologii, innowacji i bizensu to serdecznie zapraszamy na Mobile Trends for Experts, która odbędzie się w dniach 20-21 października w Warszawie. Tutaj możesz poczytać więcej i kupić bilet.