Konferencje
Mobile Trends
human-in-the-loop: klucz do zaufania i budowy odpowiedzialnej AI

Human-in-the-loop: klucz do zaufania i budowy odpowiedzialnej AI

Rozwój sztucznej inteligencji nabiera tempa – jednak z tą technologiczną rewolucją wiąże się równie istotna potrzeba: zbudowania zaufania. Kasia Szczesna, ekspertka zajmująca się projektowaniem etycznych systemów AI, podczas prelekcji na Mobile Trends Conference pokazała, że kluczem do stworzenia odpowiedzialnych rozwiązań jest nie tyle eliminacja człowieka z procesu, co jego świadome i celowe włączenie. Tak rodzi się koncepcja Human-in-the-loop – podejścia, które umożliwia tworzenie technologii wspierających ludzi, a nie zastępujących ich za wszelką cenę.

Chatbot, który „odpowiada sam za siebie”? Przykład, który uczy pokory

Jednym z najbardziej obrazowych przykładów nieodpowiedzialnego użycia AI była sprawa Air Canada, gdzie chatbot podał błędną informację o zniżkach pogrzebowych. Klient, który na tej podstawie zakupił bilet, został odprawiony z kwitkiem – linia lotnicza próbowała się wyprzeć odpowiedzialności, twierdząc, że „to wina bota”. Sprawa trafiła do sądu, który… przyznał rację klientowi.

Jak skomentowała to Marisa Garcia, ekspertka branży lotniczej:

„To nie jest obowiązek pasażerów, aby wiedzieć, że chatbot może się mylić”.

To wydarzenie obnaża kluczowy problem współczesnych wdrożeń AI – brak przejrzystości, odpowiedzialności i przemyślanego projektowania etycznego.

Co to jest Responsible AI i jak ją zoperacjonalizować?

Responsible AI (odpowiedzialna sztuczna inteligencja) to podejście, które łączy technologię, etykę i projektowanie w duchu człowieka. To nie tylko zbiór wartości – to konkretne narzędzia i procesy, które pozwalają wdrażać etykę w praktyce.

Przykład? Scotiabank

Bank stworzył aplikację „AI for AI”, której nie tylko powierzono kontakt z klientem, ale też zapewniono pełną przejrzystość działania. Edukacja pracowników, kontrola jakości i optymalizacja procesu sprawiły, że 40% interakcji odbywało się z pomocą AI, a czas obsługi przez człowieka skrócił się o 70% – dzięki temu, że chatbot podsumowywał kluczowe informacje.

Human-in-the-loop: człowiek jako strażnik sensu

Nowoczesna AI potrafi generować obrazy, teksty, decyzje. Ale czy każde zadanie musi być zautomatyzowane? Kasia Szczesna pokazuje, że w wielu przypadkach ważniejszy jest proces niż sam rezultat. Szczególnie w IT, gdzie rezultat bywa zmienny i nieprzewidywalny.

Przykład? Łączenie dzieł sztuki w jednym promptcie. Technicznie możemy połączyć “Krzyk” Muncha z romantycznym pejzażem – ale znaczeniowo to może być chaos.

Dlatego tak ważne jest pytanie:

Co by było, gdybyśmy automatyzację traktowali nie jako eliminację człowieka, ale jego selektywne włączenie?

Zaufanie, nie manipulacja: lekcje z ekonomii behawioralnej

W budowaniu AI warto sięgać po wiedzę z ekonomii behawioralnej. Kasia Szczesna przywołuje koncepcje nudgingu(kuksańca) Richarda Thalera – czyli drobnych impulsów, które kierują ludzkim wyborem. Problem? Łatwo tu przejść z etyki do manipulacji.

Przykład? Booking.com kiedyś pokazywał, że „został tylko jeden pokój” – dziś pokazuje też te niedostępne, co paradoksalnie zwiększyło konwersję.

Zaufanie wiąże się też z efekt trudności (effort justification) – im więcej wysiłku wkładamy, tym bardziej doceniamy rezultat. To wpływa na motywację i poczucie kontroli.

Przejrzystość, kauzalność i XAI

W centrum odpowiedzialnej AI leży wyjaśnialność (Explainable AI) oraz kauzalność – użytkownik musi rozumieć, jak powstała dana odpowiedź i jakie czynniki na nią wpłynęły. Przejrzyste modele, interaktywne interfejsy i możliwość zadania pytania zamiast przyjmowania wszystkiego na wiarę – to fundament budowy zaufania.

Warto tu stosować podejście:

Jeśli nie jesteśmy pewni – postawmy pytajnik, a nie kropkę.

Dark patterns pod lupą regulatorów

Odpowiedzialność to także kwestia prawa. UOKiK opublikował Białą Księgę dotyczącą tzw. dark patterns – technik projektowania interfejsów, które manipulują użytkownikiem. Aż 75% zbadanych stron i aplikacji stosowało co najmniej jeden z takich wzorców.

Najczęstsze dark patterns:

  • Nagging – natarczywe prośby o akceptację.
  • Preselection – domyślnie zaznaczone zgody.
  • Obstruction – utrudniona rezygnacja.
  • Confusion – niejasny język, podwójne zaprzeczenia.

Etyczny framework: projektuj środowisko, nie człowieka

Na zakończenie Kasia Szczesna zaprezentowała swój Ethical AI + Human Behaviour Framework – narzędzie wspierające zespoły projektowe i biznesowe. Jego kluczowym przesłaniem jest:

„Nie zmieniaj człowieka. Zmień środowisko, w którym podejmuje decyzje” – Harvard Business School

Projektując z człowiekiem w centrum i z wiedzą o jego zachowaniach, możemy wpływać w etyczny sposób – budując zaufanie, przejrzystość i skuteczność.

Podsumowanie

Ostatecznie, odpowiedzialna sztuczna inteligencja to nie tylko kwestia technologii, ale przede wszystkim świadomego projektowania z udziałem człowieka. Podejście Human-in-the-loop pozwala budować systemy, które są nie tylko skuteczne, ale też przejrzyste, etyczne i godne zaufania. To właśnie człowiek – obecny w procesie – nadaje sens i odpowiedzialność działaniom AI.

Artykuł powstał na podstawie prelekcji Katarzyny Szczesnej podczas Mobile Trends Conference 2025. Nagrania z prelekcji Kasi oraz wystąpienia innych prelegentów dostępne są do zakupienia tutaj!
A jeśli chciał_byś dowiedzieć się więcej na temat nowych technologii, innowacji i bizensu to serdecznie zapraszamy na Mobile Trends for Experts, która odbędzie się w dniach 20-21 października w Warszawie. Tutaj możesz poczytać więcej i kupić bilet.

Udostępnij
Mobile Trends
Zobacz także