Konferencje
Mobile Trends
Prelegentka Doda Szymborska podczas swojego wystąpienia na Mobile Trends Conference 2025

Etyczna sztuczna inteligencja – czy to w ogóle możliwe?

Czy sztuczna inteligencja może być etyczna? To pytanie, które zadaje sobie coraz więcej osób w świecie technologii, prawa, edukacji i biznesu. Podczas Mobile Trends Conference 2025 w Krakowie, Dota Szymborska – filozofka, wykładowczyni i badaczka etyki AI – wygłosiła inspirującą i jednocześnie krytyczną prelekcję, która otworzyła oczy wielu uczestnikom. Wnioski? Na ten moment sztuczna inteligencja etyczna nie jest, ale może być – o ile to my ją tak zaprojektujemy.

Czym jest etyczna AI – a czym nie jest?

Już na początku wystąpienia padła mocna teza: sztuczna inteligencja nie jest etyczna i nigdy nie będzie – przynajmniej na razie. Dlaczego? Bo nie posiada sumienia, nie zna dobra ani zła, nie odczuwa emocji i nie ma wartości moralnych. To nie myślący byt, ale zaawansowany system statystyczny.

Ale dobra wiadomość jest taka, że to my – ludzie – możemy zaprogramować ją tak, aby działała w sposób zgodny z naszymi wartościami. Warunek? Musimy wiedzieć, jakie wartości chcemy jej przekazać i w jakim kontekście kulturowym.

Filozofia na ratunek technologii

Dota Szymborska przeprowadziła słuchaczy przez najważniejsze nurty filozoficzne, które mogą wspierać rozwój etycznej AI:

  • Platon i jego idea dobra – AI powinna być projektowana z myślą o wartościach wykraczających poza bieżący interes biznesowy.
  • Immanuel Kant i deontologia – czyli etyka obowiązku, która zakłada, że pewne działania są moralne niezależnie od skutków.
  • Carol Gilligan i etyka troski – sztuczna inteligencja, która dba, a nie tylko decyduje.
  • John Rawls i „zasłona niewiedzy” – sposób na zaprojektowanie systemu AI, który działa sprawiedliwie, bez stronniczości.

To podejście pozwala tworzyć technologie, które nie tylko działają, ale też działają słusznie.

Uprzedzenia w danych – największe zagrożenie

Jednym z kluczowych tematów poruszonych podczas prelekcji były uprzedzenia w danych (bias). Dota Szymborska podkreśliła, że bias to nie tylko błąd techniczny – to problem etyczny. Przykłady?

  • System rekrutacyjny Amazona, który dyskryminował kobiety.
  • Algorytmy Google błędnie klasyfikujące osoby o ciemnym kolorze skóry.
  • System COMPAS, faworyzujący osoby białe w prognozowaniu recydywy w USA.

Bias może mieć trzy źródła:

  1. Bias danych – czyli stronniczość już na etapie zbierania informacji.
  2. Bias projektowania – wynikający z nieświadomych decyzji programistów.
  3. Bias interpretacji – czyli ludzkie odczytywanie wyników AI przez pryzmat stereotypów.

Przykład? Model trenowany do rozpoznawania malamutów nauczył się… rozpoznawać śnieg, bo wszystkie zdjęcia psów pochodziły z zimowych scenerii. Efekt? Kota na śniegu również uznał za malamuta.

Etyka projektowania – na każdym etapie

Dota Szymborska zwróciła uwagę, że etyka musi towarzyszyć projektowi AI na trzech etapach:

  1. Przed wdrożeniem – ocena wpływu społecznego, kontekst kulturowy, odpowiedzialność za skutki.
  2. W trakcie – ciągłe monitorowanie działania algorytmu.
  3. Po wdrożeniu – gotowość do korekty, weryfikacja efektów, system reklamacji.

To podejście nazywane jest “etyką jako usługą” – nie dodatkiem marketingowym, ale integralnym elementem projektowania nowoczesnych technologii.

Transparentność zamiast czarnej skrzynki

Jak wyeliminować błędy i uprzedzenia? Zamiast działać w oparciu o black box – systemy, których decyzji nie da się prześledzić – powinniśmy dążyć do modelu glass box, czyli przezroczystości i pełnej informacji o tym, jak powstają rekomendacje AI.

Choć jest to droższe i bardziej czasochłonne, daje szansę na bardziej sprawiedliwe decyzje – szczególnie w obszarach wrażliwych, takich jak prawo, opieka zdrowotna czy rekrutacja.

Kodeks etyczny AI – nie tylko na pokaz

Dota Szymborska wspomniała również o swojej pracy z firmami nad tworzeniem kodeksów etycznych dla projektów opartych na AI. W odróżnieniu od ogólnych deklaracji, takich jak „misja firmy”, kodeks etyczny:

  • określa konkretne zasady postępowania,
  • wyznacza granice odpowiedzialności,
  • daje realne narzędzia do działania w sytuacjach niejednoznacznych.

To kompas moralny, który może chronić nie tylko użytkowników, ale też samą firmę.

Czy etyczna AI jest możliwa?

Odpowiedź? Tak – ale tylko wtedy, gdy ją stworzymy.

Etyczna AI to nie kwestia przyszłości, ale odpowiedzialności. To decyzje podejmowane dziś – w zespołach projektowych, salach wykładowych, firmach technologicznych i instytucjach publicznych – zadecydują o tym, jak sztuczna inteligencja będzie wpływać na nasze życie za rok, pięć czy dwadzieścia lat.

Podsumowanie: Etyka jako test dojrzałości technologicznej

Dota Szymborska zakończyła swoją prelekcję optymistycznym akcentem – wiarą w to, że jesteśmy w stanie tworzyć rozwiązania AI, które są nie tylko funkcjonalne, ale też sprawiedliwe. Etyka nie powinna być dodatkiem do produktu. Powinna być podstawą projektowania technologii, która ma realny wpływ na ludzi. Etyczna sztuczna inteligencja to nie utopia. To wyzwanie. A może nawet obowiązek.

Artykuł powstał na podstawie prelekcji dr Doty Szymborskiej wygłoszonej podczas Mobile Trends Conference 2025. O bieżącej edycji Mobile Trends Conference przeczytasz tutaj.

Udostępnij
Mobile Trends
Zobacz także