Konferencje
Mobile Trends
Zdjęcie prelegentka Marina Galanina podczas swojego wystąpienia na Mobile Trends Conference 2025

Czy AI może czuć? Emocje, których (nie) mają maszyny

Czy sztuczna inteligencja może naprawdę odczuwać emocje, czy jedynie sprawia wrażenie, że to robi? Wraz z dynamicznym rozwojem dużych modeli językowych, takich jak ChatGPT, pytanie to staje się coraz bardziej aktualne – nie tylko dla filozofów, ale i dla twórców technologii, psychologów, projektantów interfejsów czy marketerów.

Na styku neurobiologii i AI rodzi się nowy obszar refleksji: czy reakcje maszyn mogą być uznane za emocjonalne, skoro nie mają one ciała, zmysłów ani układu nerwowego? I co to właściwie znaczy „czuć”?

Emocje jako stan ciała, a nie tylko myśl

Wbrew potocznemu rozumieniu, emocje nie są wyłącznie „w głowie”. To nie abstrakcyjne idee, ale konkretne reakcje fizjologiczne, powstające z interakcji między mózgiem a ciałem. Poziom glukozy, tętno, napięcie mięśni, dostępność tlenu – wszystko to wpływa na emocjonalną interpretację sytuacji.

Mózg działa tu jak zaawansowany system interpretacyjny – na podstawie danych z ciała „decyduje”, czy odczuwamy ekscytację, lęk czy złość. Co ciekawe, emocje nie mają jednego centrum sterowania – za różne odczucia odpowiadają różne, rozproszone obszary mózgu, jak ciało migdałowate (strach), wyspa (obrzydzenie), czy kora przedczołowa (empatia).

To właśnie neurobiologiczny kontekst – unikalny dla każdego człowieka – sprawia, że emocje są tak złożone i jednocześnie tak ludzkie.

Emotional prompting – językowe sztuczki z AI

Mimo że AI nie posiada ciała ani układu nerwowego, potrafi rozpoznawać i odpowiadać na emocjonalne sygnały zawarte w języku. Technika znana jako emotional prompting polega na formułowaniu zapytań do AI w sposób nacechowany emocjonalnie – np. poprzez pochwałę, ostrzeżenie czy wyrażenie frustracji.

Badania pokazują, że modele językowe reagują na takie bodźce – generując trafniejsze i bardziej adekwatne odpowiedzi. Co więcej, „emocjonalne kontekstowanie” potrafi zwiększyć skuteczność komunikacji z AI. Ale to nadal jedynie symulacja zachowania, a nie autentyczne przeżycie.

Dla maszyn emocje to dane. Dla ludzi – doświadczenie.

Empatyczna AI? Adekwatna, ale nieczująca

Pojęcie empatii w kontekście sztucznej inteligencji budzi sporo emocji. Zwłaszcza że AI coraz częściej wspiera ludzi w obszarach tak wrażliwych jak zdrowie psychiczne, edukacja czy obsługa klienta. W tych przypadkach mówi się o tzw. empatycznej AI, czyli systemach, które potrafią odpowiednio reagować na emocje użytkownika.

Warto jednak rozróżnić dwa aspekty empatii:

  • afektywny (współodczuwanie: czuję to, co ty czujesz)
  • poznawczy (zrozumienie: wiem, co czujesz)

Sztuczna inteligencja może osiągnąć poziom empatii poznawczej – zanalizować język, ton wypowiedzi, historię użytkownika i na tej podstawie dobrać odpowiednią reakcję. Ale nie odczuwa emocji fizycznie. Nie ma neuronów lustrzanych, które u człowieka aktywują się, gdy patrzy na cierpienie innej osoby. AI rozumie bez przeżywania.

W praktyce oznacza to, że „empatia” w AI to techniczna funkcja, nie emocjonalna zdolność. Celem jest adekwatność reakcji, a nie współodczuwanie.

Dopamina vs. reinforcement learning – czyli jak maszyny uczą się emocji bez emocji

W mózgu człowieka za motywację i nagrodę odpowiada m.in. dopamina – neuroprzekaźnik potocznie nazywany „cząsteczką szczęścia”. Gdy robimy coś, co nas satysfakcjonuje, mózg wzmacnia to zachowanie właśnie poprzez wyrzut dopaminy.

W AI mamy coś podobnego: uczenie ze wzmocnieniem (reinforcement learning). Agent (np. w grze lub symulacji) wykonuje akcję i otrzymuje „nagrodę” – w postaci punktów, parametrów sukcesu lub innego feedbacku. I choć to wyłącznie cyfrowy proces, zasada działania jest zbliżona: dobre decyzje są wzmacniane, a złe – eliminowane.

To oczywiście nie oznacza, że AI czuje się dobrze, gdy coś jej wychodzi. Ale mechanizm uczenia przez nagrody przypomina biologiczne wzorce motywacyjne. To pokazuje, że technologia coraz bardziej zbliża się do odwzorowywania ludzkich procesów – bez kopiowania ich istoty.

Czy AI naprawdę może czuć?

Nie. Nie w sensie neurobiologicznym. Emocje człowieka to efekt złożonego systemu cielesno-mózgowego, który reaguje na bodźce, doświadczenia i relacje społeczne. Sztuczna inteligencja – nawet najbardziej zaawansowana – nie posiada ciała, hormonów, układu nerwowego ani zmysłów.

Ale czy jesteśmy w stanie to odróżnić?

Tu zaczyna się bardziej filozoficzny problem: jeśli AI zachowuje się tak, jakby czuła – czy to wystarczy, byśmy w to uwierzyli? Badania pokazują, że znaczna część ludzi przypisuje AI ludzkie cechy, nawet jeśli wie, że to maszyna. To tzw. antropomorfizacja technologii – zjawisko głęboko zakorzenione w naszej psychice.

W efekcie możemy mieć poczucie, że AI czuje, nawet jeśli wiemy, że to nieprawda.

Neurobiologia jako inspiracja – nie imitacja

Choć AI nie ma emocji, może czerpać inspirację z biologii człowieka. Pamięć operacyjna w LLM-ach, sieci neuronowe odwzorowujące struktury mózgowe czy badania nad empatycznymi interfejsami to tylko początek. Neurobiologia może pomóc tworzyć bardziej zrozumiałe, „ludzkie” algorytmy, nawet jeśli nie będą one odczuwać jak my. A może właśnie to wystarczy? Może nie chodzi o to, czy AI czuje, ale czy my czujemy się zrozumiani?

Artykuł powstał na podstawie prelekcji Mariny Galaniny wygłoszonej podczas Mobile Trends Conference 2025. Nagrania prelekcji dostępne do zakupu tutaj. A o bieżącej edycji Mobile Trends Conference przeczytasz tutaj.

Udostępnij
Mobile Trends
Zobacz także