Konferencje
Zespół Frankensteina, czyli kto tak naprawdę kontroluje AI?

Zespół Frankensteina, czyli kto tak naprawdę kontroluje AI?

W świecie rosnącego entuzjazmu wobec sztucznej inteligencji coraz częściej pojawia się pytanie: czy naprawdę mamy nad nią kontrolę? Jerzy Biernacki podczas swojej prelekcji na Mobile Trends Conference 2025 rzucił światło na ten temat, sięgając po zaskakującą, ale niezwykle trafną metaforę – historię Frankensteina.

Frankenstein jako metafora AI

W 1816 roku 19-letnia Mary Shelley stworzyła postać doktora Frankensteina – naukowca, który przekroczył granice moralności i nauki, próbując stworzyć życie. Jednak jego dzieło wymknęło się spod kontroli, stając się zagrożeniem. Ten literacki klasyk nie tylko otworzył nowy rozdział w literaturze grozy, ale dziś – niemal 200 lat później – staje się niepokojąco aktualny.

Podobnie jak dr Frankenstein, twórcy systemów AI często nie do końca rozumieją, z czym mają do czynienia. Ich „stwory” – generatywne modele językowe – mogą być potężne, pomocne, ale i nieprzewidywalne.

Niedeterminizm – serce problemu z AI

Tradycyjne systemy informatyczne są deterministyczne – wpisany kod zawsze daje ten sam wynik. Tymczasem generatywna AI działa zupełnie inaczej. Wpisując ten sam prompt, możemy za każdym razem otrzymać inną odpowiedź. To właśnie niedeterminizm leży u podstaw zarówno kreatywności, jak i potencjalnych zagrożeń ze strony AI.

Dodatkowo, modele językowe porozumiewają się z nami w języku naturalnym, który sam w sobie jest niejednoznaczny. To prowadzi do problemów z interpretacją – model może nas nie zrozumieć albo zrozumieć w zupełnie inny sposób, niż zamierzaliśmy.

Halucynacje i inne zagrożenia

Jednym z najczęstszych problemów AI są halucynacje – sytuacje, w których model z pełnym przekonaniem podaje nieprawdziwe informacje. Firma Anthropic zaproponowała kilka skutecznych technik ograniczania tego zjawiska:

  • zachęcanie modelu do odpowiedzi „nie wiem”, gdy brak mu pewności,
  • prośba o podanie źródła wiedzy,
  • „myślenie” przed odpowiedzią,
  • generowanie odpowiedzi tylko wtedy, gdy jest się jej pewnym.

Choć te techniki znacząco ograniczają problem, nie eliminują go całkowicie.

Inne kluczowe zagrożenia to:

  • ochrona danych poufnych,
  • ataki prompt injection,
  • niezgodność z regulacjami prawnymi i normami społecznymi,
  • potencjalne błędy w generowanych treściach, np. nieetyczne sugestie czy dezinformacja.

Jak nad tym zapanować?

Jerzy Biernacki podkreślił, że skuteczne wdrażanie AI to nie tylko kwestia kodu, ale przede wszystkim dobrego projektowania systemów. Oto kluczowe elementy, które pomagają kontrolować AI:

1. Projektowanie przepływu informacji

Nie można ufać AI, że sama rozpozna, które dane są poufne. Trzeba to zaplanować i wdrożyć odpowiednie ograniczenia.

2. Zarządzanie wiedzą (RAG)

Systemy oparte na AI powinny korzystać z aktualnej bazy wiedzy, np. poprzez mechanizm Retrieval Augmented Generation (RAG), który pozwala „nakarmić” model kontekstem przed wygenerowaniem odpowiedzi.

3. Kontrola dostępu

Należy dokładnie zaplanować, kto i do jakich danych ma dostęp – nie tylko na poziomie aplikacji, ale również w warstwie wiedzy dostępnej dla modelu.

4. Ewaluacja

Jak ocenić, czy model działa dobrze? Służą temu metryki takie jak:

  • truthfulness – czy odpowiedź jest prawdziwa,
  • groundedness – czy opiera się na dostarczonym kontekście,
  • coverage – czy wykorzystuje dostępne informacje,
  • relevance – czy odpowiedź nie odbiega od tematu.

5. Guardrails i walidacja

Warto stosować tzw. guardrails – zabezpieczenia na wejściu i wyjściu modelu, które mogą zatrzymać złośliwe próby manipulacji lub niebezpieczne odpowiedzi.

6. Human in the loop

AI może przygotować materiał, ale ostateczna decyzja powinna należeć do człowieka. To podejście gwarantuje odpowiedzialność i bezpieczeństwo.

7. Testowanie automatyczne

Ze względu na niedeterministyczną naturę AI, testowanie manualne bywa nieskuteczne. Kluczem jest tworzenie testów automatycznych i podejście test-driven development (TDD).

AI jak paracetamol?

Biernacki przywołał ciekawą metaforę: paracetamol, choć nie do końca rozumiemy, jak działa, jest uważany za najbezpieczniejszy lek przeciwbólowy, bo został gruntownie przetestowany. Podobnie z AI – nawet jeśli jest dla nas „czarną skrzynką”, można jej używać bezpiecznie, jeśli ją odpowiednio testujemy i zabezpieczamy.

Problem skali i nowy framework

Dlaczego tak wiele zespołów ma dziś problem z wdrażaniem tych zabezpieczeń? Główną przeszkodą jest brak narzędzi do łatwego skalowania bezpiecznych rozwiązań AI. Często trzeba tworzyć zabezpieczenia ręcznie. W odpowiedzi na te wyzwania powstał framework AI Kickstarter, który zawiera gotowe komponenty do walidacji, ewaluacji, anonimizacji danych i oceny ryzyka.

Czym jest „zespół Frankensteina”?

To metafora strachu przed tym, że nasze dzieło może się obrócić przeciwko nam. Podobnie jak ogień – który przyniósł rozwój cywilizacji, ale w nieodpowiednich rękach stanowi zagrożenie – AI może być siłą dobra lub destrukcji. Kluczowe pytanie nie brzmi więc: „Czy się bać?”, ale „Jak mądrze ją wykorzystać?”.

Podsumowanie

AI można kontrolować. Wymaga to jednak odpowiedzialności, przemyślanego projektowania i wdrażania odpowiednich mechanizmów. Tak jak doktor Frankenstein mógł uniknąć tragedii, tak i my – projektując rozwiązania z AI – możemy stworzyć coś bezpiecznego i pomocnego.

Artykuł powstał na podstawie prelekcji Jerzego Biernackiego pt. „Zespół Frankensteina: jaką masz tak naprawdę kontrolę nad AI?”, wygłoszonej podczas Mobile Trends Conference 2025 na ścieżce #AI.

Nagrania prelekcji dostępne do zakupu tutaj. A o bieżącej edycji Mobile Trends Conference przeczytasz tutaj.

Udostępnij
Zobacz także