Konferencje
Mobile Trends
prelegent Michał Furmankiewicz podczas swojego wystąpienia na Mobile Trends Conference 2025

Copilot, agenci i małe modele. Co naprawdę daje GenAI w biznesie?

Generatywna sztuczna inteligencja przestała być już tylko ciekawostką z konferencji i demo, które robi wrażenie przez pięć minut. Dziś pytanie nie brzmi: „czy AI zadziała?”, tylko „gdzie dokładnie w naszym biznesie ma przynieść wartość – i jak tę wartość dowieźć do produkcji?”.

Gdzie firmy najszybciej zobaczyły wartość z GenAI?

Choć generatywna AI trafiła „wszędzie”, są branże, w których pierwsze udane wdrożenia pojawiły się szczególnie szybko. Nie jest to przypadek, tylko efekt specyfiki danych, marż i regulacji.

Po pierwsze – sektor finansowy i pokrewne obszary, takie jak ubezpieczenia czy wealth management. To środowisko pełne nieustrukturyzowanych danych: umów, raportów, formularzy, długiej korespondencji z klientami. Modele językowe świetnie radzą sobie z tekstem, więc automatyzacja analizy dokumentów, wyciąganie kluczowych informacji czy wsparcie procesów compliance okazały się naturalnym kierunkiem.

Po drugie – retail. W handlu detalicznym presja na optymalizację marży jest ogromna. Dane o produktach, opiniach, zapytaniach klientów, reklamacjach czy opisach na stronach e-commerce tworzą gigantyczną, tekstową bazę wiedzy. Jednocześnie ten sektor jest stosunkowo słabiej regulowany niż finanse, co pozwala szybciej eksperymentować. Retail bardzo chętnie testuje więc rozwiązania generatywne wszędzie tam, gdzie można przyspieszyć pracę lub zautomatyzować powtarzalne zadania.

Po trzecie – firmy produktowe i technologiczne, które od lat żyją w świecie dokumentacji, backlogów, scenariuszy testowych, kodu czy specyfikacji. Tam naturalny język – czy to po stronie klienta, czy zespołu deweloperskiego – jest kluczowym elementem procesu wytwarzania oprogramowania. Dlatego narzędzia typu Copilot, które pomagają pisać kod, testy czy user stories, bardzo szybko pokazały swoją przewagę.

Copilot to nie chatbot. To nowa warstwa interakcji z produktem

Częstym nieporozumieniem jest traktowanie copilota jak „ładniejszego chatbota”. Tymczasem idea jest inna: Copilot ma być osobistym asystentem użytkownika w konkretnym kontekście – np. w Excelu, Outlooku, Wordzie czy w wyspecjalizowanym systemie biznesowym.

Jego rola polega na tym, by:

  • zrozumieć intencję użytkownika,
  • sięgnąć do odpowiednich zbiorów danych i wiedzy,
  • przygotować odpowiedź, analizę lub wykonać fragment pracy w narzędziu, w którym użytkownik właśnie działa.

W praktyce oznacza to zupełnie inny sposób obsługi oprogramowania. Zamiast przeklikiwać się przez dziesiątki opcji, użytkownik formułuje cel – a Copilot pomaga go zrealizować: tworzy podsumowanie maili, generuje formuły w Excelu, podpowiada strukturę prezentacji, przygotowuje szkic dokumentu.

To, co jest tu kluczowe z perspektywy biznesu, to wąska specjalizacja. Copilot nie może znać się na wszystkim. Asystent stworzony do analizy kontraktów nie powinien doradzać w kwestiach kulinarnych ani rozmawiać o bigosie. Im lepiej zawężony zakres zadań, tym wyższa jakość wyników i większe zaufanie użytkowników.

Dlaczego wdrożenia AI często rozczarowują?

Z perspektywy firm zwykle nie brakuje entuzjazmu ani pomysłów. Problemem jest przełożenie tego entuzjazmu na działające w produkcji rozwiązanie. Na podstawie setek projektów można wskazać trzy główne bariery.

1. Halucynacje i brak uziemienia w danych

Modele generatywne potrafią odpowiadać „ładnie”, ale nie zawsze „prawdziwie”. Halucynacje – czyli zmyślone odpowiedzi – są wpisane w ich architekturę. W środowisku biznesowym to niedopuszczalne, szczególnie w obszarach regulowanych. Dlatego kluczowe jest zadbanie o uziemienie (grounding) w danych firmy i wprowadzenie jasnych ograniczeń.

Dobry system musi umieć powiedzieć: „nie wiem” albo „nie mam wystarczających danych, żeby odpowiedzieć”. To nie porażka, tylko element odpowiedzialnego projektowania.

2. Dopasowanie do kultury organizacji

AI nie może być oderwana od języka i stylu komunikacji firmy. Zbyt „luźny” ton w bankowości czy zbyt formalny w branży kreatywnej może podważać zaufanie do narzędzia. Dochodzą do tego subtelności językowe i kulturowe – inne użycie języka w Japonii, inne w Indiach, inne w Europie.

Z perspektywy technologicznej to „drobiazgi”, ale z perspektywy adopcji – kwestie kluczowe. Użytkownicy muszą mieć poczucie, że asystent „mówi ich językiem”.

3. Jakość i przygotowanie danych

Najtrudniejsza i najmniej efektowna część pracy często kryje się w danych. Firmy chcą „wdrażać AI”, ale nie wiedzą dokładnie, jakie dane mają, w jakim są one stanie i czy w ogóle nadają się do trenowania czy fine-tuningu modeli.

Przygotowanie dobrych, opisanych, ztagowanych danych to ogromna część wysiłku. W wielu projektach to właśnie ten etap okazywał się największym wyzwaniem – większym niż sama praca z modelem.

Od asystentów do agentów. Co jest „następnym krokiem” w GenAI?

Gdy organizacje oswoiły się z ideą copilota, pojawiło się naturalne pytanie: co dalej? Odpowiedzią są agenci – systemy, które nie tylko odpowiadają na pytania, ale potrafią samodzielnie wykonywać określone zadania.

Agent może na przykład:

  • wyciągać dane z dokumentu,
  • analizować je pod kątem ryzyka czy zgodności z regulacjami,
  • podejmować decyzje o dalszym przebiegu procesu,
  • wykonywać operacje w systemach dziedzinowych (np. zarejestrować zgłoszenie, przygotować draft odpowiedzi, wypełnić formularz).

Co ważne, agenci nie opierają się wyłącznie na jednym, dużym, ogólnym modelu. Zamiast tego korzystają z zestawu wyspecjalizowanych, mniejszych modeli, zaprojektowanych pod konkretne zadania.

Małe modele (SLM): specjalizacja zamiast „modelu od wszystkiego”

Small Language Models (SLM) to odpowiedź na rosnące oczekiwania wobec jakości i przewidywalności zachowania AI. To modele:

  • znacznie mniejsze niż klasyczne LLM,
  • uruchamiane nawet na urządzeniach o ograniczonych zasobach (np. smartfonach),
  • wyszkolone do jednego, bardzo konkretnego typu zadania.

Taki model nie poprowadzi rozmowy o wszystkim, ale za to świetnie rozumie jeden typ dokumentu, jedną domenę, jeden rodzaj decyzji. W wielu procesach biznesowych to dokładnie to, czego potrzeba.

Przykład: Fidelity / Cypher – automatyzacja compliance

Firma Cypher (część grupy Fidelity) skupiła się na jednym problemie: zgodności materiałów sprzedażowych funduszy z wewnętrznymi politykami i regulacjami.

Zamiast ręcznie weryfikować ogromne ilości dokumentów, przygotowano modele, które sprawdzają m.in.:

  • czy w treści nie pojawiają się obietnice gwarantowanego zysku,
  • czy nie ma stwierdzeń wprowadzających klienta w błąd,
  • czy grafiki, tytuły i hasła nie sugerują braku ryzyka.

Agent działa jak automatyczny strażnik: wychwytuje podejrzane fragmenty i sugeruje poprawki. Specjaliści od compliance zamiast czytać wszystko od zera, mogą skupić się na ocenie jakości pracy modelu i najtrudniejszych przypadków. Przy dziesiątkach tysięcy materiałów miesięcznie różnica w efektywności jest ogromna.

Przykład: Siemens NX – AI w projektowaniu technicznym

Drugi przykład dotyczy świata z pozoru bardzo odległego od tekstu – projektowania elementów mechanicznych w systemach CAT-CAM.

W dużych projektach – np. przy projektowaniu samochodu – mówimy o nawet 13 tysiącach części. Każda z nich musi spełniać określone standardy: grubość materiału, przesunięcia otworów, parametry związane z trwałością czy możliwościami produkcyjnymi.

Model zbudowany z Siemens pozwala:

  • wykrywać elementy niezgodne z przyjętymi „best practices”,
  • proponować poprawki uwzględniające wpływ zmian na inne części,
  • odpowiadać na pytania typu: „pokaż wszystkie elementy z materiału X w tym projekcie”.

Z czasem ambicją jest także generowanie powtarzalnych elementów projektu. Mechanizm pozostaje ten sam: użytkownik komunikuje się językiem naturalnym, Copilot rozumie jego intencję, a wyspecjalizowane modele generują i wykonują w tle odpowiedni kod w środowisku projektowym.

Jak realnie wdrażać AI w firmie? Lekcje z dziesiątek projektów

Z doświadczeń opisanych przez Michała Furmankiewicza wynika kilka bardzo praktycznych wniosków.

Po pierwsze – trzeba zacząć wąsko. Zamiast próbować „zrewolucjonizować całą organizację”, warto wziąć na warsztat kilka konkretnych scenariuszy biznesowych. Lepiej wdrożyć dziesięć niewielkich rozwiązań o jakości 80–85% i przetestować je z grupą 100 użytkowników, niż przez rok projektować jedną wielką, teoretycznie perfekcyjną platformę.

Po drugie – trzeba nastawić się na wysoki odsetek porażek. Przykład z dużej firmy konsultingowej pokazuje skalę problemu: 600 rozpoczętych POC-ów i MVP, 15 dowiezionych do działającego wdrożenia. To nie dowód na to, że „AI nie działa”, tylko normalny etap uczenia się technologii, procesów i oczekiwań użytkowników.

Po trzecie – trzeba zainwestować w dane. Nawet najlepszy model nie nadrobi braków w jakości informacji, na których ma pracować. Odpowiednie przygotowanie danych (czyszczenie, tagowanie, strukturyzowanie) często stanowi większość pracy w realnym projekcie AI.

Po czwarte – warto myśleć o kombinacji technologii. Przyszłość to nie tylko duże modele generatywne. To ich połączenie z małymi, wyspecjalizowanymi modelami oraz klasycznymi modelami ML, które świetnie sprawdzają się w konkretnych zadaniach analitycznych.

Hype wokół AI a realna wartość – co będzie dalej?

Wokół AI nie brakuje wielkich słów. Raz słyszymy, że modele są przereklamowane, innym razem – że zmienią wszystko. W praktyce jednak, jak przypomina Michał, działa coś na kształt prawa Amary: ludzie zazwyczaj przeceniają wpływ technologii w krótkim okresie, a nie doceniają jej długofalowego znaczenia.

Trzy lata temu główną obawą była toksyczność modelów i ryzyko hate speech. Dwa lata temu – wątpliwości co do jakości analiz danych. Rok temu – przekonanie, że generatywna AI to głównie hype. Tymczasem przez ten czas technologia pod spodem bardzo szybko dojrzewała, a firmy, które konsekwentnie eksperymentowały, już dziś korzystają z realnych korzyści: skrócenia czasu pracy, wyższej jakości analiz czy lepszej zgodności z regulacjami.

Równocześnie adopcja rozwiązań AI w organizacjach nie jest wcale łatwa. Ludzie lubią nowości… dopóki nie trzeba zmieniać codziennych nawyków. To oznacza, że wdrażanie AI to nie tylko kwestia modeli i architektury, ale też edukacji, komunikacji i pracy z użytkownikami końcowymi.

Artykuł powstał na podstawie prelekcji Michała Furmankiewicza przedstawionej podczas Mobile Trends Conference 2025. A o bieżącej edycji Mobile Trends Conference przeczytasz tutaj.

Udostępnij
Mobile Trends
Zobacz także