Sztuczna inteligencja to jeden z najbardziej intrygujących i dynamicznie rozwijających się obszarów dzisiejszej nauki. Jest to dziedzina, która zajmuje się tworzeniem systemów komputerowych zdolnych do wykonywania zadań, które zwyczajowo wymagają ludzkiej inteligencji. Są to rozpoznawanie wzorców, rozumienie języka naturalnego, podejmowanie decyzji czy nawet uczenie się. Jak dzisiaj wykorzystać AI i czy jest się czego bać?
Związane z tematem: Jak Chat-GPT wpływa na społeczeństwo, firmy i pracę w IT
138 695 słów i 579 stron, napisane w 4 dni. Mowa o książce napisanej przez generatywny model sztucznej inteligencji. Ciężko powiedzieć coś na temat tej książki. Na Amazonie ma aż jedną ocenę w postaci dwóch gwiazdek, a autor niestety nie posilił sie na ocenę opisową. Choć możemy się domyślać jakości tego tworu (lub kupić go ku weryfikacji), widzimy wyraźny wzrost możliwości modeli językowych.
W istocie, w ostatnich latach zanotowano ogromny postęp w dziedzinie SI. Możemy podziękować za to rozwojowi głębokich sieci neuronowych oraz narzędzi do głębokiego uczenia maszynowego. Dzięki temu, inteligentne systemy są dzisiaj w stanie rozpoznawać obrazy, rozumieć język naturalny, generować teksty, obrazy czy interfejsy. Ale jak to się wszystko zaczęło?
Co to jest AI?
Sięgnijmy do początków. W latach 50 XX. wieku Alan Turing zaproponował test, mający sprawdzić inteligencję maszyny, która udawałaby człowieka. Hipoteza testu weryfikującego nieludzką inteligencję była pewną egzotyką. Do tej pory inteligencja predestynowana było tylko dla człowieka. Dzisiaj widzimy, że był to najwyraźniej znak czasu. W niedługim odstępstwie bowiem zorganizowano Warsztaty w Dartmouth, czyli pierwsze seminarium poświęcone SI oraz otwarto pierwsze laboratorium AI na Uniwersytecie Carnegie Mellon. Do dzisiaj jest to jedna z najlepszych placówek do studiowania sztucznej inteligencji na świecie.
Kilka lat później powstało laboratorium w Massachusetts Institute of Technology (MIT), założone przez Johna McCarthy’ego. Ten naukowiec był z kolei prawdopodobnie pierwszym, który ukuł termin “sztucznej inteligencji”, nazywając ją w 1955 r. „konstruowaniem maszyn, o których działaniu dałoby się powiedzieć, że są podobne do ludzkich przejawów inteligencji”.
Dzisiaj rozumiemy to dość podobnie. Prostszym językiem określilibyśmy to działaniem programów w taki sposób, w jaki mogliby posługiwać się nimi ludzie. Wikipedia, podaje, że termin sztucznej inteligencji jest także potocznym określeniem na całą technologię tego typu oraz naukę, która zajmuje się jej rozwojem. Co do kwestii naukowych, technologia ta ma ścisły związek z informatyką oraz kognitywistyką i czerpie ze zdobyczy psychologii, matematyki czy nawet filozofii. Widzimy jednak, że nie jest to pojęcie nowe, a prace nad SI trwają już ponad siedem dekad!
Podejścia do pracy nad AI
Dzisiaj mamy do czynienia z wieloma perspektywami. Wiele firm rozwija różne formy inteligencji rozproszonej. Przykładem mogą być Inteligentni Asystenci, którzy coraz częściej towarzyszą nam w korporacjach czy liniach obsługi klienta. Według prognoz Grand View Research, do roku 2030 globalny rynek chatbotów osiągnie wartość 3,99 mld USD (w 2021 roku wyceniany na 525,7 mln USD) przy rocznym wzroście na poziomie 25,7 proc. Biznes wydał też na świat ChatGPT. Ten ostatnio zapoczątkował istną wojnę AI, co podkreślił dr Szymon Wierciński, adiunkt w Katedrze Strategii Koźminskiego.
W samej nauce dominuje kilka podstawowych metodyk tworzenia tej technologii i działania z nią.
Jedna z koncepcji dotyczy tworzenia modeli opartych na logice matematyki do analizy problemów i implementowania ich w formie programów. Te poprzez swoją strukturę logiczną mają realizować konkretne funkcje będące składowymi całego modelu. Nazywa się to podejściem symbolicznym. Przynależą do niego algorytmy genetyczne, metody logiki rozmytej i wnioskowanie bazujące na doświadczeniu.
Drugim podejściem jest subsymbolizm, który definiuje programy zdolne do samouczenia się. Inżynierowie sugerują się tu strukturą naszego mózgu, która pomaga w tworzeniu sieci neuronowych oraz asocjacyjnych. Naukowcy mogą uczyć takie programy rozwiązywania postawionych przed nimi zadań poprzez wskazywanie konkretnych procedur dochodzenia do tych rozwiązań.
Sprawdź: Jak działa sztuczna inteligencja i dlaczego powinniśmy to wiedzieć | Michał Wójcik | TEDxTarnow
Bez danych, jak bez ręki!
Odchodząc już od tego akademickiego nieco przedstawienia, powinniśmy wiedzieć, że podstawą działania sztucznej inteligencji są dane! Jedyne jej działanie opiera się na podstawie wgranej bazy informacji oraz algorytmów, których jest nauczona. – Słabość algorytmów sztucznej inteligencji polega na tym, że one nie potrafią nauczyć się na jednym przykładzie. A my potrafimy! Wystarczy, że ja raz zobaczę zdjęcie zwierzęcia, którego nigdy nie widziałem i ktoś mi powie: „Zobacz, to jest kapibara”. I ja już będę wiedział, jak odróżnić tę kapibarę od tysięcy innych gatunków. Algorytmy sztucznej inteligencji tego nie potrafią – mówił w Radiu Naukowym, prof. Piotr Szczuko z Politechniki Gdańskiej.
AI jest już nami od jakiegoś czasu!
Dr. Szymon Wierciński z Katedry Strategii Akademii Leona Koźmińskiego mówi, że projekty AI rozwijane od 2014 roku poprzez przez Google są implementowane we wszystkich strukturach Alphabet. Ale nie spotkamy się z nimi tylko w wszykiwarce. AI od dawna obdlokowuje nasze telefony czy ulepsza zdjęcia robione smartfonami. Co do samej optyki, trwają chociażby prace nad ulepszeniem holograficznych wyświetlaczy za pomocą silników AI.
Chyba najbardziej popularnym zastosowaniem SI jest przy tym analiza dużych zbiorów danych, która umożliwia szybkie wykrywanie wzorców i trendów. Często szybciej niż zajęłoby to człowiekowi. Dzięki temu firmy mogą lepiej targetować swoich klientów, dostosować ofertę do ich potrzeb i optymalizować swoje procesy biznesowe.
Jednak może to dotyczyć także systemów działających w terenie. Dobrym przykładem są autonomiczne sklepy Żabki, gdzie systemy kamer za pomocą sztucznej inteligencji sprawdzają, co kupujemy, by następnie wydać komendę systemowi połączonemu z naszą aplikacją do zapłaty za produkty. Wszystko dzieje się w tle. Z kolei omawiany przez nas model machine learning od DeepMind okazał się być lepszy w aż 89 proc. przypadków od standardowych narzędzi meteorologicznych. Służy on m.in do określania prawdopodobieństwa wystąpienia opadów deszczowych, w przeciągu najbliższej półtorej godziny.
Do czego możemy wykorzystać Sztuczną Inteligencję?
Pytanie powinno brzmieć raczej: Do czego jej nie wykorzystujemy? 🙂 A możliwości narzędzia, jakim jest AI z pewnością nie są jeszcze w pełni wykorzystywane. Według prof. Aleksandry Przegalińskiej, sztuczna inteligencja może zmienić praktycznie każdą dziedzinę życia. – Obecnie sztucznej inteligencji używamy do celów takich jak rozpoznawanie mowy, analiza danych czy automatyzacja procesów biznesowych. W przyszłości ma potencjał, aby poprawić jakość usług medycznych, wesprzeć automatyzację pracy, a w dalszej perspektywie rozwiązać problemy globalne, takie jak zmiana klimatu czy brak dostępu do żywności – mówi prof. Aleksandra Przegalińska, specjalistka SI, Członkini Rady Nadzorczej w Escola SA.
Co więcej, dr Piotr Kaczmarek-Kurczak wskazuje na dostępność wiedzy i automatyzację zadań jako największe korzyści z AI w przemyśle. – Sztuczna inteligencja wykonuje zadania dokładniej, szybciej i bardziej precyzyjnie. Z kolei dzięki zakodowaniu umiejętności ekspertów w modelach AI, zaawansowana wiedza staje się łatwiej dostępna.
Z kolei w marketingu, poza automatyzacją zadań, sztuczna inteligencja dostarcza inspiracji. – AI ułatwia proces tworzenia komunikacji dla klienta, a także samą komunikację. Na przykład ChatGPT można wykorzystać do projektowania komunikatów prasowych, nagłówków maili, zoptymalizowanych treści na stronę czy pomysłów na promocję – mówi dr Jolanta Tkaczyk. Dobrym przykładem jest tu firma odzieżowa Stitch Fix, która wykorzystuje już DALL-E 2, aby tworzyć wizualizacje ubrań na podstawie preferencji klientów.
SI, czyli nowoczesna medycyna?
Innym ważnym obszarem, w którym wykorzystuje się SI, jest wspominana. już wyżej medycyna. Podobnie jak chatboty obsługujące klientów, sztuczna inteligencja może też pomagać pacjentom w podobny sposób. Jednak zastosowań również i w tym obszarze może być tysiące. Systemy tego typu mogą pomóc w diagnozowaniu chorób, analizie wyników badań czy nawet projektowaniu leków. Gartner przewiduje, że do 2025 roku aż 30 proc. wszystkich nowych leków zostanie stworzonych przez generatywne modele AI.
Dzięki temu można przyspieszyć procesy medyczne i poprawić jakość opieki zdrowotnej. Dobrze jest przytoczyć tutaj działalność polskiego startupu Infermedica, który pracuje nad systemem do diagnozowania i segmentacji grup pacjentów.
– Do tej pory spędziliśmy ponad 60 000 godzin pracy lekarzy, budując jedną z najbardziej zaawansowanych na świecie baz wiedzy medycznej na temat chorób, objawów i czynników ryzyka. Przeznaczymy nowe fundusze, aby zrealizować naszą wizję uczynienia podstawowej opieki zdrowotnej bardziej wydajną i przystępną cenowo, tworząc stale ulepszaną technologię sztucznej inteligencji dla wszystkich na świecie – powiedział Piotr Orzechowski, dyrektor generalny i współzałożyciel Infermedica.
Sztuczna inteligencja, szczególnie w wariancie brzegowym, czyli nie opuszczającym w swoim obiegu konkretnego urządzenia jest także obiecującą technologią dla ochrony prywatności.
Sztuczna Inteligencja budzi także obawy!
W businessinsider czytamy, że zdaniem Stevena Hawkinga prace nad SI powinny być prowadzone pod szczególną kontrolą. Podkreślał, że prawdziwym ryzykiem związanym z rozwojem sztucznej inteligencji nie jest to, że będzie złośliwa, a kompetencje, w jakie będzie wyposażona.
Jednym z największych wyzwań jest zagwarantowanie, że systemy SI zadziałają w sposób sprawiedliwy i bezpieczny.
Virginia Dignum w książce “ Responsible Artificial Intelligence: How to Develop and Use AI in a Responsible Way” pisze, że podejmowanie decyzji przez sztuczną inteligencję jest dla niektórych bardzo niepokojące. Tym, co sprawia ten stan rzeczy, jest “nieprzejrzystość tych decyzji i postrzegany brak kontroli nad działaniami podejmowanymi przez systemy sztucznej inteligencji na podstawie tych decyzji”.
Ponadto, istnieje również ryzyko, że inteligentne systemy mogą zastąpić pracowników, co może prowadzić do bezrobocia. – Firmy szukając oszczędności będą zastępowały pracowników algorytmami. Szybko urośnie spora grupa osób wykluczona ze społeczeństwa. Powodem tego będzie brak pracy i zapotrzebowania na ich kwalifikacje. Pytanie co zrobić z takimi „niepotrzebnymi” osobami, jak szybko dać im nowe kompetencje? – czytamy w poście Artura Roguskiego na LinkedIn. Cóż, być może sztuczna inteligencja niedługo wyposaży nas w jakiekolwiek kompetencje będziemy chcieli. A być może nie.
Wpływ sztucznej inteligencji na rozwój cyberprzestępczości.
Bardziej niepokojącym może być jednak wpływ sztucznej inteligencji na rozwój cyberprzestępczości. Zaawansowane modele językowe już teraz zwiększają skuteczność komunikacji będącej częścią ataku np. w wiadomości phishingowej. Inną kwestią są fałszywe treści z udziałem osób, które w nich udziału nie brały. Co więcej, już teraz można zrobić dość “ułomne” porno z naszymi twarzami. Tworzenie deepfake’ów z roku na rok wymaga coraz mniejszych umiejętności. Rozwój AI wpłynie nie tylko na rozrywkę wśród użytkowników. Możemy być pewni, że cyberprzestępcy również wykorzystają ją do swoich celów. Eksperci z Sophos uspokajają nas, że sztuczna inteligencja może również pomóc zwiększyć bezpieczeństwo.
Nie mniej ważną kwestią jest prawo.
Standardowo system regulacji nie nadąża za rozwojem technologii. To jest bardzo trudne zadanie. W Radiu Naukowym, dr Martyna Kusak z Wydziału Prawa i Administracji Uniwersytetu Adama Mickiewicza w Poznaniu mówi, że system prawny musi zostać przemodelowany pod kątem algorytmów. Ekspertka podkreśla, że obecnie opiera się on na innych założeniach. System prawny określa relacje między ludźmi oraz organami prawnymi. Boty i algorytmy nie są uznawane ani za ofiary, ani za sprawców przestępstw. Pozostaje też kwestia odpowiedzialności za błędy lub nieuczciwe działania w wyniku działania sztucznej inteligencji. – Czy winny jest producent algorytmu, dostawca danych czy osoba korzystająca z takiego narzędzia? Podobne pytania dotyczą autonomicznych samochodów, gdzie kwestia odpowiedzialności jest niejasna. Czy to kierowca powinien zwracać uwagę, czy firma, która wypuszcza samochód na rynek, czy może jeszcze inne czynniki zewnętrzne, które mogą prowokować wypadki drogowe? To ważne pytanie, na które obecnie nie ma wprost odpowiedzi w systemie prawnym – kontynuuje prawniczka.
Czy AI nas „otępi”?
W naszym podcaście o User Experience, Igor Farafonow poruszył temat ciągłego upraszczania i społecznej odpowiedzialności projektanta za nasze zdolności poznawcze. Rozwój AI stawia przed nami podobne pytanie. Jednak Marcin Stopa z SeeWidely uspokaja nas. – Technologia zapewnia nam postęp i rozwój dlatego, że odciąża nas zarówno fizycznie, jak i poznawczo – intelektualnie. To sprawia, że możemy swoją uwagę i czas przerzucić na coś jeszcze ważniejszego. To też dlatego ostatnie dekady okazały się dla nas tak dynamiczne w rozwoju technologii – powiedział ekspert w rozmowie z Aleksander Piskorzem na łamach techpigułki. Nasz niedawny prelegent podkreśla, że to nasze emocje stanowią wyzwanie. Już i tak mamy problemy z nazywaniem emocji czy ich zauważaniem, a technologia ma to do siebie, że często je potęguje.
AI jest już zaczątkiem batalii sądowych?
Prezes Getty Images, Craig Peters, powiedział w wywiadzie dla The Verge, że firma wystosowała do Stability AI pismo formalne. Sprawa tyczy się wykorzystywania bazy zdjęć firmy w konceptach wypluwanych przez model – ‘Motorem tego [listu] jest wykorzystywanie przez Stability AI własności intelektualnej innych osób – bez zgody lub rozważenia – w celu zbudowania oferty komercyjnej dla własnych korzyści finansowych” – czytamy we fragmencie listu o zbliżającym się postępowaniu sądowym w Wielkiej Brytanii.
Wielu prawników jest wrogo nastawionych do sztucznej inteligencji, ze względu na wątpliwe podejście systemu do praw autorskich. – StableDiffusion jest pasożytem, który, jeśli pozwoli mu się rozmnożyć, spowoduje nieodwracalne szkody dla artystów, teraz i w przyszłości – mówi Matthew Butterick, prawnik, który prowadzi pozew zbiorowy przeciwko Github Copilot, rozpoczął nowy pozew zbiorowy przeciwko Stability AI, Midjourney i DeviantArt.
Nie szerzmy paniki!
– Powiem szczerze: jestem bardzo zmęczona. Konstruktywna dyskusja na temat ram Al i zastosowań tej technologii jest bardzo potrzebna. Jałowe straszenie. Nie! Mam dosyć samozwańczych ekspertow, którzy do wczoraj zajmowali się zupełnie czymś innym, a dzisiaj nagle stają się specjalistami od sztucznej inteligencji i monetyzują strach przed tą technologią. Jestem zmęczona brakiem propozycji z ich strony. My na przykład jako zespół naukowy mamy jedną, ale solidną: collaborative Al, czyli paradygmat wsłpópracy z Al zamiast delegowania jej zadań. Z pewnością są też inne konstruktywne idee. Straszenie Al jest najgorszym możliwym pomysłem. Strach to emocja paraliżujaca, nie pozwalająca działać ani mysleć. Są inne drogi – napisała na swoim profilu na Linkedin, profesor Przegalińska.
Postawmy na odpowiedzialność!
Podsumowując, sztuczna inteligencja jest fascynującą dziedziną, która ma ogromny potencjał. Wykorzystując ją w sposób odpowiedzialny, możemy poprawić życie milionów ludzi na całym świecie. Jednak, aby to osiągnąć, musimy rozwiązać wiele wyzwań związanych z bezpieczeństwem, prywatnością i etyką. W przyszłości czekają nas też rozważania dotyczące natury robotów i algorytmów, ale czy to nie czas przemyśleć postawę nas samych? Świetnie kwituje to Joanne Pransky!
– Bardzo modnym hasłem ostatniej dekady, a być może i stulecia, jest „sztuczna inteligencja”. A ja chciałabym, aby takimi hasłami były „inteligencja społeczna” i „inteligencja emocjonalna”. Czas poświęcić więcej czasu i zasobów na naprawienie ludzkich zachowań, na przykład powstrzymanie cyberprzestępczości. Używajmy inteligentnych algorytmów do altruizmu, zanim nasze ułomności na dobre zanieczyszczą „dusze” maszyn – oburza się Joanne Pransky. – Czy roboty i sztuczna inteligencja rzeczywiście mogą być lepsze, empatyczne? Wierzę, że tak, że maszyny mogą okazywać współczucie i zrozumienie. Pozostaje pytanie, czy człowiek będzie potrafił odróżnić, czy jest to prawda, czy tylko symulacja empatii – tłumaczy robopsycholożka.