Niedawny raport dotyczący nowych technologii ze Światowego Forum Ekonomicznego zwrócił uwagę na postępujący krajobraz transhumanizmu, generatywnej sztucznej inteligencji i Internetu ciał oraz ich głęboki wpływ na różne aspekty społeczne. Odkrycia te skłaniają do zbadania ekspansywnych możliwości, istniejących ograniczeń i potencjalnych konsekwencji.
Może Cię zainteresować: Internet rzeczy i ciał, sztucznie inteligentna robotyka i 5G – transhumanizm w rozkwicie
Postęp technologiczny nie tylko kształtuje sposób, w jaki wchodzimy w interakcję z maszynami i informacjami, ale także rodzą dające do myślenia pytania dotyczące ich długoterminowego wpływu na społeczeństwo.
Rosnąca popularność generatywnej sztucznej inteligencji
Top 10 Emerging Technologies of 2023 Report podkreśla powszechne przyjęcie generatywnej sztucznej inteligencji, zwłaszcza wśród młodszej grupy demograficznej. Według badania Ofcom czterech na pięciu internetowych nastolatków w wieku 13–17 lat korzysta obecnie z narzędzi i usług generatywnej sztucznej inteligencji, a ChatGPT staje się najpowszechniej używaną usługą generatywnej sztucznej inteligencji wśród użytkowników Internetu w wieku 16 lat i starszych (23%).
Badanie pokazuje również, że nastolatki i dzieci w Wielkiej Brytanii są znacznie bardziej skłonne do stosowania generatywnej sztucznej inteligencji w porównaniu do dorosłych. Działania najczęściej kojarzone z generatywnym wykorzystaniem sztucznej inteligencji obejmują czatowanie, odkrywanie jej możliwości, tworzenie treści, takich jak tekst, obrazy i filmy, oraz szukanie informacji lub porad.
Obawy i przemyślenia
Chociaż szybkie upowszechnienie się generatywnej sztucznej inteligencji jest oczywiste, w raporcie podkreślono również związane z tym obawy i obawy. Ponad połowa ankietowanych użytkowników Internetu wyraziła obawy co do przyszłego wpływu społecznego generatywnej sztucznej inteligencji. Odzwierciedla to rosnącą świadomość potencjalnych zagrożeń i konsekwencji powszechnego wykorzystania generatywnej sztucznej inteligencji.
Zobacz: AI a tendencyjność danych – Wykorzystanie SI to dobry pomysł?
Przykładowo, w służbach bezpieczeństwa na całym świecie duże obawy budzi deepfake. Według raportów amerykańskich służb, rośnie liczba przypadków szantażu online za pomocą deepfake. Szczególnie niepokojące są te zawierające treści pornograficzne z udziałem osób dorosłych i nieletnich, będące produktem manipulacji przez sztuczną inteligencję. Te media często są rozpowszechniane na portalach społecznościowych oraz stronach pornograficznych, gdzie cyberprzestępcy próbują szkodzić innym i osiągnąć korzyści finansowe.
Z kolei, według raportu Fortinet Global Ransomware, phishing to najczęściej wykorzystywana przez cyberprzestępców taktyka służąca do rozpoczynania ataków ransomware i dystrybucji złośliwego kodu. Bazuje na niej 56% wszystkich działań przestępczych w cyberprzestrzeni. Eksperci zwracają uwagę, że coraz więcej oszustw bazuje na sztucznej inteligencji, gdyż tradycyjne metody przestały być wystarczające.
SI wymaga odpowiedzialności i transparentności
Tworzenie transparentnych i wiarygodnych narzędzi sztucznej inteligencji wymaga zaangażowania zespołów odpowiedzialnych za zgodność z przepisami. Współpraca tych zespołów z analitykami danych oraz specjalistami z obszaru DevOps stanowi kluczowy element efektywnej strategii SI. Ustalenie i egzekucja wytycznych o odpowiednich zastosowaniach SI oraz regularne kwestionowanie pochodzenia danych jest kluczowe. I coraz bardziej oczekiwane przez organy regulacyjne. Potwierdzają to działania takie jak AI Act Unii Europejskiej, AI Bill of Rights w USA, brytyjska AI Regulation Policy Paper czy przepisy Chin dotyczące zarządzania algorytmicznymi rekomendacjami. Dotychczasowa ignorancja nie stanowiła skutecznej obrony, zwłaszcza gdy można było zrzucić odpowiedzialność na dostawcę. W przypadku własnych baz danych, argument ten znika.
– Przyszłość sztucznej inteligencji nie leży w dużych modelach językowych, które obecnie dominują w medialnych nagłówkach, ani w innych ogólnych rozwiązaniach, które będą służyć wielu użytkownikom. Przedsiębiorstwa będą potrzebowały rozwiązań, które są specyficzne dla ich branży, klientów i zadań – mówi Jan Wildeboer, Open Source Evangelist na region EMEA w firmie Red Hat
Wykorzystanie generatywnej sztucznej inteligencji IARPA
Oprócz popularności raport zagłębia się w praktyczne zastosowania generatywnej sztucznej inteligencji. Działalność w zakresie zaawansowanych projektów badawczych Intelligence (IARPA) wykorzystuje generatywną sztuczną inteligencję w ramach programu Rapid Explanation, Analysis, and Sourcing ONline (REASON). Celem programu jest opracowanie systemów, które będą w stanie automatycznie generować komentarze, umożliwiając analitykom wywiadu wzmocnienie dowodów i uzasadnień w raportach analitycznych. Należy zauważyć, że celem jest pomoc w dochodzeniach, a nie zastąpienie analityków lub samodzielne generowanie raportów.
Implikacje i futurystyczne trajektorie
Technologie te nie tylko zmieniają interakcję człowieka z maszynami i informacjami, ale także prowokują do kluczowych rozważań na temat ich długoterminowego wpływu na społeczeństwo. Raport zachęca do całościowego zrozumienia możliwości i wyzwań nieodłącznie związanych z rozwijającym się NOWYM paradygmatem technologicznym.
Poza AI, WEF oferuje wgląd w rosnący wpływ transhumanizmu i szczegółowe zrozumienie jego obecnego stanu, potencjalnej ewolucji, powiązanych problemów i praktycznych zastosowań.
Zobacz: Ewolucja interfejsów – perspektywy wojskowe i etyczne