Post_Detail

Sztuczna inteligencja jest szansą, czy zagrożeniem dla człowieka?

Technologia Chmury

Sztuczna inteligencja jest szansą, czy zagrożeniem dla człowieka?

PKO BP: sztuczna inteligencja wpływa na nasze życie na tyle, na ile jej pozwolimy

PKO BP - Kamil Konikiewicz, dyrektor Biura Rozwoju Sztucznej Inteligencji w PKO BP

Dzisiaj niemożliwe stało się faktem. Technologia dogania nas w zakresie analizy obrazu, komunikacji językowej, a nawet… tworzenia sztuki, czy wirtualnej rzeczywistości. Mając zdjęcie osoby można z tego jednego zdjęcia stworzyć wideo, a dysponując dodatkowo zapisem jej głosu, fachowiec jest w stanie zbudować syntezator mowy i sprawić, że powie własnym głosem rzeczy, których nigdy nie powiedziała – mówi Kamil Konikiewicz, dyrektor Biura Rozwoju Sztucznej Inteligencji w PKO BP w rozmowie z PAP.

Tegoroczna pandemia Covid-19 znacząco przyspieszyła proces cyfryzacji. Inteligentne rozwiązania w postaci „uczących się” algorytmów stosowanych w programach komputerowych czy w aplikacjach na smartfony stały się powszechne. Wprowadzamy AI (ang: Artificial Intelligence) do naszego życia korzystając z serwisów społecznościowych, platform streamingowych, instalując różne urządzenia i wyrażając zgodę na przetwarzanie danych nas dotyczących.

Jak wyjaśnia Kamil Konikiewicz, nie istnieje dotąd w pełni autonomiczna AI, co oznacza, że algorytmy nie są w stanie uczyć się bez nadzoru człowieka. Ktoś musi im wskazać, że na tym konkretnym zdjęciu znajduje się pies albo, że rozmowa dotyczy koronawirusa. Dane muszą być w odpowiedni sposób przygotowywane, kategoryzowane i opisywane. Dopiero po dostarczeniu odpowiednio dużej ich próby algorytm zaczyna się uczyć.

„Umiejętności, które nabywają algorytmy w zakresie punktowych zastosowań są niesamowite. Potrafią już np. lepiej niż ludzie opisywać to co widzą na zadanym obrazie, a nawet tworzyć sztukę – >>malując<< obrazy lub komponując utwory muzyki klasycznej. Są też świetne w gry - dzisiaj ucząc ich np. gry w szachy sadzamy naprzeciw siebie dwa algorytmy, wczytujemy im zasady gry, one zaczynają ze sobą grać i w ciągu kilku godzin za pomocą tzw. uczenia wzmacnianego osiągają poziom arcymistrzowski” – wyjaśnia Konikiewicz.

Dyrektor Biura Rozwoju Sztucznej Inteligencji w PKO BP jest współtwórcą asystenta głosowego w bankowej mobilnej aplikacji IKO. Asystent wykorzystuje zaawansowaną analitykę i algorytmy sztucznej inteligencji, aby umożliwić użytkownikom załatwianie spraw bankowych przy pomocy komend głosowych, np. przelewu, doładowania telefonu, wyszukiwania transakcji w historii konta, podania kodu BLIK.

System rozumie język naturalny i nie narzuca sposobu komunikacji. Można komunikować się z nim w zupełnie nieskrępowany sposób. Do jego uczenia użyto już ponad 100 tys. zwrotów, również kolokwialnych. Sprawdzenie stanu konta można zlecić na ponad 2 tys. sposobów, a przelew zrobić, mówiąc na przykład: „pchnij stówkę do Janka”. Co ważne, lista zwrotów które zrozumie algorytm jest znacznie większa, można rozmawiać z nim w sposób zupełnie naturalny.

Aplikacje bankowe działają jednak w bardzo surowym reżimie prawa polskiego i europejskiego nakładającego wymagania, co do zabezpieczenia transakcji . Każde logowanie i istotna transakcja muszą być potwierdzone mocną metodą autoryzacyjną – wpisaniem PIN-u czy podaniem kodu autoryzacyjnego. Przewidziana jest również możliwość ustawienia funkcji odcisku palca lub rozpoznawania twarzy.

„Przenieśliśmy sporo życia do sieci, a w ślad za nami ruszyli tam cyberprzestępcy – zwraca uwagę Konikiewicz. - Jako duży bank jesteśmy narażeni - my i nasi klienci - na różnego rodzaju ataki czy zagrożenia, natomiast stopień naszych zabezpieczeń jest bardzo wysoki – nie tylko na poziomie aplikacji i systemów, ale również na poziomie zabezpieczeń konta e-mail czy służbowego telefonu. Mamy też bardzo prężnie funkcjonujące działy bezpieczeństwa i cyberbezpieczeństwa” – zapewnia.

Jak zaznacza dyrektor Biura Rozwoju AI w PKO BP, „sztuczna inteligencja ingeruje w nasze życie na tyle, na ile jej pozwolimy”. „Ludzie potrafią w rozmowie z wirtualnymi asystentami zdradzać informacje, których nie powinni, nawet dane wrażliwe. Projektanci tego typu rozwiązań powinni te dane chronić, czasem nawet ”ustami” bota powstrzymać przed ich ujawnianiem, kiedy nie jest to wymagane” – podkreśla Konikiewicz.

Jego zdaniem, świat wirtualny niesie ogromne szanse, ale też pewne zagrożenia. Popularyzacja mediów społecznościowych oraz smartfonów (także cyfrowych smart-zegarków czy opasek) powoduje, że gromadzą one coraz więcej danych o użytkownikach i ich otoczeniu.

„Fałszywe informacje, materiały dźwiękowe i wizualne to gigantycznie wyzwania, na które nie jesteśmy jeszcze cywilizacyjnie gotowi” – zaznacza Konikiewicz.

Ogromnym wyzwaniem stojącym przed instytucjami regulującymi zagadnienia sztucznej inteligencji jest wykładniczy rozwój tej dziedziny – tzn. liczba zastosowań jest tak gigantyczna, że stworzenie uniwersalnego prawa, regulującego wszystkie możliwe warianty zastosowań AI, jest skrajnie trudne.

Dla twórców programów i aplikacji wyzwanie stanowi dostępność danych (w przypadku asystenta głosowego konkretnych rozwiązań dla języka polskiego) oraz regulacje dotyczące prywatności.

„Najtrudniej jest regulować i nadzorować wielkie organizacje globalne, jak GAFA (Google, Amazon, Facebook, Apple), więc przymyka się oko na przypadki działania w „szarej strefie”. Jeżeli np. w popularnym komunikatorze internetowym pojawiają się reklamy w kontekście tego, co powiedziałem lub zobaczyłem w trakcie wideo-rozmowy z moim znajomym – to coś jest nie w porządku, bo nie przypominam sobie, żebym zezwalał na analizowanie strumienia wideo albo strumienia dźwięku z prywatnych rozmów” – zauważa Konikiewicz. „Największe mocarstwa światowe inwestują grube miliardy dolarów w rozwój AI. Kto zawojuje ten rynek – zawojuje mocniejszą pozycję geopolityczną w przyszłości - dodaje. - Mamy mnóstwo inteligentnych, zdolnych ludzi znających się na tej technologii i dobrze byłoby zrobić z tego użytek – zbudować centra rozwojowe, centra edukacyjne i użyć potencjału intelektualnego, żeby przygotować społeczeństwo na odpowiedzialne wykorzystanie takiej technologii” – wskazuje.

W opinii eksperta, byłoby pożyteczne, żeby technologia związana ze sztuczną inteligencją rozwinęła się przede wszystkim w sektorze publicznym - w szczególności we wsparciu diagnostyki w ochronie zdrowia, bezpieczeństwie, cyberbezpieczeństwie, w rozwiązywaniu problemów społecznych takich jak przemoc domowa, bezrobocie, a także przy monitorowaniu ochrony środowiska.

Rozwój technologii to również zapotrzebowanie na wysokiej klasy specjalistów: Data Scientists, Inżynierów AI, programistów, projektantów UX, a w przypadku asystentów głosowych, również lingwistów.

Według Konikiewicza, potrzebne są inicjatywy, które spowodują, że tzw. „przeciętny obywatel ” będzie wiedział więcej na temat AI. W Polsce są wprawdzie nieśmiałe próby wprowadzania programów edukacyjnych i inwestycyjnych czy działania fundacji pro publico bono, które mają na celu kształcenie obywateli. Jednak zbliżenie sektora naukowego i biznesowego, jeżeli chodzi o polski rynek, na razie jest jeszcze na zbyt wczesnym etapie w stosunku do rozwoju i popularyzacji tej technologii.

Konikiewicz wskazuje również na potrzebę wprowadzenia już na poziomie szkoły podstawowej przedmiotu „media cyfrowe”, podczas którego dzieci i młodzież zdobywałyby wiedzę o możliwościach nowoczesnych technologii, ale i o niebezpieczeństwach związanych z ich niewłaściwym stosowaniem.

„Materiału wystarczyłoby na kilka lat nauczania” – podkreśla ekspert PKO Banku Polskiego.

Źródło informacji: PAP MediaRoom

Kosma Złotowski: musimy uważnie obserwować rozwój technologii sztucznej inteligencji

Kiedy zaczął się pan interesować sztuczną inteligencją?

Rewolucja cyfrowa wpływa na nasze życie we wszystkich obszarach, także na politykę i to jak działa państwo. Od początku mojej aktywności publicznej starałem się zwracać uwagę na potrzebę patrzenia na nowe technologie także z tej perspektywy. Byłem inicjatorom i twórcą pierwszego w Sejmie zespołu parlamentarnego na rzecz społeczeństwa informacyjnego. Sztuczna inteligencja to technologia, której rozwój trzeba obserwować bardzo uważnie, a tam gdzie to konieczne regulować. W komisjach Parlamentu Europejskiego, w których pracuję, między innymi tym się zajmuję.

Rynek cyfrowy przez lata funkcjonował w pewnej próżni legislacyjnej i dzisiaj widzimy tego skutki. W przypadku SI nie chcemy popełnić podobnego błędu, dlatego przewidujemy możliwe zagrożenia i tworzymy normy i kryteria, które pozwolą im zapobiegać.

Jakie są pana obawy związane z dynamicznym rozwojem sztucznej inteligencji? Czy można skutecznie zachować obecną dynamikę jej rozwoju przy równoczesnym zapewnieniu bezpieczeństwa i poszanowaniu praw obywateli?

Zagrożenia związane z rozwojem sztucznej inteligencji pobudzają wyobraźnię i nie można ich ignorować. To, co wydaje mi się najbardziej niebezpieczne, to nie ryzyko przejęcia władzy nad światem przez myślące maszyny, ale raczej kwestie prawne, np. kto ponosi odpowiedzialność za skutki awarii lub wypadku systemu SI.

Kolejna sprawa to cyberbezpieczeństwo i możliowść wykorzystania inteligentnych urządzeń z obszaru IoT do działań hakerskich albo terrorystycznych. Jestem pewien, że właściwie skonstruowane środowisko testowe i badawcze, takie jak proponowane w AI Act piaskownice regulacyjne, pozwoli znaleźć złoty środek. Potrzebna jest jednak lepsza współpraca odpowiednich organów państwa i sektora prywatnego w identyfikowaniu potencjalnych luk i problemów.

Przykładem budzącym niepokój może być chociażby Social Credit System, czyli krajowy system służący do oceniania obywateli w Chińskiej Republice Ludowej. Czy widzi pan potencjalnie podobne zagrożenia również w Europie?

Chiny są państwem totalitarnym, które zbiera informacje o swoich obywatelach już od dziesięcioleci. System kredytu społecznego to nowa, cyfrowa odsłona metod, które były już stosowane. Państwa demokratyczne nie mogą sięgać po takie rozwiązania, bo są one sprzeczne z prawami człowieka.

Komisja Europejska wprost sformułowała bezwzględny zakaz prac nad tego rodzaju systemami. Uważam, że w przypadku instytucji publicznych korzystających ze sztucznej inteligencji nawet w drobnych sprawach powinniśmy wymagać pełnej transparentności i oczekiwać informacji jaki algorytm został użyty, jakie były kryteria podjęcia decyzji i czy była ona zweryfikowana przez człowieka.

Wykorzystywanie sztucznej inteligencji sprawia, że ogromną władzę zyskują prywatne korporacje technologiczne. Tym samym zdobywają one realny wpływ na światową gospodarkę i politykę. Czy da się rozwiązać ten problem?

Cały rynek cyfrowy, nie tylko europejski, ale globalny jest zdominowany przez kilka największych firm. Nic więc dziwnego, że także jeśli chodzi o rozwój SI, mają one przewagę wypracowaną przez lata – w zbieraniu danych i w inwestowaniu w badania i rozwój. Odpowiedzią na wynikające z tego problemy są działania antymonopolowe i przepisy, które UE już uchwaliła, takie jak DMA czy DSA. Zasada jest prosta – im silniejsza pozycja na rynku i większe z niej korzyści, tym większa odpowiedzialność za negatywne skutki zjawisk, które się przy okazji kreuje.

Czytaj też:

Sztuczna inteligencja: czy biurokracja zatrzyma innowacje

Nie oznacza to jednak, że korporacje technologiczne to zawsze czarne charaktery. Dialog między sektorem prywatnym i publicznym powinien być zawsze pierwszym wyborem, bo obie strony mogą i powinny się od siebie uczyć. Państwo, jako działające w interesie społecznym, powinno mieć jednak zawsze ostanie słowo i narzędzia do egzekwowania prawa w internecie.

Unia Europejska wprowadziła szereg regulacji, które mają chronić obywateli na rynku cyfrowym. Czy całokształt tych działań przekłada się na realne bezpieczeństwo w sieci? Jakie działania pana zdaniem należałoby wdrożyć dodatkowo?

Wiele z tych przepisów zostało przyjętych niedawno, więc trudno ocenić, jak będą działać w praktyce. Część z nich wymaga jeszcze przeniesienia do krajowego porządku prawnego, co rodzi pewne wyzwania. Podobnie jak z RODO, intencje są jak najbardziej słuszne, ale to praktyka ich stosowania zdecyduje czy użytkownicy mediów społecznosciowych czy klienci platform internetowych odniosą realne korzyści.

W kontekście rozwoju sztucznej inteligencji kluczowe będzie przyjęcie AI Act oraz dyrektywy w sprawie odpowiedzialności cywilnej w przypadku błędów i wypadków systemów sztucznej inteligencji. Stworzenie jasnego schematu wskazywania winnego i dochodzenia odszkodowań to warunek zbudowania zaufania konsumentów do produktów i usług opartych na tej technologii.

Spójrzmy teraz na problem z drugiej strony. Czy biurokracja może być barierą hamującą rozwój sztucznej inteligencji?

Biurokracja, która jest wroga technologii i sama nie jest cyfrowa, może być taką barierą. Nawet najlepsze i najbardziej przyjazne przepisy nie pomogą jeśli proces decyzyjny czy obieg dokumentów są analogowe. Polska przechodzi w tym zakresie szybką transformację i szereg usług publicznych, także oferowanych przedsiębiorcom, już jest w pełni dostępny on-line, ale nie cała UE tak działa. Jeśli chcemy być przyjaźni innowacjom to musi się zmienić.

Skupiliśmy się głównie na zagrożeniach. A czy dzięki działaniom, jakie wdraża UE, w najbliżej przyszłości Europa ma szansę stać się światowym liderem w rozwoju sztucznej inteligencji?

Wsiadamy do tego pociągu najpóźniej ze wszystkich rozwiniętych gospodarek świata, więc trudno mówić o tym, że w krótkim czasie wyprzedzimy USA czy Chiny. Jednak położenie ogromnego nacisku na cyfryzację w obszarze regulacji czy inwestycji w Unii Europejskiej to pierwszy krok niezbędny, żeby na poważnie do tego wyścigu dołączyć.

Mamy europejskie firmy, które w wielu obszarach nadal liczą się na świecie, na przykład w branży motoryzacyjnej, energetycznej czy medycznej, które inwestują w sztuczną inteligencję. Polska jest ważnym producentem dronów, które także wykorzystują sztuczną inteligencję. W tych poszczególnych obszarach mamy szanse wygrywać z globalną konkurencją.

Sztuczna inteligencja jest szansą, czy zagrożeniem dla człowieka?

Nowe technologie mają nie lada wpływ na nasze codzienne życie. Sztuczna inteligencja wykorzystywana jest w coraz większej liczbie branż. AI wspiera niemal wszystkie gałęzie gospodarki- medycynę, rolnictwo, handel, transport, edukację. Wątpliwości dotyczące tego, czy nowoczesne technologie niosą ze sobą więcej korzyści, czy zagrożeń rozwieje podczas rozmowy z Anitą Chudyga z R&D Impact, Dyrektor Centrum Inteligentnych Technologii Wydziału Zarządzania UŁ, dr Dominika Kaczorowska-Spychalska, która od wielu lat pasjonuje się tą tematyką.

Anita Chudyga, R&D Impact: Fascynuje Panią wpływ technologii cyfrowych na zachowania człowieka, oraz zakres i charakter interakcji między nim a technologią. Mogłoby się wydawać, że jest to typowo męska dyscyplina. Skąd wybór tej ścieżki zawodowej?

Dr Dominika Kaczorowska-Spychalska: Muszę przyznać, że technologie i to jak wpływają one na nas ludzi i role, jakie pełnimy na co dzień – konsumentów, managerów, pracowników – jest tematyką, która pasjonuje mnie od kilku lat. Fascynuje mnie przestrzeń dotycząca tego, czego my jako ludzie w nich poszukujemy i jak wchodzimy w interakcje z nimi. Obserwuję co chcemy za ich pośrednictwem osiągnąć i jaką kolejną granicę przekroczyć. Intrygujący jest dla mnie obraz naszej cyfrowej ewolucji, opartej na adaptacji do nowej rzeczywistości lub jej kreacji. Myślę, że to nie jest branża, w której kluczowe znaczenie ma płeć. Najważniejsza jest świadomość zmian, które wokół nas zachodzą w wyniku rozwoju technologii. I chyba to pociąga mnie najbardziej.

Technologie cyfrowe definiują otaczającą nas rzeczywistość i mają ogromny wpływ na nasze życie. Jakie korzyści niesie ich wykorzystanie?

Tych korzyści jest bardzo wiele. Myślę, że trudno byłoby je teraz wszystkie wymienić. Natomiast niewątpliwie trzeba zgodzić się z tym, że rola i znaczenie technologii cyfrowych faktycznie jest coraz większe, co widać w zasadzie w każdym sektorze i branży, począwszy od medycyny poprzez edukację, motoryzację, energetykę, handel, marketing, aż po rolnictwo czy ochronę środowiska. Sądzę, że powinniśmy patrzeć na nowe technologie, i to zarówno z perspektywy biznesu, jak i społeczeństwa, jak na rodzaj szansy, która pozwoli nam się lepiej i szybciej rozwijać, w sposób coraz bardziej odpowiedzialny. Pamiętajmy jednak przy tym, że wszystkie te technologie chociaż rzeczywiście dają nam szerokie spektrum możliwości, pociągają za sobą także szereg nowych wyzwań, których często nie jesteśmy jeszcze w stanie przewidzieć.

Prowadzi Pani badania w zakresie wykorzystania sztucznej inteligencji w reklamie. Czy rzucają one nowe światło w tym zakresie?

Projekt badawczy, który realizowałam razem z Olgierdem Cyganem z Future.Company, koncentrował się na problemie wykorzystania w reklamie generatorów zdjęć opartych na sztucznej inteligencji. Kluczowym aspektem tych badań była kwestia akceptacji takich zdjęć reklamowych przez konsumentów. I chociaż AI jest obecna w branży reklamowej od dłuższego czasu, to możliwości, jakich już wkrótce mogą dostarczyć wspomniane przeze mnie generatory zdjęć, znacząco wpłyną na dalszy rozwój rynku reklamowego. Interesowały nas zarówno kwestie oceny jakości tak przygotowanych zdjęć, poziom ich wiarygodności i możliwości eksponowania rzeczywistych cech reklamowanych produktów. Zastanawialiśmy się czy konsument widząc je, będzie mówił: „Wow jaki fantastyczny produkt, chciałbym go mieć!”? czy też okażą się one dla niego zbyt sztuczne i mało przekonywujące. Byliśmy także bardzo ciekawi, czy nasi polscy konsumenci, są już gotowi na to, aby takie zdjęcia reklamowe, właśnie wygenerowane przez systemy oparte na sztucznej inteligencji zaakceptować na równi z tymi, które dziś przygotowują pracownicy działów marketingu. Nurtowało nas też pytanie o to czy wiedza o tym, że oglądane zdjęcia zostały stworzone przy wykorzystaniu generatorów zdjęć, wpłynie na ich ocenę i decyzje nabywcze. O szczegółowych wynikach opowiemy już wkrótce, w tym także w trakcie zbliżającego się Filmteractive Festival 2022.

Czy poprzez użycie AI w marketingu, sposób dotarcia do klientów będzie skuteczniejszy? Do czego może być używana?

Uważam, że jako biznes sięgamy po technologie cyfrowe, przede wszystkim po to, aby optymalizować, doskonalić i ulepszać realizowane procesy czy wytwarzane produkty, systematycznie podnosząc poziom swojej dojrzałości cyfrowej. To samo dotyczy wykorzystania sztucznej inteligencji czy innych technologii, jak chociażby Internet Rzeczy, rzeczywistość wirtualna czy rozszerzona, w marketingu. Dzięki nim możemy dokładniej analizować profile i zachowania konsumentów, lepiej osadzać je w określonym kontekście i procesie decyzyjnym, coraz lepiej rozumiejąc ich przebieg. Możemy nadawać im nowy sens z punktu widzenia oferowanych na rynku wartości, coraz bardziej angażujących doświadczeń czy innowacyjnych modeli biznesowych, pozwalających osiągnąć przewagę rynkową. Ale to problematyka, która wymaga znacznie szerszego spojrzenia, chociażby w kontekście konieczności ciągłego podnoszenia umiejętności cyfrowych pracowników, pracujących w działach marketingu i ich kompetencji.

Czy wyniki Pani badań otwierają nowy rozdział w tej dziedzinie?

Bardzo bym chciała, dlatego, że technologie rozwijają się bardzo szybko i tak naprawdę wraz z tym rozwojem otwierają się nowe, nieznane dla nas obszary. Będą one miały znaczenie, wpływając na nasze zachowania, postawy, preferencje i oczekiwania. Jako ludzie wymyślamy i tworzymy technologie, implementujemy je w urządzenia, którymi się posługujemy, a kiedy pojawiają się na rynku odrzucamy je lub stopniowo akceptujemy. Im bardziej stają się one powszechnie dostępne i wykorzystywane, tym bardziej mają wpływ na to, jak się zachowujemy i to, czego będziemy oczekiwali w dalszej kolejności. Badania, które podejmuję i które staram się realizować, faktycznie dotyczą nowych wątków i obszarów. Tak jest z badaniami dotyczącymi akceptacji społecznej zdjęć reklamowych tworzonych przez generatory zdjęć oparte na sztucznej inteligencji (udział człowieka w tym procesie jest maksymalnie ograniczony). Takie były też badania nad wykorzystywaniem AI w urządzeniach ubieralnych czy nad chipami płatniczymi jako alternatywną formą płatności, które prowadziłam z prof. Łukaszem Sułkowskim z Uniwersytetu Jagiellońskiego. Zawsze interesuje mnie, jakie czynniki decydują o tym, że jesteśmy skłonni sięgać po takie rozwiązania, niejednokrotnie wychodząc poza swoją dotychczasową strefę komfortu. Ważnym dla mnie elementem w podejmowanych badaniach jest współpraca i próba znalezienia synergii pomiędzy światem nauki a światem biznesu. Dotyczy to zarówno współdziałania na etapie konceptualizacji badań, ich realizacji, jak i interpretacji uzyskanych wyników. Tylko wtedy badania mają znaczenie nie tylko z punktu widzenia naukowców i ich zainteresowań, ale przede wszystkim z punktu widzenia biznesu i społeczeństwa. Mam nadzieję, że przynajmniej część badań, które prowadzę w zakresie nowych technologii, będzie miała szansę znaleźć swoje zastosowanie w praktyce rynkowej.

Nawiązując do głośnego filmu z 2015 roku- pt. „Ex Machina”, który opowiada o tym, jakie konsekwencje ze sobą niesie sztuczna inteligencja. Czy AI jest bezpieczne? Co, jeśli robot ze sztuczną inteligencją zastąpi człowieka, zawładnie światem?

To bardzo pesymistyczna wizja świata w mniej lub bardziej odległej przyszłości. Powiedziałabym, że wprost apokaliptyczna. Gier, filmów czy programów, w których sztuczna inteligencja jest pokazywana jako niszcząca i destrukcyjna siła, mamy dzisiaj całkiem sporo. To bowiem co do końca dla nas nieznane lub niezrozumiałe rozbudza naszą wyobraźnię, ale i budzi lęki. Ma to później niejednokrotnie swoje przełożenie na to, jak postrzegamy te technologie, a także czy jesteśmy w stanie je zaakceptować. Warto zastanowić się czasem, jak bardzo ukształtowane w naszej świadomości popkulturowe wyobrażenie o sztucznej inteligencji wpływa na to jak oceniamy dostępne na rynku produkty czy usługi w których wiemy, że jest ona obecna. Jestem zwolennikiem nie demonizowania sztucznej inteligencji. Technologie same w sobie nie są bowiem ani dobre, ani złe, a to jak zostaną wykorzystane w praktyce, zależy tylko od nas samych – ludzi. To my nadajemy im sens i znaczenie, dedykując je konkretnym rozwiązaniom. Uważam, że dystopijna wizja, w której sztuczna inteligencja zawładnie światem to jedynie science fiction. Jeśli bowiem świadomie dopuszczamy taki hipotetyczny scenariusz, to mamy też siłę i wiedzę, aby rozwijać sztuczną inteligencję w taki sposób, by nigdy się on nie urzeczywistnił. Wierzę w ludzi.

Aktualnie wykorzystujemy sztuczną inteligencję także w grafice komputerowej, a nawet w dziennikarstwie. Co będzie następne?

To trudne pytanie, ponieważ oprócz wspomnianego przez Panią dziennikarstwa czy grafiki istnieją już opowiadania pisane przez AI, komponowane przez nią utwory muzyczne czy malowane przez nią obrazy, sprzedawane na liczących się, światowych aukcjach za ogromne pieniądze. Sami musimy zadecydować gdzie i w jaki sposób wykorzystamy wkrótce AI. Możliwości są przeogromne, a nasza kreatywność nieograniczona.

Zdradzi nam Pani swoje plany na przyszłość?

Moje plany niewątpliwie są związane z przestrzenią technologii, zwłaszcza sztucznej inteligencji i ich wpływem na człowieka. Bardzo mocno interesuje mnie obecnie problematyka posthuman consumer i tego, jak szybko i jak głęboko AI będzie, w sposób naturalny, wkraczała w nasze życie. Jak bardzo będzie zmieniała to kim jesteśmy i jak postrzegamy siebie jako ludzi. To jest to, z czym chciałabym wiązać swoją przyszłość, mając poczucie, że mam jakikolwiek wpływ na to, co będzie się działo w rzeczywistości wokół mnie.

Dziękuję za rozmowę.