Post_Detail

AI w zarządzaniu ryzykiem to nie magia

Technologia Chmury

AI w zarządzaniu ryzykiem to nie magia

Rozwiązania oparte na sztucznej inteligencji umożliwiają zautomatyzowane zarządzanie ryzykiem, które jest zawsze dokładniejsze i wydajniejsze. Dr. Leibrock z THI opisuje potencjał inteligentnych algorytmów w praktyce.

Dr. Edeltraud Leibrock jest Starszym Partnerem w THI - The Huehn Initiative - firmie konsultingowej zajmującej się strategią i ogólnym zarządzaniem w Hamburgu. Doktor nauk przyrodniczych i pionier technologii był współzałożycielem „Salon Utopii”, prywatnego think tanku, który zajmuje się społecznymi implikacjami cyfryzacji, wirtualizacji i sztucznej inteligencji. W wywiadzie wyjaśnia, dlaczego zarządzanie ryzykiem oparte na sztucznej inteligencji nie jest magią, ale narzędziem technicznym. pl! profesjonalny: Co może osiągnąć zarządzanie ryzykiem oparte na sztucznej inteligencji, czego nie może osiągnąć „normalne” zarządzanie ryzykiem oparte na oprogramowaniu?

Dr. Edeltraud Leibrock jest Starszym Partnerem w THI - The Huehn Initiative. (Źródło: THI) Dr. Edeltraud Leibrock: Nie inaczej jest w zarządzaniu ryzykiem niż we wszystkich innych obszarach zastosowania sztucznej inteligencji. W przeciwieństwie do „normalnych” modeli ryzyka, sztuczna inteligencja nie opiera się na statycznych schematach blokowych, które sprawdzają dany zestaw kryteriów, ale na dynamicznych i uczących się algorytmach. Każdy, kto ma do czynienia z modelami ryzyka kredytowego lub rynkowego w bankowości, wie, ile wysiłku wymaga np. mapowanie nowych wymogów regulacyjnych lub ujemnych stóp procentowych. Są to często niezwykle złożone projekty na dużą skalę, ponieważ, mówiąc w przenośni, za każdym razem ingeruje się w „kod genetyczny” modelu. Wtedy nagle pojawiają się błędy w innych miejscach, których nikt się nie spodziewał.

Inaczej jest z AI: tutaj algorytm nie jest przekodowywany, jeśli coś się zmienia, ale raczej uczy się na podstawie nowych danych i nowo dodanych modułów wiedzy i dzięki temu staje się coraz lepszy. Stephen Hawking, który sam dość krytycznie postrzegał sztuczną inteligencję, wielokrotnie posługiwał się definicją „Inteligencja to zdolność przystosowania się do zmian” – dotyczy to zarówno człowieka, jak i sztucznej inteligencji. pl! profesjonalny: Prawdopodobnie jednym z najlepszych przykładów zastosowania sztucznej inteligencji w zarządzaniu ryzykiem jest wykrywanie przypadków oszustw. Algorytmy można pisać przy użyciu różnych technik modelowania stochastycznego, kodowania i sprawdzania danych. A może uważasz, że inny scenariusz jest bardziej odpowiedni? Dr. Leibrock: Dochodzenie i zapobieganie oszustwom jest idealne dla aplikacji AI: funkcję docelową można sformułować w prosty i matematyczny sposób, istnieje wystarczająca ilość dobrych danych przy istniejącej strukturze docelowej (klasyfikacja jako „przypadek oszustwa” lub „brak przypadku oszustwa”) oraz nowe dane mogą być tworzone i łatwo integrowane. Ponadto coraz więcej obszarów zarządzania ryzykiem staje się dostępnych dla AI, takich jak ocena ryzyka w obszarze kredytowym i inwestycyjnym, co oczywiście rodzi również zupełnie nowe pytania dla nadzoru finansowego. Ponadto wykrywanie i obrona cyberataków to ogromna dziedzina – jako rozszerzenie wykrywania oszustw. Ataki stają się coraz bardziej zróżnicowane, szybsze, bardziej elastyczne i trudniejsze do wykrycia, między innymi dzięki wykorzystaniu AI - z drugiej strony nie ma szans, aby móc działać konwencjonalnie samodzielnie bez AI wystarczająco szybko i na całym świecie . pl! profesjonalny: dane, które są albo nieznane i/lub nieustrukturyzowane, stają się oczywistym wyzwaniem dla sztucznej inteligencji. Jak rozwiązać ten problem? Dr. Leibrock: Dane nieustrukturyzowane są generalnie wyzwaniem, sztuczna inteligencja przede wszystkim udostępnia dane nieustrukturyzowane. Uczenie maszynowe oparte na danych zna różne dyscypliny, w zależności od tego, które dane są dostępne w jakiej formie. Podczas gdy nadzorowane uczenie wymaga nieco ustrukturyzowanych danych jako danych wejściowych, a nowe dane są również sortowane zgodnie z tą strukturą, uczenie nienadzorowane wykorzystuje algorytmy, takie jak KMeans, które dzielą nieustrukturyzowane dane na klastry i optymalizują tę klasyfikację, tj. znajdują strukturę nawet w pozornie nieustrukturyzowanych danych. KMeans ma funkcję celu "Które punkty danych należą do siebie?" i mogą być używane na przykład do śledzenia połączeń w sieciach społecznościowych.

Z drugiej strony uczenie wzmocnione nie opiera się przede wszystkim na uczeniu z wykorzystaniem istniejących danych, ale na zdefiniowanej funkcji sukcesu – algorytm musi wiedzieć, kiedy zrobił coś „dobrze”. Początkowo Alpha Go Zero znała tylko zasady Go, a nie ruchy z poprzednich gier. Wielokrotnie wypróbowując różne rzeczy, algorytm uczy się, które ruchy mają sens kiedy, ponieważ ma zdefiniowaną funkcję sukcesu, a mianowicie „wygrywanie”. Kluczowym pytaniem we wszystkich dyscyplinach sztucznej inteligencji jest definicja funkcji celu: kiedy algorytm jest w ogóle dobry, co chcę znaleźć? Wniosek: AI nie jest magią, którą można rzucić na dowolne dane, aby uzyskać dobry wynik, najpierw musi być jasne, co oznacza „dobry”. pl! profesjonalny: Nawet jeśli sztuczna inteligencja staje się coraz bardziej wyrafinowana i wyrafinowana pod względem wyrafinowania, prawdopodobnie nigdy nie obejdzie się bez ludzkiej interwencji – zwłaszcza, gdy ostatecznie sprowadza się do interpretacji danych i ich wpływu na firmę. Jakie są twoje zalecenia dotyczące radzenia sobie ze sztuczną inteligencją? Dr. Leibrock: Szczerze mówiąc, nie rozumiem, dlaczego ludzie powinni być w stanie długoterminowo lepiej interpretować dane i ich implikacje niż algorytmy, zwłaszcza jeśli weźmie się pod uwagę, jak szybko rośnie dostępna moc obliczeniowa i ilość danych. Nie ma to już miejsca w przypadku konkretnych pytań lub powtarzających się procesów. Niemniej jednak wiele osób uważa, że ​​maszyny nigdy nie mogą podejmować naprawdę ważnych decyzji, bo mają też wymiar etyczny, a algorytmy tak naprawdę nie mają o tym pojęcia – prawda?

Ale: gdybyśmy znaleźli sposób na uczynienie etyki „czytelną maszynowo”, to maszyna działałaby bardziej etycznie i lepiej w sytuacjach kryzysowych niż przeciętny człowiek, który w razie wątpliwości może podejmować egoistyczne decyzje. Algorytmy zawsze będą robić dokładnie to, czego ich nauczyliśmy, zarówno na dobre, jak i na złe. Dlatego musimy sobie zadać pytania o etykę i moralność, nie ma od tego wyjścia, nie ma usprawiedliwienia.