
Ta sytuacja może się jednak zmienić. Prace koreańskich naukowców i jednego z największych tamtejszych banków cyfrowych wskazują na realny przełom w dziedzinie tzw. wyjaśnialnej sztucznej inteligencji. Kluczem nie jest budowa lepszego modelu, lecz stworzenie sprytniejszego sposobu na to, by ten model wytłumaczył swoje działanie.
Framework ABSQR radykalnie przyspiesza wyjaśnianie decyzji sztucznej inteligencji
Tradycyjne metody wyjaśniania tego, jak algorytm doszedł do konkretnego wniosku, przypominają analizowanie każdego możliwego ruchu w szachach po zakończonej partii. W świecie uczenia maszynowego oznacza to przeliczanie setek, a czasem tysięcy tzw. linii bazowych. Są to punkty odniesienia, które pokazują, które dane wejściowe – na przykład dochód, wiek czy historia kredytowa – najbardziej wpłynęły na ostateczną decyzję o przyznaniu lub odmowie pożyczki.
Czytaj też: Apollo w akcji. Google DeepMind uczy roboty rozumieć nieznane
Takie podejście generuje gigantyczne koszty obliczeniowe. System musi wielokrotnie uruchamiać pełny model, testując różne scenariusze. W efekcie wyjaśnienia często docierają do klienta z opóźnieniem, co jest poważnym problemem tam, gdzie liczy się czas, np. przy zgłaszaniu podejrzanej transakcji. Dla instytucji finansowych to także wyzwanie regulacyjne – przepisy w wielu krajach coraz wyraźniej wymagają przejrzystości i możliwości uzasadnienia decyzji podjętych automatycznie.
Nowa struktura programistyczna ABSQR. Dwa kroki do szybkiej odpowiedzi
Rozwiązanie opracowane przez zespół z KAIST we współpracy z KakaoBank nosi nazwę ABSQR, co rozwija się jako Amortized Baseline Selection via Rank-Revealing QR. Jego filozofia jest inna: zamiast męczyć system analizą wszystkich możliwych ścieżek, najpierw inteligentnie wybiera te najważniejsze.
Czytaj też: Naukowcy z Georgia Tech rozwiązali problem widzenia robotów. Ich soczewka reaguje na światło jak żywe oko
Pierwszy etap wykorzystuje zaawansowane metody matematyczne, w tym dekompozycję wartości osobliwych. Dzięki nim system nie wybiera linii bazowych losowo, lecz w sposób systematyczny, identyfikując kluczowe punkty odniesienia. To podejście deterministyczne pozwala zachować wysoką dokładność już na starcie, redukując liczbę potrzebnych obliczeń.

Drugi etap to tzw. amortyzowana inferencja. Gdy system napotyka nowy przypadek do wyjaśnienia, nie zaczyna pracy od zera. Szuka wcześniej przetworzonych, podobnych przypadków i ponownie wykorzystuje dla nich obliczone wagi. Można to porównać do posiadania rozbudowanej bazy gotowych rozwiązań, którą szybko się przeszukuje. Sekret tkwi w wykorzystaniu struktury o niskiej randze macierzy funkcji wartości, co w praktyce oznacza, że ogrom informacji z tysięcy teoretycznych linii bazowych da się zamknąć w znacznie mniejszym, reprezentatywnym zestawie.
Badacze przetestowali swoją strukturę programistyczną na pięciu różnych zbiorach danych, obejmujących finanse, marketing i dane demograficzne. Wyniki są imponujące: średnie przyspieszenie generowania wyjaśnień wyniosło 8,5 raza, a w najlepszym przypadku przekroczyło 11-krotność w porównaniu z metodą używającą wszystkich linii bazowych.
Czytaj też: Robot Atlas wstaje jak cyrkowiec. Przerażający, ale genialny manewr humanoida od Boston Dynamics
Co kluczowe, ta prędkość nie została okupiona znaczną utratą jakości. System zachowuje ponad 93% dokładności w porównaniu z pełną, wolniejszą analizą. W realnych zastosowaniach, gdzie liczy się zarówno czas, jak i wiarygodność, takie parametry mogą być punktem zwrotnym. Dla KakaoBank technologia ta otwiera drogę do szybszej i bardziej przejrzystej komunikacji z klientami, co jest istotne w kontekście rosnących wymagań prawnych.
Korzyści nie tylko dla banków
Choć prace są prowadzone z myślą o sektorze finansowym, potencjał zastosowań jest znacznie szerszy. Technologia, która potrafi szybko i rzetelnie wyjaśniać decyzje AI, może znaleźć zastosowanie w systemach rekomendacyjnych, diagnostyce medycznej czy wszędzie tam, gdzie zaufanie do algorytmu musi iść w parze zrozumiałością jego działania. Współpraca uczelni z biznesem pokazuje, jak badania podstawowe mogą szybko przekładać się na konkretne narzędzia. W obszarze wyjaśnialnej AI, gdzie oczekiwania regulacyjne często wyprzedzają możliwości techniczne, takie postępy są na wagę złota. Sukces będzie jednak mierzony nie w laboratorium, lecz w codziennym użytku przez miliony klientów, którzy wciąż podchodzą do decyzji algorytmów z uzasadnionym dystansem.