Zmowa bez słów

Zmowa bez słów

Paweł Struski

Czy sztuczna inteligencja może obchodzić regulacje na rynku finansowym?

Sztuczna inteligencja śmiało wkracza na rynki finansowe. Systemy oparte na tej technologii stają się coraz bardziej autonomiczne – potrafią podejmować decyzje handlowe bez udziału człowieka. Pojawia się więc pytanie: czy możemy być pewni, że systemy te nie będą łamać regulacji kluczowych dla prawidłowego funkcjonowania instytucji finansowych? 

Jednym z fundamentów gospodarki rynkowej jest zakaz zmowy cenowej. Firmom nie wolno wspólnie ustalać cen, ponieważ stanowi to manipulację rynkiem i szkodzi konsumentom. Konkurencja wymusza na przedsiębiorstwach oferowanie produktów po atrakcyjniejszych cenach – i to właśnie ona jest motorem korzyści dla klientów. Ekonomiści zazwyczaj przyjmują, że warunkiem koniecznym do zmowy cenowej jest komunikacja między uczestnikami rynku. Dlatego regulatorzy skupiają się na monitorowaniu kontaktów między firmami i to w tej sferze szukają sygnałów niedozwolonej współpracy. Ale co jeśli zmowa okaże się możliwa bez komunikacji? Obecne przepisy nie są przygotowane na taki scenariusz. 

Na taki trop naprowadzają badania Winstona Wei Dou i Itaya Goldsteina z Uniwersytetu Pensylwanii oraz Yan Ji z Uniwersytetu Nauki i Technologii w Hongkongu. Naukowcy zasymulowali rynek finansowy, w którym głównymi graczami były systemy oparte o sztuczną inteligencję (tzw. spekulanci AI). Ku ich zaskoczeniu, spekulanci AI zaczęli stosować strategie handlowe przypominające zmowę cenową, i to bez komunikowania się ze sobą oraz bez jakiejkolwiek instrukcji w tym kierunku. Jedynym celem, jaki im wyznaczono, była maksymalizacja zysku. 

Każdy spekulant działał niezależnie. Mógł jedynie składać zlecenia kupna i sprzedaży oraz obserwować zmieniające się ceny aktywów. W eksperymencie wykorzystano algorytm Q-Learning, czyli jedną z metod uczenia ze wzmocnieniem. Polega ono na tym, że agent podejmuje różne działania (tu: transakcje), obserwuje ich skutki i na tej podstawie uczy się, które strategie są dla niego korzystne. Początkowo wybory są losowe, ale z czasem, dzięki próbom i błędom, AI coraz lepiej rozumie, co się opłaca. Ten mechanizm uczenia jest wykorzystywany również przy projektowaniu sztucznej inteligencji, której zadaniem jest np. gra w szachy. 

W trakcie symulacji badacze zaobserwowali dwa mechanizmy budzące skojarzenia ze zmową cenową. Po pierwsze, agenci nauczyli się „karać” tych uczestników rynku, którzy próbowali działać na własną rękę. W efekcie systemy unikały ostrej konkurencji, by nie narażać się na sankcje. Po drugie, w niektórych sytuacjach algorytm nie wykorzystywał w pełni dostępnych informacji, co paradoksalnie prowadziło do bardziej kooperacyjnych, a więc zbliżonych do zmowy zachowań. 

Oczywiście była to symulacja uproszczona, daleka od realiów prawdziwego rynku finansowego. Co więcej, artykuł naukowy opisujący wyniki badań nie przeszedł jeszcze formalnej recenzji. Mimo to eksperyment pokazuje, że sztuczna inteligencja potrafi zachowywać się w sposób nieoczywisty – i nie zawsze w pełni pożądany. To kolejny argument za tym, by wdrażać rozwiązania zwiększające przejrzystość i wyjaśnialność działania AI. Bo tylko wtedy regulatorzy i uczestnicy rynku będą w stanie ograniczać ryzyka wynikające z jej rosnącej autonomii. 

Dziennik Gazeta Prawna, 12 grudnia 2025 r.

Tags: 
Tłoczone z danych