Menu Close

Czy sztuczna inteligencja jest w stanie symulować procesy gospodarcze tak, by stworzyć sprawiedliwą politykę fiskalną

„Głębokie uczenie” – (deep lerning) dało sztucznej inteligencji AI wiedzę, która pozwoliła pokonać ludzi w tak złożonych grach jak Go czy StarCraft. Czy AI może również osiągać lepsze od ludzi wyniki w ekonomii i prowadzeniu gospodarki?

Nierówność dochodów jest jednym z zasadniczych problemów ekonomii z jakimi muszą się uporać decydenci. Realizowane jest to również za pośrednictwem polityki podatkowej: rządy zbierają pieniądze od ludzi i redystrybuują je bezpośrednio – za pośrednictwem systemów opieki społecznej lub pośrednio – wykorzystując je do płacenia za projekty publiczne. Ale choć większe opodatkowanie może prowadzić do większej równości, to opodatkowanie zbyt wysokie może zniechęcić do pracy lub zmotywować ludzi do znalezienia sposobów na uniknięcie płacenia, co generalnie zmniejsza ogólną pulę.

Uzyskanie właściwej równowagi nie jest łatwe. Ekonomiści zazwyczaj opierają się na założeniach, które są trudne do zweryfikowania. Zachowania ekonomiczne ludzi są złożone, a gromadzenie danych na ten temat jest trudne. Przez dziesięciolecia badania ekonomiczne zmagały się z projektowaniem najlepszej polityki podatkowej, jednak nadal pozostaje ona otwartym problemem.

Naukowcy z amerykańskiej firmy technologicznej Salesforce uważają, że sztuczna inteligencja AI może nam w tym pomóc. Kierowany przez Richarda Sochera zespół opracował system o nazwie “AI Economist, który wykorzystuje głębokie uczenie – t.j. ten sam rodzaj techniki stojącej za AlphaGo i AlphaZero DeepMind – w celu określenia optymalnej polityki podatkowej dla symulowanej gospodarki. Narzędzie jest stosunkowo proste (nie ma wprawdzie sposobu, aby uwzględnić wszystkie zawiłości świata rzeczywistego lub ludzkiego zachowania), ale jest obiecującym pierwszym krokiem w kierunku podejścia do polityki fiskalnej w zupełnie nowy sposób. “Byłoby wspaniale, gdyby polityka podatkowa była mniej polityczna i bardziej oparta na danych”, mówi członek zespołu Alex Trott.

W jednym z pierwszych obiecujących rezultatów sztuczna inteligencja znalazła sposób na maksymalizację zarówno wydajności, jak i równości dochodów – wynik był o 16% bardziej sprawiedliwy niż najnowocześniejsze progresywne ramy podatkowe badane przez ekonomistów akademickich, a poprawa w stosunku do obecnej polityki USA była jeszcze większa. “Myślę, że to ciekawy pomysł”, mówi Blake LeBaron z Brandeis University w Massachusetts, który wykorzystał sieci neuronowe do modelowania rynków finansowych.

W symulacji, czterech fikcyjnych pracowników AI jest kontrolowanych przez własne modele uczenia się. Wchodzą oni w interakcje z dwuwymiarowym światem, symulując zbieranie drewna i kamieni, handlując tymi zasobami z innymi, lub wykorzystując je do budowy domów. Daje im to dochód.

Pracownicy mają różne poziomy umiejętności, prowadzące do ich specjalizacji. Pracownicy o niższych kwalifikacjach uczą się, że zrobią lepiej, jeśli będą zbierać zasoby, a ci o wyższych kwalifikacjach dowiadują się, że lepiej, jeśli kupią środki na budowę domów.

Pod koniec każdego symulowanego roku wszyscy pracownicy są opodatkowani według stawki opracowanej przez kontrolowanego przez sztuczną inteligencję decydenta, który posiada własny algorytm głębokiego uczenia się. Cele decydentów którymi są zwiększenie zarówno wydajności, jak i dochodów wszystkich pracowników AI, optymalizowane są poprzez milionową powtarzalność symulacji procesów z różnymi danymi wejściowymi generowanymi przez AI.

Oba modele głębokiego uczenia się zaczynają się od poziomu zerowego, bez wcześniejszej znajomości teorii ekonomicznej i uczą się działania metodą prób i błędów – w podobny sposób, w jaki AI DeepMind uczył się – bez udziału człowieka – grać w Go i StarCraft na nadludzkich poziomach.

Czy można się wiele nauczyć od czterech tylko pracowników AI? Teoretycznie tak, ponieważ proste interakcje między próbką prowadzą do bardzo złożonych zachowań. (Mimo całej swojej złożoności,  gra Go obejmuje tylko dwóch graczy). Zaangażowani w projekt specjaliści zgadzają się jednak, że zwiększenie liczby pracowników w symulacji będzie niezbędne, jeśli narzędzie ma modelować realistyczne scenariusze.

Granie w system

Sieci neuronowe były już wcześniej używane do kontrolowania parametrów w symulowanych gospodarkach. Jednak uczynienie AI decydentem prowadzi do modelu, w którym pracownicy i decydenci nieustannie modyfikują i dostosowują do siebie swoje działania. To dynamiczne środowisko było wyzwaniem dla modeli głębokiego uczenia ponieważ strategia wyuczona w ramach jednej polityki podatkowej może nie działać tak dobrze w warunkach innej polityki fiskalnej.

Oznacza to również, że AI może znaleźć sposoby dla rozszerzenia gry systemu. Na przykład sytuację w której niektórzy pracownicy nauczą się unikać podatków poprzez chwilowe zmniejszenie swojej produktywności tak, by zakwalifikować się do niższego przedziału podatkowego, po czym ponownie zwiększyć ją. Zespół Salesforce twierdzi, że to kontrowersje między pracownikami, a decydentami prowadzą do symulacji bardziej realistycznej niż cokolwiek osiągnięte przez poprzednie modele, gdzie zasady podatkowe były stałe.

Polityka podatkowa, którą wymyślił „ekonomista AI”, jest trochę nietypowa. W przeciwieństwie do większości istniejących polityk, które są albo progresywne (czyli osoby o wyższych dochodach są opodatkowane bardziej) lub regresywne (osoby o wyższych dochodach są opodatkowane mniej). Polityka AI połączyła obydwa aspekty, stosując najwyższe stawki podatkowe dla bogatych i biednych oraz pracowników o najniższych i średnich dochodach. Podobnie jak wiele rozwiązań, które AI wymyśliło – w tym modelowych ruchów w wygranych przez AlphaZero grach – zastosowana technika wydawała się być sprzeczną z ludzką intuicją i była czymś co nie wydawało się możliwe do wymyślenia przez człowieka. Jednak wpływ takiej polityki na gospodarkę doprowadził do bezkonfliktowego zmniejszenia przepaści między bogatymi a biednymi.

Aby sprawdzić, czy polityka podatkowa generowana przez AI wpłynie w podobny sposób na zachowanie człowieka, zespół przetestował ją na ponad 100 pracownikach, którzy zostali poproszeni o odegranie wzorca symulacji. Odkryto, że symulacja zachęciła ludzi do „gry” w przewidziany przez AI sposób sugerując – przynajmniej w symulacji, że „AI Economist” może być wykorzystany do wpływania na rzeczywistą działalność gospodarczą.

Kolejną zaletą symulacji opartej na sztucznej inteligencji jest możliwość zmiany parametrów w celu zbadania różnych scenariuszy. Na przykład możliwe byłoby modelowanie wpływu pandemii poprzez dodanie ograniczeń, takich jak zdystansowanie społeczne i ograniczony dostęp do zasobów, lub poprzez usunięcie ludzi z produkcji. “Trudno wymyślić optymalne teorie podatkowe oparte na przeszłości, jeśli przyszłość wygląda zupełnie inaczej”, mówi Socher.

Zdolność symulacji AI do modelowania zmian jest dużym plusem, twierdzi LeBaron: jednak jego głównym zastrzeżeniem jest niewielka liczba uczestników symulacji. “Są ludzie, którzy twierdzą, że można uzyskać wartościowe intelektualne spostrzeżenia z zaledwie kilku uczestników. Nie jestem jednak jednym z nich.” LeBaron chciałby, ażeby symulacja obejmowała około 100 pracowników, co jest zresztą równoznaczne z dążeniem zespołu Salesforce.

David Parkes, informatyk i ekonomista z Uniwersytetu Harvarda, który współpracował z zespołem Salesforce, jest optymistą. Zgadza się, że należy znacznie zwiększyć liczbę uczestników. Gdy już to zostanie dokonane i zostanie dodane do symulacji kilka dodatkowych funkcji, takich jak np. firmy, to przewiduje się, że będzie można powtórzyć istniejące wyniki teoretyczne. “Wówczas wyniki symulacji staną się natychmiast przydatne”.

Doyne Farmer, ekonomistka z Uniwersytetu Oksfordzkiego, jest jednak mniej przekonana o tym. Wprawdzie z zadowoleniem przyjmuje zwrot w podejściu do ekonomii, to “Pojawia się pytanie, czy można badać zasady w taki sam sposób, w jaki gra się w Go” i uważa, że upłynie trochę czasu, zanim narzędzie to będzie rzeczywiście przydatne. “Prawdziwy świat jest zbyt skomplikowany”.

Zespół przyznaje, że niektórych ekonomistów trzeba będzie przekonywać. W tym celu publikują swój kod i zapraszają innych do uruchamiania własnych modeli za jego pośrednictwem. Na dłuższą metę ta otwartość będzie również ważnym elementem tworzenia narzędzi godnych zaufania, mówi Socher. “Jeśli używasz AI, aby zalecić niektórym ludziom niższe lub wyższe podatki to lepiej byłoby powiedzieć dlaczego”.

 

 

wg. MIT

Leave a Reply

Your email address will not be published. Required fields are marked *