Menu Close

Sekret upiornej mocy sztucznej inteligencji

Potężne systemy sztucznej inteligencji (AI) mogą działać tak dobrze, ponieważ ich struktura wykorzystuje fundamentalne prawa wszechświata – tak właśnie sugerują najnowsze badania naukowe w tej dziedzinie.

Nowe odkrycia mogą pomóc w rozwikłaniu tajemnicy sztucznej inteligencji, która wykorzystuje strategię o nazwie „głębokie uczenie się” (deep lerning). Programy edukacyjne  głębokiej sieci neuronowej – jak jest ona określana – są algorytmami, które mają wiele warstw, w których obliczenia niższego szczebla zasilają hierarchię wyższą. Głębokie sieci neuronowe mają zadziwiająco dobre wyniki w kompleksowym rozwiązywaniu takich problemów jak pokonanie najlepszego gracza na świecie strategicznej gry planszowej Go czy klasyfikacji zdjęć. Nie do końca jednak jest w pełni zrozumiałym dlaczego? Okazuje się, że jednym z powodów może być sięganie do bardzo szczególnych właściwości świata fizycznego, stwierdził Max Tegmark, fizyk z Massachusetts Institute of Technology (MIT) oraz współautor nowych badań. Prawa fizyki przedstawiają tylko tę “wyjątkową klasę problemów” – problemów, w których rozwiązywaniu AI  jest szczególnie błyskotliwa, stwierdził Tegmark. “Ten niewielki ułamek problemów, które nas obchodzą i dotyczą fizyki oraz niewielki ułamek problemów, które mogą rozwiązać sieci neuronowe są mniej więcej takie same.”

Deep Lerning (głębokie uczenie się)
W ubiegłym roku, AI zrealizowała zadania nie do pomyślenia dla wielu ludzi. Deep Mind, system sztucznej inteligencji Google, pokonał najlepszego na świecie europejskiego zawodnika –  mistrza Go. Wyczyn oszołomił świat, ponieważ liczba potencjalnych ruchów Go przekracza liczbę atomów we wszechświecie, a w przeszłości roboty grające w Go grały tylko na poziomie przeciętnego gracza – człowieka. Bardziej zdumiewające było jednak coś innego, a mianowicie sposób w jaki Deep Mind pokonał swoich przeciwników, jak i sposób realizacji tego zadania. “Dużą tajemnicą sieci neuronowych jest pytanie dlaczego działają one tak dobrze”, powiedział współautor badania Henry Lin, fizyk z Uniwersytetu Harvarda. “Niemal każdy problem, jaki im stawiamy potrafią rozwiązać.” Na przykład, Deep Mind nie został skonstruowany by uczyć się strategii Go i nie był szkolony by rozpoznawać klasyczne sekwencje ruchów. Zamiast tego, po prostu “obserwował” miliony gier, a następnie bardzo wiele grał z sobą i przeciwko innym graczom.
U sztucznej inteligencji tego typu – podobnie jak u noworodków – algorytmy uczenia zaczynają się bez z góry określonych wzorców  i w miarę uczenia jedne “pojęcia”, zaczynają dominować nad innymi algorytmami.  Podobnie jest z  AI, chociaż tutaj niektóre dane można niekiedy z góry narzucić to jednak dalszy proces uczenia następuje już samoistnie, powiedział Tegmark. Kolejną tajemnicą jest teza, dlaczego głębokie sieci są o wiele lepsze niż tzw. płytkie – pojemniki które zawierają jedną warstwę. Sieci tzw. głębokie mają hierarchię i wyglądają trochę jak połączenia między neuronami w mózgu, gdzie dane niższego szczebla zasilają wyższą hierarchię neuronów. Wzorzec ten powtarzany jest na wielu warstwach. W podobny sposób, głębokie warstwy sieci neuronowej mogą dokonywać pewnych obliczeń, a następnie „karmić” wynikami jeszcze wyższe warstwy programu i tak dalej.

Magiczne klucze albo magiczne zamki?
Aby zrozumieć, dlaczego działa ten proces, Tegmark i Lin postanowili postawić pytanie na głowie. “Przypuśćmy, że ktoś dał ci prezent – klucz, który otworzył każdy zamek, który nim próbowałeś otworzyć. Można prawie przypuszczać, że klucz ma jakieś magiczne właściwości, ale jest też inna możliwość, a mianowicie taka, że wszystkie zamki mogą być magiczne. W przypadku sieci neuronowych, być może to po trochę właśnie tak jest ” stwierdził Lin. Jedną z możliwości jest, że problemy “świata rzeczywistego” mają specyficzne właściwości, bo prawdziwy świat jest bardzo specyficzny, stwierdził Tegmark. Weźmy jedną z największych zagadek sieci neuronowych.  Sieci te rozwiązują coś co wydaje się być obliczeniowo trudnym problemem, jak np. gry Go i w jakiś sposób znajdują rozwiązania wykorzystując o wiele mniej obliczeń niż oczekiwano. Okazuje się, że matematyka wykorzystywana przez sieci neuronowe jest uproszczona dzięki kilku szczególnym właściwościom wszechświata.

Pierwszą  jest to, że wiele równań, które rządzą prawami fizyki, mechaniki kwantowej czy grawitacji, aż do szczególnej teorii względności, są to w zasadzie proste równania matematyczne,  wykorzystujące  zmienne podniesione do niskiej potęgi (na przykład 4 lub mniej).

Co więcej, obiekty we wszechświecie są regulowane przez lokalizację, co oznacza, że są ograniczone prędkością światła. Wynika z tego, że  praktycznie rzecz biorąc, sąsiadujące obiekty we Wszechświecie prawdopodobnie bardziej wpływają na siebie niż obiekty od siebie oddalone. Wiele rzeczy we Wszechświecie podlega również temu co określamy normalną lub gaussowską dystrybucją. Jest to klasyczna “krzywa o kształcie dzwonu”, któremu podlega wszystko począwszy od takich cech ludzkich jak wzrost, po prędkość cząsteczek gazu zwiększająca się wokół atmosfery.

Wreszcie symetria, która jest wpleciona w tkankę fizyki. Żyłowate wzory na liściach lub ręce, oczy i uszy przeciętnego człowieka. W skali galaktycznej natomiast, dla kogoś kto podróżuje rok świetlny w lewo lub w prawo, albo czeka  w miejscu przez rok, to prawa fizyki są takie same, stwierdził Tegmark.

Gorszy orzech do zgryzienia
Wszystkie te szczególne cechy  wszechświata znaczą, że problemy sieci neuronowych są w rzeczywistości szczególnymi problemami matematycznymi, które mogą zostać radykalnie uproszczone. “Jeśli spojrzeć tym sposobem na klasy zbiorów danych, które spotykamy w naturze, to są one znacznie prostsze niż w najgorszym przypadku można sobie wyobrazić” Występują jednak problemy, które są o wiele trudniejsze dla sieci neuronowych do rozwiązania jak np. systemy szyfrowania zabezpieczające informację w Internecie. Takie programy po prostu wyglądają jak losowy szum. “Jeśli wrzucisz je do sieci neuronowych, to będą one równie bezradne jak i ja ponieważ nie będą w stanie znaleźć żadnych wzorców” stwierdził Tegmark. Choć subatomowe prawa natury są prostymi równaniami to równania opisujące już np. lot trzmiela są niezwykle skomplikowane, podczas gdy prawa regulujące cząsteczki gazu pozostają nadal proste. Nie jest jeszcze jasnym, czy Deep Lerning będzie w stanie opisać równie dobrze skomplikowane loty trzmiela tak jak skuteczny jest w opisywaniu cząsteczek gazu, stwierdził Lin. “Chodzi o to, że niektóre pojawiające się prawa fizyki, takie jak te, które dotyczą gazu doskonałego, pozostają dość proste, podczas gdy inne znacznie się komplikują. Jest więc jeszcze wiele dodatkowej pracy, którą należy wykonać, jeśli chce się znaleźć szczegółową odpowiedź dlaczego Deep Lerning  działa tak dobrze”. “Myślę, że kwestia ta rodzi  wiele więcej pytań niż otrzymujemy na razie odpowiedzi” stwierdził Lin.

wg. Tia Ghose
LiveScience.

Leave a Reply

Your email address will not be published. Required fields are marked *