Menu Close

Mroczny sekret sztucznej inteligencji – Część II

W 2015 r. Grupa badawcza z Mount Sinai Hospital w Nowym Jorku została zainspirowana do zastosowania głębokiego uczenia na obszernej bazie danych pacjentów szpitala. Zbiór danych zawierał setki tysięcy zmiennych dotyczących pacjentów, wybranych z ich wyników badań, wizyt u lekarzy itp. Powstał program, który naukowcy nazwali „Głębokim Pacjentem”,  a który został przeszkolony przy użyciu danych około 700 000 osób. Gdy testowano go na nowych danych, okazał się niewiarygodnie dobry w przewidywaniu na ich podstawie chorób. Bez żadnych specjalistycznych instrukcji "Głęboki Pacjent" odkrył prawidłowości ukryte w danych szpitalnych, 
wskazujące na rozwój wielu chorób i dolegliwości, w tym raka wątroby. "Istnieje wiele metod, które są całkiem niezłe w przewidywaniu chorób na podstawie zapisów pacjenta", mówi Joel Dudley, który prowadzi zespół Mount Sinai. I dodaje: "ale to jest po prostu bez porównania lepsze".
„Deep Patient” był nieco tajemniczy. Rozpoznawał również zaskakująco dobrze początek zaburzeń psychicznych, takich jak np. schizofrenia. Z uwagi na fakt, że początki schizofrenii są bardzo trudna do przewidzenia dla lekarzy, to Dudley zastanawiał się, jak to możliwe, że nowe narzędzie jest aż tak bardzo skuteczne i - nadal tego nie wie. Posiada to narzędzie, ale nie ma pojęcia, jak ono działa. Jeśli to coś w rodzaju "Głębokiego Pacjenta" rzeczywiście pomoże lekarzom, to najlepiej będzie podać im uzasadnienie swoich przewidywań, zapewnić, że są one dokładne i uzasadnić - powiedzmy - zmianę leków, które ktoś przepisuje. "Możemy budować takie modele" - mówi Dudley - "ale nie wiemy, jak działają."

Sztuczna inteligencja nie zawsze była taka. Od samego początku istniały dwie szkoły myślenia dotyczące tego, jak zrozumiała lub wytłumaczalna powinna być. Wielu uważało, że najrozsądniej jest budować maszyny, które rozumują zgodnie z zasadami i logiką, czyniąc ich wewnętrzną pracę przejrzystą dla każdego, kto chciałby zbadać ich kodeks postępowania. Inni uważali, że inteligencja łatwiej by się pojawiła, gdyby maszyny czerpały inspirację z biologii i uczyły się przez obserwację i doświadczanie. Oznaczało to postawienie programowania komputerowego na głowie. Zamiast programisty piszącego polecenia do rozwiązania problemu, program generuje własny algorytm na podstawie danych przykładowych i pożądanego wyniku. Techniki uczenia maszynowego, które później ewoluowały w dzisiejsze najpotężniejsze systemy sztucznej inteligencji, podążały tą ostatnią ścieżką: maszyna zasadniczo sama się programuje.
 Początkowo podejście to miało ograniczone praktyczne zastosowanie.  Komputeryzacja wielu gałęzi przemysłu i pojawienie się dużych zbiorów danych ponownie wzbudziły to zainteresowanie. Zainspirowało to naukowców do rozwoju potężniejszych technik uczenia maszynowego, a szczególnie ich nowych wersji znanych jako sztuczna sieć neuronowa. W latach 90. sieci neuronowe mogły już automatycznie digitalizować ręcznie pisane znaki, ale dopiero na początku obecnej dekady, po kilku sprytnych poprawkach i udoskonaleniach, te bardzo duże - lub "głębokie" sieci - wykazały radykalną poprawę w automatycznym postrzeganiu. Głębokie uczenie jest odpowiedzialne za dzisiejszą eksplozję sztucznej inteligencji. Dało komputerom niezwykłe moce, takie jak np. umiejętność rozpoznawania i rozumienia wypowiedzianych słów prawie tak dobrze jak ludzie - umiejętności z założenia zbyt skomplikowane, by można je było ręcznie wprowadzić do maszyny. Głębokie uczenie zmieniło wizję komputera i znacznie poprawiło tłumaczenia maszynowe. Obecnie jest wykorzystywane do kierowania wszelkiego rodzaju kluczowymi decyzjami w medycynie, finansach, produkcji - i poza nimi.

Działanie jakiejkolwiek technologii uczenia maszynowego jest z natury bardziej nieprzejrzyste, nawet dla informatyków, niż system kodowany ręcznie. Nie oznacza to, że wszystkie przyszłe techniki sztucznej inteligencji będą równie niepoznawalne. Ale z samej swej natury "głęboka" nauka jest szczególnie ciemną czarną skrzynką.
Nie można po prostu zajrzeć do głębokiej sieci neuronowej, aby zobaczyć, jak to działa. Rozumowanie sieci jest osadzone w zachowaniu tysięcy symulowanych neuronów, ułożonych w dziesiątki, a nawet setki połączonych wzajemnie warstw. Neurony w pierwszej warstwie otrzymują dane wejściowe, takie jak np. intensywność piksela na obrazie, a następnie wykonują obliczenia przed wysłaniem nowego sygnału. Wyjścia te są podawane w złożonej sieci neuronom w następnej warstwie i tak dalej, aż do uzyskania całkowitej wydajności. Ponadto istnieje proces zwany sprzężeniem zwrotnym, który poprawia obliczenia poszczególnych neuronów w sposób, który pozwala sieci nauczyć się wytwarzać pożądane wyniki.
 Wiele warstw w głębokiej sieci umożliwia rozpoznawanie rzeczy na różnych poziomach abstrakcji. W systemie zaprojektowanym do rozpoznawania psów, np., niższe warstwy rozpoznają proste rzeczy, takie jak kontury lub kolor; wyższe warstwy rozpoznają bardziej złożone rzeczy, takie jak futro lub oczy; a najwyższa warstwa identyfikuje to wszystko jako psa. To samo podejście można zastosować, z grubsza rzecz biorąc, do innych danych wejściowych, które prowadzą maszynę do uczenia się: dźwięków, które składają się na słowa w mowie czy litery i wyrazy, które tworzą zdania w tekście lub ruchy kierownicy wymagane do jazdy.
 Zastosowano genialne strategie, aby spróbować uchwycić i wyjaśnić bardziej szczegółowo, co dzieje się w takich systemach. W 2015 r. naukowcy z Google zmodyfikowali algorytm rozpoznawania obrazów oparty na głębokim uczeniu się. Uruchamiając algorytm w odwrotnej kolejności, można odkryć funkcje, za pomocą których program rozpoznaje, powiedzmy, ptaka lub budynek. Powstałe obrazy, w wyniku projektu znanego jako "Głębokie marzenie", pokazały groteskowe, dziwne zwierzęta, wyłaniające się z chmur i roślin oraz obrazy pagórków kwitnących w lasach czy pasmach górskich. Obrazy udowodniły, że głęboka nauka nie musi być całkowicie nieodgadniona; ujawniły, że algorytmy wykorzystują znane cechy wizualne, takie powiedzmy jak np. dziób ptaka czy jego pióra. Ale obrazy wskazywały również na to, jak głębokie uczenie się wynika z ludzkiej percepcji, ponieważ może uczynić coś z artefaktu, który powinniśmy zignorować. Badacze Google zauważyli, że kiedy algorytm generował obrazy hantli, generował także ludzkie ramię, które go trzymało. Maszyna doszła bowiem do wniosku, że ręka jest częścią tego przedmiotu.

Poczyniono dalsze postępy, wykorzystując pomysły zapożyczone z neuronauki i kognitywistyki. Zespół kierowany przez Jeffa Clune'a, adiunkta z University of Wyoming, wykorzystał ekwiwalent sztucznej inteligencji złudzeń optycznych do testowania głębokich sieci neuronowych. W 2015 r. grupa Clune pokazała, w jaki sposób pewne obrazy mogłyby oszukać taką sieć w postrzeganiu rzeczy, których nie ma, ponieważ obrazy wykorzystują wzorce niskiego poziomu, które system wyszukuje. Jeden ze współpracowników Clune, Jason Yosinski, również zbudował narzędzie, które działa jak sonda umieszczona w mózgu. Jego narzędzie kieruje się do dowolnego neuronu w środku sieci i wyszukuje obraz, który aktywuje go najbardziej. Obrazy, które się pojawiają, są abstrakcyjne (coś na kształt impresjonistycznego obrazu flaminga lub szkolnego autobusu), podkreślając tajemniczą naturę zdolności percepcyjnych maszyny.

Ta wczesna sztuczna sieć neuronowa, w Cornell Aeronautical Laboratory w Buffalo w stanie Nowy Jork, już około 1960 roku, przetwarzała dane wejściowe z czujników światła.

koniec części II
cdn.

www.technologyreview.com
autor: Will Knight

Leave a Reply

Your email address will not be published.