Menu Close

Mroczny sekret sztucznej inteligencji – Część I

Nikt tak naprawdę nie wie, w jaki sposób najbardziej zaawansowane algorytmy sztucznej inteligencji robią to, co robią, a to może być problem.

W zeszłym roku dziwne samobieżne auto zostało wypuszczone na ciche drogi w hrabstwie Monmouth w stanie New Jersey. Eksperymentalny pojazd, opracowany przez naukowców w firmie produkującej układy scalone, Nvidii, nie wyglądał inaczej niż inne samochody autonomiczne, ale tak naprawdę nie był podobny do niczego, co wcześniej zademonstrowali Google, Tesla lub General Motors. 
Samochód nie był zgodny z instrukcją dostarczoną przez inżyniera lub programistę. Zamiast tego polegał wyłącznie na algorytmie, który nauczył go jeździć obserwując człowieka.
Sprawienie, by samochód jechał w ten sposób, było zarówno imponującym wyczynem jak i trochę niepokojącym, ponieważ nie jest całkowicie jasne, w jaki sposób samochód podejmuje decyzje. Informacje z czujników pojazdu idą prosto do ogromnej sieci sztucznych neuronów, które przetwarzają dane, a następnie dostarczają polecenia wymagane do sterowania kierownicą, hamulcami i innymi systemami kierowania pojazdem. Wynik wydaje się pasować do odpowiedzi, których można oczekiwać od „ludzkiego sterownika”. Ale co, jeśli pewnego dnia auto zrobi coś nieoczekiwanego – rozbije się o drzewo, czy zatrzyma nieoczekiwanie na zielonym świetle? 
W obecnej sytuacji może być trudno dowiedzieć się, dlaczego tak się stało? System jest tak skomplikowany, że nawet inżynierowie, którzy go zaprojektowali, mogą mieć trudności z wyizolowaniem przyczyny działania. Nie ma bowiem oczywistego sposobu zaprojektowania takiego systemu, który mógłby wyjaśnić, dlaczego zrobił to, co zrobił.

Tajemniczy "umysł" tego pojazdu wskazuje na zbliżający się problem ze sztuczną inteligencją. Podstawowa technologia AI, znana pod nazwą "Deep learning", okazała się bardzo skuteczna w rozwiązywaniu problemów w ostatnich latach i została szeroko zastosowana w takich zadaniach, jak rozpoznawanie obrazów, głosu i tłumaczenia językowe. Istnieje nadzieja, że te same techniki będą w stanie zdiagnozować śmiertelne choroby, podejmować decyzje inwestycyjne za miliony dolarów i robić niezliczone inne rzeczy przekształcające cały przemysł.

Ale tak raczej nie powinno się zdarzyć - chyba że nie znajdziemy sposobów, aby techniki takie jak głębokie nauczanie były bardziej zrozumiałe dla ich twórców i odpowiedzialne wobec użytkowników. W przeciwnym razie trudno będzie przewidzieć, kiedy mogą wystąpić awarie - które niestety zawsze są nieuniknione. To jeden z powodów, dla których samochód Nvidii jest wciąż w fazie eksperymentów.
Już obecnie stosuje się np. modele matematyczne, pomagające ustalić, kto zasługuje na zwolnienie warunkowe, kto otrzyma kredyt i kto zostanie zatrudniony. Gdyby można było uzyskać dostęp do tych modeli matematycznych, możliwe byłoby zrozumienie toku ich rozumowania. Ale banki, wojsko, pracodawcy i inni zwracają teraz uwagę na bardziej złożone metody uczenia maszynowego, które mogą sprawić, że zautomatyzowane podejmowanie decyzji stanie się całkowicie nieodgadnione. Głębokie uczenie się, najczęstsze z tych podejść, stanowi zasadniczo zupełnie inny sposób programowania komputerów.

"Jest to problem, który już obecnie jest bardzo istotny i będzie miał znacznie większe znaczenie w przyszłości", mówi Tommi Jaakkola, profesor MIT, który pracuje nad aplikacjami uczenia maszynowego. "Niezależnie od tego, czy jest to decyzja inwestycyjna, decyzja medyczna, czy może decyzja wojskowa, nie można polegać wyłącznie na zasadzie czarnej skrzynki". 

Istnieje już argument, że powinna być możliwość przesłuchania systemu sztucznej inteligencji, jak doszła do określonych wniosków i powinno być to nasze podstawowe prawo. Począwszy od lata 2018 r. Unia Europejska może wymagać, by firmy były w stanie udzielać użytkownikom wyjaśnień dotyczących decyzji o automatycznych systemach. Może to być jednak niemożliwe, nawet w przypadku systemów, które wydają się stosunkowo proste, takich jak aplikacje i strony internetowe, które używają głębokiego uczenia się do wyświetlania reklam lub polecania piosenek. Komputery, które je obsługują, zaprogramowały się i zrobiły to w sposób, którego nie potrafimy zrozumieć. Nawet inżynierowie, którzy budują te aplikacje, nie mogą w pełni wyjaśnić ich zachowania.
Rodzi to niepokojące pytania. Wraz z postępem technologii możemy wkrótce przekroczyć pewien próg, powyżej którego użycie sztucznej inteligencji wymagać będzie pewnego skoku wiary. Oczywiście my, ludzie, również nie zawsze możemy tak naprawdę wyjaśnić nasze procesy myślowe - ale znajdujemy sposoby intuicyjnego zaufania i oceny ludzi. Czy to będzie możliwe w przypadku maszyn, które myślą i podejmują decyzje inaczej niż człowiek? Jeszcze nigdy nie budowaliśmy maszyn działających w sposób, którego ich twórcy nie rozumieją. Jak dobrze możemy się komunikować i łączyć z inteligentnymi maszynami, które mogą być nieprzewidywalne i nieprzeniknione? Te pytania wymagają podróży do krainy badań nad algorytmami sztucznej inteligencji, do Google, Apple i wielu innych miejsc.

o tym w kolejnym artykule
www.technologyreview.com
autor: Will Knight

		

Leave a Reply

Your email address will not be published.