Menu Close

Mroczny sekret sztucznej inteligencji – Część III

Potrzebujemy jednak więcej niż jednego spojrzenia na myślenie AI i nie ma tu łatwego rozwiązania. Jest to bowiem wzajemne oddziaływanie obliczeń wewnątrz głębokiej sieci neuronowej, która jest kluczowa dla rozpoznawania wzorców wyższego poziomu i złożonego procesu decyzyjnego, ale te obliczenia są masą funkcji i zmiennych matematycznych.
“Gdybyś miał bardzo małą sieć neuronową, mógłbyś to zrozumieć”, mówi Jaakkola. “Ale kiedy staje się ona bardzo duża i ma tysiące jednostek na warstwę, a być może i setki warstw, to staje się zupełnie niezrozumiała.”
W biurze obok Jaakkola urzęduje Regina Barzilay, profesor MIT, która jest zdeterminowana, aby stosować uczenie maszynowe w medycynie. Kilka lat temu zdiagnozowano u niej raka piersi w wieku 43 lat. Diagnoza była szokująca sama w sobie, ale Barzilay była również przerażona, że nowoczesne metody statystyczne i metody uczenia maszynowego nie były wykorzystane do pomocy w badaniach onkologicznych lub w prowadzeniu badań i leczeniu pacjenta. Mówi, że AI ma ogromny potencjał, by zrewolucjonizować medycynę, ale zdaje sobie sprawę, że ten potencjał będzie oznaczał wykroczenie poza samą dokumentację medyczną. Planuje wykorzystanie większej ilości nieprzetworzonych danych, które jej zdaniem są obecnie niewykorzystywane: takie jak “dane obrazowe, dane o patologii, oraz inne informacje”.
Po zakończeniu leczenia raka w ubiegłym roku, Barzilay i jej studenci zaczęli pracować z lekarzami w Massachusetts General Hospital, aby opracować system zdolny do wydobywania raportów patologicznych w celu identyfikacji pacjentów o specyficznych cechach klinicznych, które naukowcy mogą studiować. Jednak Barzilay zrozumiała, że system musiałby wyjaśnić swoje rozumowanie. Razem z Jaakkolą dodała kolejny krok: system wyodrębnia i podkreśla fragmenty tekstu, które są reprezentatywne dla wykrytego wzoru. Barzilay i jej studenci opracowują również algorytm głębokiego uczenia się, który jest w stanie wykryć wczesne objawy raka piersi w obrazie mammograficznym, i mają na celu umożliwienie temu systemowi wyjaśnienia również jego rozumowania. “Naprawdę potrzebujemy pętli, w której maszyna i człowiek współpracują” – mówi Barzilay.
Amerykańskie wojsko wylewa miliardy dolarów na projekty, które wykorzystują uczenie maszynowe do pilotowania pojazdów i samolotów, identyfikowania celów i pomagania analitykom w przeglądaniu ogromnych zbiorów danych wywiadowczych. Tutaj bardziej niż gdziekolwiek indziej, nawet bardziej niż w medycynie, nie ma miejsca na tajemnicę algorytmiczną, a Departament Obrony uznał brak możliwości wyjaśniania procesu podejmowania decyzji za kluczową przeszkodę rozwoju systemów.
David Gunning, menedżer programu w Agencji Zaawansowanych Projektów Badawczych Obrony, nadzoruje trafnie nazwany Program Wyjaśnionej Sztucznej Inteligencji. Srebrnowłosy weteran agencji, który wcześniej nadzorował projekt DARPA i ostatecznie doprowadził do powstania Siri, mówi, że automatyzacja wkracza w niezliczone obszary wojska. Analitycy wywiadu USA testują uczenie maszynowe jako sposób identyfikowania wzorców w ogromnych ilości danych. Opracowywane i testowane jest obecnie również wiele autonomicznych pojazdów naziemnych.
Ale żołnierze prawdopodobnie nie będą czuć się komfortowo w zrobotyzowanym czołgu, który nie tłumaczy im się z podejmowanych decyzji. Również analitycy zwykle niechętnie podejmą działania w sprawach informacji bez wykładni sposobu rozumowania. “Często w tych systemach uczenia maszynowego powstaje wiele fałszywych alarmów, więc analityk ds. wywiadu naprawdę potrzebuje dodatkowej pomocy, aby zrozumieć, dlaczego określone zalecenie zostało wprowadzone” – mówi Gunning.
W marcu tego roku DARPA wybrała 13 projektów ze środowisk akademickich i przemysłowych w celu finansowania w ramach programu Gunning. Niektóre z nich mogłyby opierać się na pracy kierowanej przez Carlosa Guestrina, profesora z Uniwersytetu Waszyngtońskiego. On i jego współpracownicy opracowali sposób, w jaki systemy uczenia maszynowego dostarczają uzasadnienia dla swoich wyników. Zasadniczo w ramach tej metody komputer automatycznie znajduje kilka przykładów z zestawu danych i podaje je z krótkim objaśnieniem. Na przykład system zaprojektowany do klasyfikowania wiadomości e-mail pochodzących od terrorysty może wykorzystywać wiele milionów wiadomości podczas szkolenia i podejmowania decyzji. Ale używając podejścia zespołu Waszyngtońskiego, można wyróżnić pewne słowa kluczowe znalezione w określonej wiadomości. Grupa Guestrina opracowała również sposoby, w jakie systemy rozpoznawania obrazów mogą wskazywać na sposób ich rozumowanie, podkreślając fragmenty obrazu, które są najważniejsze.

Jedną z wad tego podejścia i innych temu podobnych, takich jak np. podejścia Barzilay, jest to, że dostarczone wyjaśnienia będą zawsze uproszczone, co oznacza, że ​​niektóre istotne informacje mogą zostać utracone po drodze. “Nie osiągnęliśmy całego procesu, w którym AI prowadzi z nami dialog i jest w stanie wyjaśnić działanie” mówi Guestrin. “Jesteśmy daleko od prawdziwej interpretowalnej sztucznej inteligencji”.
Nie musi to być sytuacja o wysokiej stawce, taka jak diagnoza raka czy manewry wojskowe, aby stała się problemem. Poznanie rozumowania AI będzie kluczowe, jeśli technologia ma stać się powszechną i użyteczną częścią naszego codziennego życia. Tom Gruber, który przewodzi zespołowi Siri w Apple, twierdzi, że wyjaśnienie jest kluczowym czynnikiem dla jego zespołu, ponieważ stara się, aby Siri był mądrzejszym i sprawniejszym wirtualnym asystentem. Gruber nie chciał omawiać konkretnych planów dotyczących przyszłości Siri, ale łatwo można sobie wyobrazić, że jeśli otrzymasz rekomendację od Siri, powinieneś wiedzieć, co to było. Rusłan Salakhutdinov, dyrektor działu badań nad sztuczną inteligencją w Apple i profesor nadzwyczajny na Uniwersytecie Carnegie Mellon, uważa wyjaśnianie za trzon ewoluującej relacji między ludźmi i inteligentnymi maszynami. “Wprowadzi zaufanie”, mówi.

Tak jak wiele aspektów ludzkich zachowań nie da się szczegółowo wyjaśnić, tak być może AI nie będzie w stanie wyjaśnić wszystkiego, co robi. “Nawet jeśli ktoś może dać rozsądne wytłumaczenie dla jego działań, to moze byc ono dla człowieka niekompletne, a jednak prawdziwe dla AI” – mówi Clune z Uniwersytetu w Wyoming. “Może to być po prostu część natury inteligencji, której tylko część jest narażona na racjonalne wyjaśnienie. Niektóre z nich są po prostu instynktowne lub podświadome, lub nieodgadnione. ”
Jeśli tak jest, to na pewnym etapie możemy po prostu zaufać osądowi AI lub zrobić to bez użycia go. Podobnie orzeczenie będzie musiało uwzględniać jednak wywiad społeczny. Podobnie jak społeczeństwo zbudowane jest na umowie oczekiwanego zachowania,
tak będziemy musieli zaprojektować systemy sztucznej inteligencji, aby szanowały się  i dopasowywały do naszych norm społecznych. Jeśli mamy tworzyć zespoły robotów czy innych maszyn do zabijania, to decydujacym jest by ich podejmowanie decyzji było zgodne z naszymi ocenami etycznymi.
Rozdział najnowszej książki Dennetta, „From Bacteria to Bach and Back”
to encyklopedyczny traktat o świadomości sugerujący, że naturalną częścią samej ewolucji inteligencji jest tworzenie systemów zdolnych do wykonywania zadań, których twórcy nie potrafią robić. “Chodzi o to, jakie warunki musimy spełnić, by zrobić to mądrze – jakie standardy wymagamy od nich i od nas samych?”. Jest też ostrzeżenie przed poszukiwaniem wyjaśnień. “Myślę, że z całą pewnością, jeśli zamierzamy wykorzystać tę wiedzę i polegać na niej, to wymagajmy z cała mocą by AI udzielała nam odpowiedzi, wszędzie tam gdzie to tylko możliwe ” – mówi. Ale ponieważ nie może być idealnej odpowiedzi, to powinniśmy być ostrożni z wyjaśnieniami sztucznej inteligencji, niezależnie od tego, jak mądrze wygląda maszyna. “Jeśli nie może lepiej niż my wyjaśnić, co robi”, to może lepiej nie ufać jej tak do końca..”

koniec części III i ostatniej.

www.technologyreview.com

autor: Will Knight

Leave a Reply

Your email address will not be published. Required fields are marked *