Menu Close

Autonomiczne systemy broni – Przyszłość Sztucznej Inteligencji

 Autonomiczne systemy broni – co zapowiada przyszłość.

Potoczne myślenie o autonomiczności broni opartej o sztuczną inteligencję (AI) opiera się na zasadniczo błędnej przesłance, że istnieje pewna uniwersalna platforma oprogramowania  AI która jest w stanie obsługiwać różnorodne autonomiczne systemy broni. Jeśli jednak AI ma funkcjonować w zakresie różnych, mniej czy bardziej autonomicznych systemów uzbrojenia to również oprogramowanie do tego celu zastosowane musi posiadać mniej lub bardziej złożoną architekturę. Tak więc możliwości stworzone w AI będą miały bezpośredni wpływ na możliwości autonomicznych broni i odwrotnie. Pojęciem broni autonomicznej określa się w zasadzie te systemy, które zdolne są do wyboru celu, samonaprowadzania i odpalania bez interwencji człowieka – operatora.

Obecnie nie ma w użyciu systemów całkowicie autonomicznego uzbrojenia.  Jednakże istnieje sporo ich półautonomicznych odpowiedników. Powstaje więc  pytanie co kryje się pod określeniem system  półautonomiczny lub w pełni  autonomiczny. W systemach broni mamy zazwyczaj cztery funkcje: mobilność, wybór celu, naprowadzanie na cel, odpalanie. O funkcjach tych możemy myśleć w kategoriach pewnego menu, z którego możemy wybierać poszczególne  elementy.

Broń półautonomiczna charakteryzuje się działaniem w opartym o jedną do trzech z tych funkcji. Na przykład, możemy powiedzieć, że zastosowany w koreańskiej strefie zdemilitaryzowanej robot Samsung SGR-1 posiada funkcję autonomicznego  identyfikowania i naprowadzania na cel (za pośrednictwem sensorów ciepła i ruchu), ale nie jest w stanie przemieścić  się, czy samodzielnie odpalić pocisku, ponieważ jest to to jest robot typu  dozorującego, zamontowany w obwodzie obronnym i wymagający obsługi człowieka do prowadzenia ognia. korea_robotPodobnie można by powiedzieć, że precyzyjne kierowana  amunicja jest również półautonomiczna, bo nie ma autonomicznej mobilności, odpalania, a w niektórych przypadkach i nawigacji. Kierowanie odbywa się natomiast poprzez wybranie przez człowieka współrzędnych  celu lub “ustawianie na cel” z użyciem lasera Do głębszej wody wchodzimy jednak w przypadku broni typu “odpal i zapomnij” (fire and forget) jak izraelskie Harpy, Elbit Opher czy amerykański Raytheon Maverick. Podczas gdy systemy te są zdolne do autonomicznej nawigacji, mobilności, odpalania i do pewnego stopnia ukierunkowania, to nadal są uważane za półautonomiczne, ponieważ obraz docelowy ( wiązka radaru lub obraz konkretnego obiektu w podczerwieni ) wstępnie selekcjonowany jest przez człowieka. Oprogramowanie tych systemów jest stosunkowo “głupie” jak na AI. Informacja wejściowa dostarczana jest po prostu przez sensory, a następnie identyfikowana i przeszukiwana przez program  pod kątem potencjalnych celów w nim określonych.  Nawet Lockheed Martin L-Rasm (dalekiego zasięgu rakieta antyokrętowa), wydaje się należeć również do tej grupy, choć akurat przypadek ten jest bardziej skomplikowany. mfc-lrasm-pr2-hPocisk ten bowiem może wybrać określony cel spośród grupy potencjalnie ważnych innych obiektów (statków). Jest to o tyle interesujące, ponieważ ta konkretna broń balansuje na pograniczu półautonomicznej i  w pełni autonomicznej.

Problemem z autonomicznymi systemami broni jest oprogramowanie AI budzące pewien strach w społeczeństwie. Jak wyrafinowane musi być ono aby ukierunkować pocisk dokładnie na obiekty docelowe, które nie są bezpośrednio widoczne i jednoznacznie identyfikowane jako wojskowe. Nadajniki radarowe nie posiadają skrupułów moralnych,  jak i nie posiada ich używane oprogramowanie do rozpoznawania obrazu i dokonujące wyboru celu na podstawie podczerwonych obrazów  gąsienic czołgów czy kadłubów  okrętowych.

W zasadzie istnieją dwa problemy; po pierwsze, nawet z punktu widzenia „głupiego” oprogramowania broni autonomicznej, obiekty wojskowe nie zawsze są dopuszczalnymi celami. W grę wchodzą dodatkowe czynniki identyfikujące, takie jak położenie  obiektu, sposób wykonania, etc.  po rozważeniu których można decydować o dopuszczalności uderzenia. Analiza ludzka obejmuje dodatkowo też skuteczność ataku pod kątem uzyskania bezpośredniej  przewagi wojskowej. Jednak żaden  z obecnych systemów zdaje się tego wymogu nie brać pod uwagę. Wydaje się, że przyszłe systemy autonomiczne należałoby zaopatrzyć w tego typu analitykę.

Po drugie, z punktu widzenia w miarę “niegłupiej ” broni, istotne jest też w jakim momencie celowania pojawi się obraz celu-człowieka.  Już obecnie AI jest  w stanie rozpoznać twarze z bardzo dużą dokładnością (by to sprawdzić wystarczy przesłać zdjęcie na Facebook lub Google+). Co więcej,  wiodące firmy wskazują że AI zdolna jest do uczenia się w imponująco szybkim tempie i bliski jest czas, że siły zbrojne zażądają włączenia wariantu tej możliwości do systemów kierowania pociskami.

Jak może wyglądać  następna generacja “półautonomicznej  broni ? Prawdopodobnie posiadać będzie zdolność  uczenia się i używać systemu rozpoznawania twarzy oraz obrazu  – w tym identyfikacji podczerwonej i czujników radarowych. Wyposażona będzie w autonomiczną nawigację i zdolności mobilne.  Nie będzie się ograniczać do domeny powietrza, ale obejmie środowisko morskie i lądowe. Istotną kwestią stają się tutaj nie tylko algorytmy naprowadzania czy celowania ponieważ broń funkcjonowałaby dynamicznie i inteligentnie lecz przede wszystkim algorytm decydujący o otwarciu ognia. Kiedy i w jakiej sytuacji broń autonomiczna mogłaby otwierać ogień.  Jeśli  celowanie i otwieranie ognia byłyby determinowane czasowo, bez możliwości „konsultacji” z człowiekiem, to na ile dokładne musiałyby być systemy aby  dozwolone było otwarcie ognia? 80%? 50%? 99%? Jak można by sprawdzić, czy działania podejmowane przez system, są w rzeczywistości zgodnie z założeniami programowania, zakładając oczywiście, że system AI  nie dowiedział się, że program celowo została utrudniony dla lepszej jego realizacji i lepiej dla AI byłoby go zmodyfikować. Są to istotne pytania niezależnie od tego, czy będziemy nadal uważali go jako półautonomiczny.  Innymi słowy, systemy jakie są obecnie dopuszczone do zwalczania celów – to cel i pal. Jednakże czy systemy, które wykorzystują “zbiór danych do szkolenia”, traktowane będą jako półautonomiczne ponieważ ludzie wstępnie dobrali dane treningowe? Zdrowy rozsądek mówi “nie”, ale wojskowi mogą powiedzieć “tak”.

Amerykański Departament Obrony twierdzi, że “półautonomiczny” system jest bronią, która raz aktywowana, jest przeznaczona wyłącznie do atakowania indywidualnych celów lub konkretnych  grup, które zostały wybrane przez człowieka – operatora.  (DoD 2012 ). A jednak, w jakim momencie możemy powiedzieć, że “cele” nie są wybierane przez operatora człowieka? Kto jest operatorem? Może nim być programista z zestawu danych szkolenia,  może nim być również sympatyczna szeregowiec  Rita jeśli wcisnęła  przycisk, a może być nim także dowódca, nakazujący go wcisnąć ( obecna dyrektywa DoD rozróżnia jednak “dowódcę” od “operatora”). Polityka w zakresie autonomiczności nie definiuje ostro “operatora”, pozostawiając w niewygodnej pozycji rozróżnienie między bronią  autonomiczną, a  półautonomiczną. Stąd też może zdarzyć się sytuacja, że wbrew zdrowemu rozsądkowi, a tylko dzięki nieprecyzyjnemu prawu możliwe będzie twierdzenie, że system broni jawnie półautonomiczny  jest pod względem prawnym autonomicznym.

Leave a Reply

Your email address will not be published.