. Czy amerykańskie roboty będą chciały umierać za Suwałki? - TVP Tygodnik – Magazyn widzów i czytelników

Czy amerykańskie roboty będą chciały umierać za Suwałki?

– Polska nigdy nie wystawi milionowej armii równej liczbą rosyjskiej. Ale dorównać Rosjanom w liczbie wystawionych autonomicznych maszyn bojowych już możemy – mówi Maciej Zając, doktorant w Zakładzie Etyki Instytutu Filozofii UW, działacz Polskiego Stowarzyszenia Transhumanistycznego.

TYGODNIK.TVP.PL: Pisze pan doktorat o broni autonomicznej. Czy dzisiaj już dogoniliśmy, w sensie technologicznym, fantastykę znaną z takich filmów, jak „Terminator” albo „Matrix”?

MACIEJ ZAJĄC:
„Terminator” i „Matrix” to przede wszystkim filmy o ludzkości rozpaczliwie usiłującej rywalizować z superinteligencją posiadającą nadludzkie zdolności, łączącą kompetencje w różnych dziedzinach życia, posiadającą cele, wartości, samoświadomość, osobowość. Chociaż wielu prominentnych naukowców i etyków obawia się powstania takiej bądź podobnej inteligencji w przeciągu kilku dekad, ten scenariusz nie będzie technologicznie możliwy ani jutro, ani za dwa lata.

Rzeczywistością stają się natomiast roboty bojowe zdolne chodzić nieśpiesznie po ulicach, strzelając do ludzi – znane choćby z prequeli sagi „Star Wars”. Prototypy takich urządzeń istnieją już obecnie, poruszając się ze zdecydowanie większą gracją niż w historii Lucasa.

Generalnie jesteśmy dość zaawansowani w obdarzaniu robotów zdolnością poruszania się w przestrzeni i rozpoznawania istniejących w niej obiektów. Są też w stanie wykonywać bardzo skomplikowane zadania określonego typu – są doskonałymi snajperami i same lądują na lotniskowcach, ale bardzo daleko im jeszcze do ludzkiej wszechstronności i kreatywności na polu walki.

Jakie problemy etyczne mogą się wiązać z rozwojem sztucznej inteligencji w sektorze wojskowym? Widzi pan zagrożenia, czy także jakieś szanse?

Największym zagrożeniem jest ślepa wiara w doskonałość wprowadzanych technologii – mimo niesamowitego potencjału są to jednak jedynie narzędzia, i to narzędzia na dość wczesnym stadium rozwoju. Wymagają rygorystycznego testowania i kontroli.

Są niezwykle podatne na ludzkie błędy, np. przy selekcji danych używanych w procesie ich uczenia. Powszechnie znany jest przypadek algorytmu używanego w amerykańskich sądach, który uznał kolor skóry osadzonego za wystarczający powód, by odmówić mu zwolnienia warunkowego. Inna Sztuczna Inteligencja (SI) myliła się, odróżniając wilki od psów – ponieważ w zbiorze fotografii użytych do nauczenia jej tej różnicy wszystkie wilki były ukazane w zimowym krajobrazie, uznała, że wilkiem jest każdy psowaty sfotografowany w zimie. To samo narzędzie, poprawnie skalibrowane przez świadomych jego ograniczeń ludzi, jest w stanie dostrzegać kluczowe różnice daleko lepiej i szybciej niż my, nigdy się nie myląc. Mówiąc obrazowo: mamy do czynienia z geniuszami pozbawionymi zdrowego rozsądku.
Rosyjska rodzina tankietek półautonomicznych to systemy Uran – takie maszyny rzadko mają imponujące nazwy, armie raczej się z nimi kryją, żeby nie budzić paniki. Na zdjęciu: bezzałogowy pojazd Uran-9, służący do rozpoznania i wsparcia piechoty, podczas parady na Placu Czerwonym w Moskwie w 73. rocznicę zwycięstwa w II wojnie światowej, 9 maja 2018 r. Fot. REUTERS Maxim Szemetow
Dojrzała SI może zupełnie zmienić oblicze wojny – na lepsze – pozwalając temu, kto ją opracuje, na osiągnięcie dominacji militarnej przy minimalnym rozlewie krwi. Autonomiczne roboty są w stanie być absolutnie bezstronnymi, nie ulegają emocjom i traumom i bezproblemowo mogą zostać poświęcone w celu ratowania ludności cywilnej – nie cierpią. Są znacznie bardziej precyzyjne niż ludzie – autonomiczny robot przyszłości to rycerz idealny, rodem z bajek o królu Arturze.
Problem w tym, że ta technologia jest daleka od dojrzałości, a armie dalekie od opracowania procedur ich poprawnego użycia. Technologie te wchodzą obecnie w burzliwy wiek nastoletni i jak reszta uzbrojonych nastolatków zatrudnianych przez wojsko, powinny być dobrze pilnowane przez odpowiedzialnych dorosłych.

Na międzynarodowych targach wojskowych nowością są elektroniczne pszczoły, potrafiące momentalnie unieszkodliwić przeciwnika. Czy zetknął się pan z innymi nowinkami tego typu? Jak mogą one zmienić teatr wojny?

O elektronicznych pszczołach używanych ofensywnie nie słyszałem. Znane mi są za to samojeżdżące i samostrzelające pojazdy gąsienicowe (nawet Białoruś ostatnio chwali się takim wynalazkiem), autonomiczne wieże strażnicze (SGR-1 Samsunga), bezzałogowe samoloty potrafiące lądować w każdych warunkach, autonomiczne łodzie podwodne zdolne spędzić kilka miesięcy na samotnym patrolu bez kontaktu z człowiekiem, czy stada morskich i powietrznych dronów koordynujących między sobą – bez pomocy ludzkich operatorów – strategie działania. Rosyjska rodzina tankietek półautonomicznych to systemy Uran. Jak widać systemy te rzadko mają imponujące nazwy, armie raczej się z nimi kryją, żeby nie budzić paniki.

Większość zbrojeniowych nowości – w szczególności te, które już teraz gotowe są wspomóc żołnierzy na polu walki – nie jest wyjątkowo spektakularna, przynajmniej na pierwszy rzut oka. To maszyny służące do zadań transportowych i rozpoznawczych, algorytmy przesiewające tysiące godzin obrazu video, na którym nic się nie dzieje, tanie autonomiczne drony (takim dronem lądującym samodzielnie na lotniskowcach jest chociażby X47-B), mające służyć jako cele treningowe bądź odwracać uwagę przeciwnika. Zachodnie siły zbrojne przyjęły rozsądną zasadę stopniowego wdrażania tych technologii, stawiając raczej na ograniczoną autonomię i pracę w zespołach człowiek-maszyna.
Odrzutowy, bezzałogowy samolot bojowy X-47B wystrzelony po raz pierwszy z lotniskowca USS George HW Bush na Oceanie Atlantyckim u wybrzeży Wirginii, 14 maja 2013. Fot. REUTERS / Jason Reed
Te czasem niepozorne bądź niezauważalne dla laika zmiany, niosą jednak ze sobą największą od czasu wynalezienia broni palnej rewolucję w wojskowości jako takiej. Wojna dzisiejsza ma coraz mniej wspólnego ze światem „Czterech Pancernych”, a nawet ze światem „Helikoptera w Ogniu”. W najbardziej zrobotyzowanych armiach każdy szeregowiec jest dziś specjalistą od wielu technologicznych systemów, których obsługa i serwis jest nierzadko jego głównym zadaniem. Obdarzony sztuczną inteligencją komputer celowniczy zamontowany na karabinie pozwala mu dokonywać strzeleckich cudów, dodatkową amunicję zamawia na tej samej zasadzie, na której my zamawiamy Ubera, a kiedy chce sprawdzić co jest za rogiem, wysyła drona. To wszystko pozwala coraz mniejszej liczbie żołnierzy wykonywać coraz większą liczbę zadań, z coraz większą dokładnością i kompetencją.

Na ile te zmiany mają wpływ na nasze tu i teraz?
Póki Polska nie stanie się strefą walk, dronów bojowych raczej na ulicach nie zobaczymy. Natomiast algorytmy i sieci neuronowe, stanowiące podstawę tych technologii, zmieniają dosłownie każdą dziedzinę naszego życia. Proszę zapytać Siriego albo Alexy – myślę ze wiedzą o tym trochę więcej niż ja (śmiech). Generalnie jednak technologie SI wdrażane są przez sektor cywilny szybciej i z większą regularnością niż w wojsku, czy choćby w administracji publicznej – co jest sporym problemem tych ostatnich.

Jak zmiany technologiczne wpłyną na etykę wojen przyszłości? Z tego co rozumiem, nowe metody zabijania pozwalają wyeliminować wroga w jeszcze krótszym czasie niż do tej pory.

Krótsze wojny są lepsze niż dłuższe, błyskawiczna śmierć lepsza od przewlekłego konania. Szybkość działania nie przekłada się jednak na szybkość decyzji. Technologia dronów pozwala wojskowym na dokładne rozpoznanie celu i jego eliminację za pomocą coraz bardziej precyzyjnych i coraz mniej inwazyjnych środków. To przekłada się przede wszystkim na aspekt humanitarny – liczba cywili ginących w konfliktach zbrojnych spadła od czasu wojny wietnamskiej kilkunastokrotnie, przede wszystkim ze względu na postęp technologiczny. Zamiast przerażonego nastolatka pod ostrzałem, decyzje o życiu i śmierci podejmują zespoły doświadczonych oficerów, nierzadko wsparte przez prawników i etyków, mające zdalny wgląd w sytuację. Jeszcze 20 lat temu to byłoby wyśmiewanym snem idealistów.

A czekają nas jeszcze kolejne przemiany. Perspektywa prawie bezkrwawych wojen robotów jednej strony z robotami drugiej nie wydaje się już marzeniem fantastów, a logiczną konsekwencją dobrze zakorzenionych trendów.

Oczywiście, jeśli ktoś będzie chciał spuścić ze smyczy robota nie spełniającego wymagań etycznych i prawnych, zrobi to. Dziś istnieje amunicja precyzyjna, a rosyjskie lotnictwo dalej zrzuca bomby z czasów ZSRR na dzielnice mieszkalne. Technologia nie gwarantuje moralnych zachowań, ona je tylko umożliwia.
Żołnierz Royal Marine pozuje z robotem bezzałogowym Testudo, podczas inauguracji Programu Technologii Obronnej w Londynie, 26 lutego 2009 r. Fot. REUTERS / Luke MacGregor
Nie można też na nią zwalić ludzkiej winy, ani rozwiązać przy jej pomocy każdego etycznego problemu w trybie natychmiastowym. Wbrew opiniom krytyków, kwestia odpowiedzialności za zachowanie robota nie jest bardziej złożona niż kwestia odpowiedzialności za zachowanie zatrudnionego przez wojsko psa. A zachowanie psa mówi nam znacznie więcej o naturze jego pana, niż o naturze psów jako gatunku.

Interesuje się pan zastosowaniem rozwiązań technologicznych i instytucjonalno-organizacyjnych do rozwikłania najtrudniejszych problemów etycznych współczesności. Z jakimi dylematami się pan styka?
Zajmuję się przede wszystkim etyką technologii wojskowych, ale paradoksalnie to przede wszystkim kwestie technologii cywilnych, bądź też tzw. technologii podwójnego użytku, są dziś źródłem najtrudniejszych problemów także i w mojej dziedzinie.

Rozmaite kwestie dotyczące algorytmizacji naszego życia; problemy etyczne związane z Big Data i wszechobecnością monitoringu; wywoływane przez człowieka zmiany klimatyczne; wspomniany już prospekt pojawienia się dorównującej człowiekowi Sztucznej Inteligencji; kwestie cyberbezpieczeństwa czy też raczej jego braku; na końcu automatyzacja miejsc pracy, techno-bezrobocia i coraz większego rozwarstwienia majątkowego naszych społeczeństw generują znacznie więcej poważnych problemów etycznych i niejako przelewają się w obszar etyki wojskowej. Roboty-zabójcy to przy tym wszystkim etyczna łatwizna.

Jak zmiany zbrojeniowe wpłyną na polski potencjał wojskowy?

Tutaj można mieć mieszane uczucia. Z jednej strony Polska, jako kraj nie mający żadnych agresywnych celów, a żywotnie zainteresowany byciem pozostawionym w spokoju, nie może się cieszyć ze zmiany technologicznej, która ułatwia zadanie agresorowi. A jeśli przewidywania teoretyków się spełnią, taki właśnie będzie wymiar rewolucji robotycznej w wojskowości. Łatwiej będzie niszczyć infrastrukturę cywilną nawet na głębokich tyłach, czy przeprowadzać ataki terrorystyczne (podobnym przesunięciem układu sił skutkuje rozwój cyberuzbrojenia).

To są jednak trendy technologiczne, których powstrzymywanie jest walką z wiatrakami. Jak się nie chce mieć robotów bojowych, to trzeba powiedzieć „pa, pa” i całej reszcie technologii SI, a potem jeszcze przekonać Rosję, Iran i Chiny, żeby zrobiły to samo. To się nie uda.
Świat się zmienia i nie ma się co na to obrażać, tylko trzeba się przygotować. Szczególnie że w dłuższej perspektywie zmiany te mogą być dla nas bardzo korzystne, jeśli dobrze rzecz rozegramy. Robotyzacja armii pozwoliłaby nam rozwiązać trzy kluczowe problemy obronne. Jakie?

Po pierwsze, Polska nigdy nie wystawi milionowej armii równej liczbą rosyjskiej, nie zrobi tego nawet Zjednoczona Europa czy NATO. Ale dorównać Rosjanom w liczbie wystawionych robotów już możemy.

Po drugie, amerykańscy i niemieccy, a co dopiero hiszpańscy i belgijscy żołnierze i wyborcy niekoniecznie muszą palić się do umierania za Suwałki. Amerykańskie roboty nie będą miały takich problemów.

Po trzecie, jak już wspominaliśmy wcześniej, roboty naszego przeciwnika niekoniecznie będą przestrzegać konwencji genewskich, nie będą ich jednak najprawdopodobniej namiętnie łamać na własną rękę, jak ma to od czterech lat miejsce w Donbasie.

Dodajmy do tego wszystkiego fakt, że roboty nie potrzebują odpraw i emerytur, więc na dłuższą metę Polski budżet powinien wyjść na robotyzacji na plus, a gospodarka i społeczeństwo skorzystać na prowadzonych pracach badawczo-rozwojowych, i robi się jakoś mniej strasznie. Powtarzam jednak – musielibyśmy rzecz dobrze rozegrać. A w ostatniej dekadzie rozwój sił zbrojnych nie idzie nam, delikatnie mówiąc, tak jak by się chciało.

– rozmawiał Michał Chudoliński

Maciej Zając – doktorant Zakładu Etyki Instytutu Filozofii Uniwersytetu Warszawskiego, członek zarządu Polskiego Stowarzyszenia Transhumanistycznego, sekretarz Polskiego Towarzystwa Filozoficznego, popularyzator nauki, tłumacz.


TYGODNIK TVP, ul. Woronicza 17, 00-999 Warszawa. Redakcja i autorzy