Rozmowy

Sztuczna inteligencja to jeszcze nie „umysł w krzemie”. Raczej „automat na sterydach”

– Emocje można AI dodać dość łatwo. Natomiast myślenie jest czymś bardziej skomplikowanym. Sieć neuronowa nie myśli – zapewnia doktor fizyki kwantowej Piotr Migdał. Współpracownik deepsense.ai jest specjalistą od sztucznej inteligencji, a dokładniej – sieci neuronowych właśnie.

To rozum, tylko sztuczny. Bardziej inteligentny, czy tylko udający ludzki? Bać się go, zniewalać, może traktować jak człowieka?

W jednym zadaniu potrafi być mistrzem. Ale daleko mu do ogólnej inteligencji dwuletniego dziecka.

zobacz więcej
TYGODNIK TVP: Czym się tak naprawdę różni sztuczna inteligencja od ludzkiego umysłu?

PIOTR MIGDAŁ:
W kulturze masowej sztuczna inteligencja (AI – od ang. Artificial Intelligence) to robot czy program żyjący w komputerze, który o czymś myśli, ma jakieś motywacje, można z nim porozmawiać. Różni się od nas jedynie brakiem emocji, zrozumienia niektórych ludzkich wartości, czy też popełnia błędy związane z brakiem człowieczej intuicji.

Taka wizja, przynajmniej jak na razie, to science fiction. Nie sądzę, by były jakiekolwiek obiektywne przesłanki, że się nigdy nie da tego uzyskać. Przecież ludzie też długo wierzyli, że latać mogą tylko ptaki, a związki organiczne muszą być wytwarzane przez organizmy żywe. Ciężko jednak powiedzieć, czy taką AI uda się stworzyć za 5 lat, czy też za 50.

Przy czym uważam, że o ile emocje można względnie łatwo dodać AI, to myślenie – planowanie, umiejętność generalizacji, adaptacji do innych warunków – jest naprawdę skomplikowane.
Dr Piotr Migdał: Sztuczna inteligencja jest już obecna w naszym codziennym życiu, nawet nie zdajemy sobie z tego sprawy
Sztuczna inteligencja to termin-wytrych, określający wiele rozmaitych technik komputerowych wykorzystanych do zadań, które nie dają się zapisać prostym algorytmem. Owszem, ona czerpie niektóre inspiracje z tego, jak ludzki umysł jest skonstruowany – np. z architektury kory wzrokowej. Dziś jednak sztuczna inteligencja to jeszcze nie „umysł w krzemie”, a raczej „automatyzacja na sterydach”.

Czy sztuczna inteligencja sama rozpoznaje, że popełniła błąd? I czy w ogóle przyznaje się do tego, czy też idzie w zaparte i ewentualnie próbuje naprawić po cichu (to akurat jedna z cech naszej inteligencji)?

Sieci neuronowe zawsze operują na prawdopodobieństwach. Jeśli to sieć rozpoznająca obraz i ma do dyspozycji 1000 różnych kategorii, to do każdej z nich przypisze jakieś niezerowe prawdopodobieństwo. Jak zobaczy kota, to może powie, że to kot domowy na 75%, żbik na 10%, tygrys na 5%, ryś na 5%. Pozostałe 5% mogą być na wszystkie inne kategorie. Dla najbardziej absurdalnych rozpoznań, jak np. „laptop”, może być jedna miliardowa. Ale nie zero.

Sieć nigdy nie jest niczego pewna na 100%. Jest tu o tyle uczciwsza od nas, że zawsze daje margines błędu. Dzięki temu wiemy, czy pomyliła się tylko trochę, czy też zasadniczo.

Wrzucamy obraz do sieci neuronowej i dostajemy wynik. A dalej nic, sieć nie myśli. Tak samo, jak gra komputerowa nie zastanawia się, czy pejzaż, który nam wyświetla jest piękny – po prostu to robi.

To programista mówi sieci, że popełniła błąd. I zmienia delikatnie olbrzymią liczbę parametrów, by jej przewidywania były bliższe rzeczywistości. Czyli temu, co on sam o owej rzeczywistości myśli.
Popkultura przedstawia AI jako terminatora, a jak jest naprawdę?
Umysł ludzki popełnia błędy. Często wynikają one z przesądów, często z konkretnej drogi życiowej człowieka, często z emocji. Czy te błędy są jakoś odzwierciedlone (celowo lub przypadkowo) w sztucznej inteligencji? Czy AI ma wprogramowaną zdolność błądzenia (nasza osobista inteligencja wtedy najwięcej się uczy)?

Bezrobotny 2030: programista, prawnik, księgowy. Uchowają się: terapeuta, psycholog, duchowny...

To nie żart. Zatrudni cię robot. A zagrożonych jest aż 40 proc. polskich miejsc pracy.

zobacz więcej
Sieci popełniają błędy. I jeszcze długo tak będzie. Część błędów jest podobna do tych, które mogliby popełnić ludzie. Na pewnej prezentacji pokazałem zdjęcie, które najpierw wzbudza u oglądającego „kosmate” myśli, a dopiero potem widać, że to przedpokój z lampą. Sieć do wykrywania pornografii miała takie same wrażenia.

Część błędów wynika z niedostatku danych. Na przykład kiedyś ze studentami tworzyliśmy sieć rozpoznającą obrazki wywołujące obrzydzenie, np. larwy owadów. Radziła sobie bardzo dobrze, ale przewidywała, że trawnik lub drzewa powinny wywołać takie poczucie. Widocznie nie widziała wystarczająco wielu przykładów roślin zielonych, w efekcie kształty liści i źdźbeł wyglądały dla niej równie obrzydliwie, jak robaki.

Wreszcie – część błędów jest specyficzna dla sieci. Na przykład nieraz da się sieć oszukać, dodając sztuczne wzory. Zmieniając kilka pikseli na zdjęciu możemy sprawić, że nagle sieć uważa, iż na obrazku jest nie kot, a toster.

Czy podoba się panu „sztuka” tworzona przez AI, np. muzyka, poezja? Czy możliwe, by taki „sztuczny Bach” był indywidualnością i tworzył rzeczy nie będące właściwie plagiatami?

Mnie inspirują pastisze malarskie, polegające na namalowaniu obrazu w stylu danego malarza. Stworzenie filmu „Twój Vincent” wymagało olbrzymiej pracy wielu artystów. Jednak już od ponad roku taki sam, a może i lepszy efekt artystyczny można osiągnąć przy pomocy sieci neuronowych. Jest nawet aplikacja stworzona przez Polaków – DeepArt.io, która łączy styl obrazu z treścią zdjęcia.
Sztuczna inteligencja potrafi opisać naszą osobowość, czasami lepiej niż nasi znajomi
Jeśli chodzi o teksty generowane przez sieci, to potrafią być ciekawe, ale na razie traktuję je jako pokaz możliwości. Na przykład „sztuczny Szekspir” lub „sztuczne artykuły na Wikipedii” – oba z projektu Andrieja Karpathy'ego.

Przecież żadna twórczość nie bierze się znikąd. Każdy twórca inspirował się wieloma doświadczeniami własnymi i dziełami innych artystów. Sztuką jest dla mnie dzieło oryginalne, niezbyt podobne do już istniejących, ale też nie odbiegające nadmiernie od tego, z czym mam styczność. Inaczej robi na mnie wrażenie chaotycznego i niezrozumiałego. Czy sztuczne inteligencje mogą takie dzieła tworzyć? Pewnie tak. Czy jest na horyzoncie coś, co pozbawi artystów pracy – wątpię. Za to AI może być dla artystów cennym narzędziem, niczym super-pędzel.

Czy da się zaprogramować AI uczucia i stworzyć „sztuczną inteligencję emocjonalną”? A co z postawami, utrwalonymi wzorcami zachowań wynikłymi z uczuć i edukacji? Czyli: czy sztuczna inteligencja może wyrazić lęk, wstyd, dumę, ambicję, zazdrość, oddanie sprawie et cetera? To są wszystko motywacje, którymi posiłkuje się ludzka inteligencja przy rozwiązywaniu problemów.

Emocje są czymś prostszym niż myśli. Mogą nam się wydawać trudniejsze, bo sami mamy nad nimi mniejszą kontrolę. Są jednak mniej czułe na bodźce (reakcja strachu na groźne zwierzę i zbliżający się termin zapłaty mogą być podobne) oraz podobnie wpływają na zachowanie (np. walka, ucieczka lub zamarcie w bezruchu).

Warto przy tym zauważyć, że takie emocje, jak wstyd, duma czy zazdrość, to emocje społeczne. Mają sens tylko w grupie, i to takiej, w której istnieje hierarchia.

Jedyna rzecz, która często przydaje się w interaktywnych systemach (np. do grania w gry), to ciekawość. Nagradzanie sieci za odkrywanie nowych miejsc i sytuacji. Często ciekawość jest pomocna przy innych zadaniach.

A jak nagradza się sieć? Psu można rzucić przysmak za aportowanie, pracownikowi dać premie lub bony towarowe, a co może programista dać sieci neuronowej?

Zwykle tylko karcimy sieci. „Za karę” odrobinę zmieniamy owe tysiące lub miliony parametrów. Parametry zmieniamy proporcjonalnie do wielkości owej kary.
Czy sztuczne sieci neuronowe są w stanie uczyć się same, po ludzku kojarzyć, wyciągać wnioski?
W edukacji, używając tylko kija i nie dając marchewki, daleko nie zajedziemy. A poważnie: czy można zaprogramować współpracę sztucznych inteligencji? Czy one by się ze sobą komunikowały samodzielnie? Czy – ucząc się – nie wykażą klasycznych ludzkich, negatywnych sposobów kontrolowania relacji, jak: manipulacja, wprowadzenie w błąd, próba przejęcia kontroli nad drugą osobą i tym podobne? Czy takie dwie współpracujące sztuczne inteligencje stałyby się dla siebie „toksyczne”?

Zwykle „trenujemy” sieci neuronowe w pojedynkę. Wystarczy jedna sieć neuronowa dla danego zadania, np. rozpoznawania obrazu. Dodanie do tego komunikacji jest trudne. Może jednak być kluczowe, gdy np. chcemy, by rój dronów koordynował swoje akcje, choćby po to, by się nie zderzały.

Tu na marginesie warto zauważyć, że niektórzy ewolucjoniści sugerują, iż świadomość powstała w czasie tzw. eksplozji kambryjskiej. To stosunkowo nagłe pojawienie się ogromnej liczby różnych złożonych form organizmów wielokomórkowych w warstwach geologicznych, w relatywnie krótkim okresie – pomiędzy 542 i 510 mln lat temu. Nagła mnogość istot żywych sprawiła, że musiały zacząć przewidywać nawzajem swe ruchy. Nie wystarczyła im „inteligencja” pozwalająca na bezpieczny kontakt ze statycznym środowiskiem.
Jeśli chodzi o wprowadzanie w błąd, to zadaje pani ciekawe pytanie. Jest taka jedna architektura, oparta na parze konkurujących z sobą sieci. Nazywa się to GAN (Generative Adversarial Network). Służy do tworzenia fałszywych obrazów, które będą imitowały prawdziwe.

System działa następująco:
- jedna sieć (fałszerz) albo generuje obraz, albo bierze go z oryginałów;
- druga (detektyw) zgaduje, czy to podróbka, czy też oryginał.

Jeśli detektyw jest zbyt skuteczny, fałszerz nigdy nie nauczy się swojego fachu, bo nie wie od czego zacząć, by podróbka przeszła test. Jeśli detektyw jest mało skuteczny, fałszerz nauczy się tworzyć tylko nędzne podróbki, bo i tak będą przechodziły test.

Takie sieci służą do tworzenia sztucznych zdjęć twarzy czy też do powiększania zdjęć z zachowaniem pełnego szczegółu. O ile detale są „wymyślane”, to w taki sposób, by wyglądały naturalnie i bardzo prawdopodobnie.

– rozmawiała Magdalena Kawalec-Segond
Zdjęcie główne: Robot z filmu „Terminator” po kwalifikacjach do hiszpańskiego Grand Prix Hiszpanii Formuły 1 na Circuit de Catalunya, 9 maja 2009 r. w Barcelonie, Hiszpania. Fot.: Paul Gilham/Getty Images
Zobacz więcej
Rozmowy Najnowsze wydanie
Stres nie ma znaczenia. Jesteśmy ofiarami klątwy psychologów
Terapia pokryzysowa jest nieskuteczna, a nawet szkodliwa. Intensywne mielenie traumatycznych wydarzeń nie pozwala emocjom wygasnąć, lecz przeciwnie: utrwala je – mówi psycholog Tomasz Witkowski.
Rozmowy Najnowsze wydanie
Zanussi uświadomił mi, że nie powinienem się niczego bać
„Kino z duszą” to impreza niezwykła. Choć nie jest to festiwal z metką „chrześcijański”, to wyświetlane są tam filmy z wartościami – mówi Krzysztof Żurowski, reżyser.
Rozmowy Najnowsze wydanie
Śmierć w górach nie jest najpiękniejsza ani wymarzona
Jurek Kukuczka nie musiał jechać na tę wyprawę, bo zdobył już wszystkie ośmiotysięczniki. Ale on nie wyobrażał sobie życia bez gór – wspomina himalaista Walenty Fiut.
Rozmowy Poprzednie wydanie
Nawet ksiądz ma ornat łącki, a liturgia jest w gwarze
Grają na listku, chodzą w gurmanie, a w zeleźnioku pędzą bimber, co niejednego cepra praśnie w młako.
Rozmowy wydanie 4.10.2019 – 11.10.2019
Zło nie tylko dobrem trzeba zwyciężać, ale też walką
Kornel Morawiecki w wywiadzie z 2017 roku: Czasem walka o ewangeliczne wartości może skutkować tragedią.