Největší riziko AI? Že vytvoří svět, ze kterého se nám nebude chtít vystupovat, míní kybernetik Jiří Matas

„Osobně si myslím, že umělá inteligence není na prvním místě ve frontě nebezpečných věcí na zničení lidstva. Jsou mnohem nebezpečnější věci – vylepšování lidí genetickými prostředky, uniklá biologická mutace něčeho… V biologii jsou systémy, které jsou samoreprodukující. To zatím umělá inteligence není,“ říká kybernetik a odborník na strojové vnímání z ČVUT Jiří Matas pro Radiožurnál.

Rozhovor Praha Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Co všechno AI dokáže vyčíst z mého obličeje?
Rozpoznávání byla úplně klasická úloha – kdo se na mě dívá nebo kdo je před kamerou. Ale dneska máte věci jako afektivní stav, a to nejenom jestli jste spokojený, jestli se vám něco líbí, nebo nelíbí, jestli vás to nevzrušuje, nebo vzrušuje.

Přehrát

00:00 / 00:00

AI a kreativita? Budeme říkat, že umělá inteligence není kreativní, že jen míchá polévku z toho, co udělali ostatní. Ale leckdy jenom kombinace starého je úplně nová, říká kybernetik Jiří Matas

Máme článek, kde jsme zkoušeli predikovat, jestli člověk ví odpověď na otázku. V soutěži Jak se stát milionářem vidíte toho člověka a pár vteřin po otázce už můžete hádat, jestli to bude vědět, nebo nebude vědět. A protože odpověď se dozvíte, tak to můžete použít. Úspěšnost byla docela vysoká. Můžete taky poznat, že se člověku líbíte. 

Jestli lžu, nebo nelžu…
To jsme chtěli zkoušet, ale bylo docela problematické k tomu získat reálná data. Když si přečtete knihy, což jsme udělali, tak většina popisuje situaci, kdy máte aktivní přístup. To znamená, že můžete klást otázky, dívat se na reakce, ty otázky mohou přicházet křížově po nějaké době… Z druhé strany jsou nějaké jasné styly odpovědí, které naznačují, že člověk lže. Ale když jenom pozorujete a nemáte to v ruce, tak je to těžké a většinou k tomu není materiál.

Strojové učení potřebuje označená data – „tady lhal“. A se lhaním je to těžké v tom, že sice mohl mluvit nepravdu, ale ještě je otázka, jestli věděl, že mluví nepravdu. Vzdali jsme to pro nedostatek dat. 

Mikrovýrazy v mé tváři prozradí hodně. Když budu hrát poker s nějakým humanoidním robotem, který bude patřičně vybaven, tak pozná, že blafuji?
Může. Může mít víc senzorů než vy a jednou kamerou se může dívat na karty a druhou kamerou nebude dělat nic jiného než koukat na vás. A mikrovýraz je něco, co souvisí s naším starým mozkem. Nemáme to pod kontrolou a vyjadřujeme tím opovržení, strach nebo takový rychlý záblesk radosti.

22:43

Umělá inteligence je největší výzvou v historii lidstva. Její regulace je nutná, říká výzkumník

Číst článek

A mikrovýraz trvá třeba setinu vteřiny.
To asi víc, řekněme stovky milisekund, takže zlomky vteřin. Je to škubnutí koutkem, povytažení obočí… To jsme také dělali, máme k tomu článek. Chtěli jsme to udělat na pokeru, ale bohužel ve všech materiálech, které jsou, ve chvíli, kdy se pokládá karta na stůl, když se otáčí, většinou kamera jde na kartu, a my bychom v tu chvíli potřebovali koukat na hráče, jestli mu to škublo.

Je důležité mít černé brýle. Nevím, jestli mají povoleno mít ruku před pusou nebo podobně. A s mikrovýrazem se nedá nic dělat. Tam je to totiž jasné – ví se, jestli to bylo pro toho hráče dobré, nebo nebylo. Oni vědí, co je pro ně špatná karta, takže by to krásně šlo spojit, ale zase musíte mít ta správná data.

A taky spíš jako vědci děláme něco, čemu se říká „proof of concept“ – důkaz, že to jde. Nechceme třeba vyrábět mašinku, která bude mít v brýlích kameru a bude radit pokerovému hráči.

Svět velké divočiny

Je něco, co by AI neměla vůbec zkoumat nebo kam byste ji nepouštěl?
Na to říkám, že lidstvo je v tomto hrozně špatné. Možná se dohodlo na omezení šíření jaderných zbraní, biologických a chemických zbraní, ale na umělé inteligenci je hrozně nebezpečné to, že to nelze udělat jednostranně. Když ji druhá strana využije, může ji použít proti vám nějakými manipulativními technikami, kdy děláte věci, které nakonec nejsou ve vašem zájmu, ale vy si myslíte, že jsou, a dostáváte se do smyčky, která skončí nesvobodou.

Ta otázka je strašně těžká a svět je ve stavu, kdy se nedohodne ani na úplně jednoduchých věcech. Naopak se zdá, že v posledních dvou letech odcházíme ze světa, kde je nějaký mezinárodní pořádek, do světa velké divočiny. A ve světě velké divočiny, kde se může druhý den stát cokoliv, je hrozně těžké vytvořit důvěru.

„Až bude robotika a vtělené systémy, které by byly schopné samoreprodukce, tak to začne být hodně nebezpečné“

Osobně si myslím, že umělá inteligence není na prvním místě ve frontě nebezpečných věcí na zničení lidstva. Jsou mnohem nebezpečnější věci – vylepšování lidí genetickými prostředky, uniklá biologická mutace něčeho…

V biologii jsou systémy, které jsou samoreprodukující. To zatím umělá inteligence není. Zatím je to tak, že ten stroj požírá data, a z toho vyrábí nějaké modely, které můžou predikovat, mohou odpovídat na otázky. Teprve až bude robotika a budou vtělené systémy, které by byly schopné samoreprodukce, tak to začne být hodně nebezpečné.

Co až přijdou humanoidní roboti? To už bude vyšší stupeň, protože umělá inteligence v počítači je pořád taková nehmatatelná.
Jedna z hrozeb umělé inteligence, jak to vidím já, je, že vytvoří svět, ze kterého se nám nebude chtít vystupovat.

Dneska máte počítačové hry a před pár lety prošla tiskem příhoda snad Korejce nebo Číňana, který zemřel, protože si nedošel na záchod, nedokázal se od té hry odtrhnout. A to je hra, kde možná buší do klávesnice a joystickem něco tahá a kouká na obrazovku.

Umělá inteligence šíří proruskou propagandu. Nejoblíbenější chatboty citují dezinformační server

Číst článek

Zatímco nějaký, řekněme, sexuální robot, který vás hladí, rozumí vám a pustí vám jakékoli video, je prostě dokonalý partner – na vás speciálně doučený. Tak proč byste se zabývala tím tvrdým, nepříjemným reálným světem? Tento svět je přece mnohem pohodlnější. Je to lepší než Matrix. V Matrixu lidi leželi a byli napojení jenom myšlenkově, měli odpojené tělo. Tady to tělo ani nebudu muset odpojovat.

Jak nebezpečné jsou tzv. deepfakes? Rozumí umělá inteligence humoru? A co nám může říct o povaze kreativity? Poslechněte si celý rozhovor, audio je v úvodu článku.

Lucie Výborná, krt Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Nejčtenější

Nejnovější články

Aktuální témata

Doporučujeme