Analytik Šlerka: Umělá inteligence a propaganda? Na sociálních sítích vidíte válku, která se nestala

Totálně zničený Tel Aviv, Izraelci prosící o mír nebo sestřelený izraelský letoun F-35. Novým nástrojem šíření dezinformací se stává generativní umělá inteligence. Sociální sítě nejnověji zaplavila falešná videa a záběry z videoher vydávající se za realitu íránsko-izraelského konfliktu. „Ověřit jejich pravost je bez spolupráce platforem skoro nemožné,“ říká datový analytik Josef Šlerka v pořadu Jak to vidí... na Dvojce.

Praha Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Íránské jaderné zařízení Fordo

Na snímku je reálné íránské jaderné zařízení, je ale složité ho rozeznat od falešných obrázků pocházejících například z počítačových her nebo vygenerovaných umělou inteligencí | Foto: AFP / Satellite image ©2021 Maxar Technologies / AFP | Zdroj: Profimedia

Totálně zničený Tel Aviv, Izraelci prosící o mír nebo sestřelený izraelský letoun F-35 íránskou protivzdušnou obranou. Na sociálních sítích se šíří falešná videa tvářící se jako reálné záběry z války. Ve skutečnosti jde ale o záběry z leteckých simulátorů nebo různých videoher.

Přehrát

00:00 / 00:00

Host: datový analytik Josef Šlerka. Moderuje Zita Senková

„Množství videí, produkovaných proti oběma stranám, mě zaskočilo. Když začaly údery USA na íránská zařízení, sám jsem si nebyl jistý, jestli je to jenom fake obsah, nebo skutečnost. Uvědomil jsem si, jak těžké je to rozeznat. A že na sítích pozorujeme válku, která se vlastně nestala,“ popisuje datový analytik Josef Šlerka.

Válka ve stínu dezinformací

Přesto nejde o žádnou novinku. Záběry z počítačových her se v konfliktech objevují velmi často. Využívány jsou i v rusko-ukrajinském konfliktu. Fascinující ale podle Šlerky je množství takových záběrů na sítích a to, co se k nim zdánlivě přidružuje.

‚Lživá CNN, upadající New York Times.‘ Vzkázal Trump médiím, dle nichž jaderný program Íránu trvá

Číst článek

„V mém newsfeedu na TikToku najednou vyskočil příspěvek jakoby od fotbalisty Ronalda. Byly na něm dvě stíhačky letící prostorem s textem, že Maroko právě začalo bombardovat Španělsko, protože Španělsko okupuje dvě marocká města,“ popisuje Šlerka jeden z příkladů, kdy se na aktuální konflikt zavěsí spousta dalších potenciálních rozdmýchávání.

Odhalit deepfake videa je podle analytika čím dál těžší. Sledující mají v podstatě k dispozici jen vlastní kritický úsudek. „V případě Maroka je jasné, že by takovou hloupost neudělalo. Ale u těch stíhaček nevím. Přiznám se, že na všechna podobná videa raději koukám jako na fikci a věřím nakonec jen tradičním médiím a ověřeným zdrojům,“ říká analytik.

Z pomsty nebo vzteku

Rozhodně jde o první takové využití generativní umělé inteligence během konfliktu pro účely propagandy v tak masivním měřítku. Přičemž dopátrat se toho, kdo taková videa tvoří, je bez pomoci platforem téměř nemožné.

OVĚŘOVNA: Fotka sestřelené izraelské stíhačky F-35 je podvrh. Íránci se ale díky sítím mohou mobilizovat

Číst článek

„Generují to lidé, který se připojili na Google účet, zadali tam scénář, vygenerovali video a publikovali ho. Zatímco před pár lety vygenerovat takové video bylo drahé a náročné, dnes to může udělat každý, kdo se chce pomstít nebo si vybít svůj vztek.“

„Nám zbývá jen zprávy ověřovat a všímat si fyziky – stínů, zdvojených věcí. Ale i toto bude dříve či později vývojem v technologické oblasti setřeno,“ dodává Josef Šlerka.

Zita Senková, opa Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Nejčtenější

Nejnovější články

Aktuální témata

Doporučujeme