Úmyslné matení chatbotů manipulátory? Fungovat to může jen u okrajových témat, ujišťuje Koubský

AI modely mohou kromě pravdivých informací šířit také konspirace či propagandu, potvrdil test, který zveřejnil server Investigace.cz. „Čím je ta informace obecně známější a čím víc zdrojů k ní existuje, tím by bylo náročnější, pracnější, dražší, zdlouhavější robota ‚zblbnout‘, aby se přiklonil ke zmanipulovanému výkladu,“ vysvětluje v pořadu Českého rozhlasu Online Plus vědecký redaktor Deníku N Petr Koubský.

online plus Praha Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

chatbot, chat, ilustrační, sociální sítě

„U věcí, které jsou dobře obecně známé, řekněme přistání Američanů na Měsíci, je to pro manipulátory asi předem ztracená záležitost,“ říká Koubský | Zdroj: Profimedia

Server Investigace.cz otestoval šest AI chatbotů, které požádal o potvrzení nebo vyvrácení několika známých konspiračních teorií. Některé AI chatboty byly schopné tvrdit, že konspirační teorie je pravdivá. Vycházely totiž často z článků konspiračních webů.

Přehrát

00:00 / 00:00

Dají se velké jazykové modely používat pro factchecking? Poslechněte si Online Plus s vědeckým redaktorem Deníku N Petrem Koubským

To může být důsledkem techniky známé jako LLM grooming, kdy někdo vytváří úmyslně skupinu webů obsahujících nějakou vymyšlenou informaci a když se na ni pak chatbota někdo zeptá, model čerpá právě z těchto stránek, protože jinde odpověď nenajde, popsala Investigace.cz.

„U věcí, které jsou dobře obecně známé, řekněme přistání Američanů na Měsíci, je to pro manipulátory asi předem ztracená záležitost. Fungovat z jejich pohledu dobře to může asi jenom u velice okrajových, specializovaných věcí, kde tak jako tak jsou právě ti manipulátoři jediným zdrojem na celém internetu, který se tomu tématu vůbec věnuje,“ míní Koubský.

Jde ale o okrajovou techniku, soudí vědecký redaktor. „Jde hlavně o to, jestli se dají velké jazykové modely použít pro fact checking, pro ověřování faktů týkajících se některých fám, smyšlených informací, konspirací. A celkem nepřekvapivě se ukazuje, že ne příliš dobře. Pochopitelně. Protože vycházejí jenom z toho, co je k dispozici na internetu a chybí jim širší kontext a kritický odstup. Tak daleko prostě ještě nejsou,“ vysvětluje.

Dodává, že odpovědi mohou často být náhodné. „Tam, kde se nabízí s podobnou pravděpodobností, když to vezmeme čistě matematicky, odpověď ano a odpověď ne, na nějakou otázku, třeba ‚je to podvod, není to podvod, ano, ne?‘ a z dostupných internetových zdrojů vychází, že je to zhruba půl na půl, ten robot bude odpovídat náhodně: jednou tak, jednou onak,“ dodává Koubský.

Jaké nové povinnosti získávají provozovatelé AI modelů? Co dokáže virtuální AI satelit společnosti Google? Poslechněte si celý díl pořadu Online Plus z audia výše.  

David Slížek, jkd Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Nejčtenější

Nejnovější články

Aktuální témata

Doporučujeme