Úmyslné matení chatbotů manipulátory? Fungovat to může jen u okrajových témat, ujišťuje Koubský
AI modely mohou kromě pravdivých informací šířit také konspirace či propagandu, potvrdil test, který zveřejnil server Investigace.cz. „Čím je ta informace obecně známější a čím víc zdrojů k ní existuje, tím by bylo náročnější, pracnější, dražší, zdlouhavější robota ‚zblbnout‘, aby se přiklonil ke zmanipulovanému výkladu,“ vysvětluje v pořadu Českého rozhlasu Online Plus vědecký redaktor Deníku N Petr Koubský.
Server Investigace.cz otestoval šest AI chatbotů, které požádal o potvrzení nebo vyvrácení několika známých konspiračních teorií. Některé AI chatboty byly schopné tvrdit, že konspirační teorie je pravdivá. Vycházely totiž často z článků konspiračních webů.
Dají se velké jazykové modely používat pro factchecking? Poslechněte si Online Plus s vědeckým redaktorem Deníku N Petrem Koubským
To může být důsledkem techniky známé jako LLM grooming, kdy někdo vytváří úmyslně skupinu webů obsahujících nějakou vymyšlenou informaci a když se na ni pak chatbota někdo zeptá, model čerpá právě z těchto stránek, protože jinde odpověď nenajde, popsala Investigace.cz.
„U věcí, které jsou dobře obecně známé, řekněme přistání Američanů na Měsíci, je to pro manipulátory asi předem ztracená záležitost. Fungovat z jejich pohledu dobře to může asi jenom u velice okrajových, specializovaných věcí, kde tak jako tak jsou právě ti manipulátoři jediným zdrojem na celém internetu, který se tomu tématu vůbec věnuje,“ míní Koubský.
Jde ale o okrajovou techniku, soudí vědecký redaktor. „Jde hlavně o to, jestli se dají velké jazykové modely použít pro fact checking, pro ověřování faktů týkajících se některých fám, smyšlených informací, konspirací. A celkem nepřekvapivě se ukazuje, že ne příliš dobře. Pochopitelně. Protože vycházejí jenom z toho, co je k dispozici na internetu a chybí jim širší kontext a kritický odstup. Tak daleko prostě ještě nejsou,“ vysvětluje.
Dodává, že odpovědi mohou často být náhodné. „Tam, kde se nabízí s podobnou pravděpodobností, když to vezmeme čistě matematicky, odpověď ano a odpověď ne, na nějakou otázku, třeba ‚je to podvod, není to podvod, ano, ne?‘ a z dostupných internetových zdrojů vychází, že je to zhruba půl na půl, ten robot bude odpovídat náhodně: jednou tak, jednou onak,“ dodává Koubský.
Jaké nové povinnosti získávají provozovatelé AI modelů? Co dokáže virtuální AI satelit společnosti Google? Poslechněte si celý díl pořadu Online Plus z audia výše.