Rasistický chatbot Grok? Asi se trénoval na politicky nekorektních textech z X, míní expert Šedivý

Chatbot Grok, uzpůsobený ke komunikaci na síti X, čelí obvinění z rasismu, antisemitismu a vulgární komunikace. Ve svých příspěvcích adoroval například Adolfa Hitlera, útočil na Židy a urazil třeba i polského premiéra Donalda Tuska. „Na trénink jazykového modelu jsou potřeba biliony slov. Vývojáři pravděpodobně vzali texty z X, které jsou nekorektního obsahu plné,“ myslí si Jan Šedivý z Českého ústavu robotiky a kybernetiky ČVUT.

Ranní Plus Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Chatbot Grokk

Chatbot Grokk | Foto: Mojahid Mottakin | Zdroj: imageBROKER / Profimedia

V čem se podle vás stala chyba?
Všechny jazykové modely, které jsou jádrem chatbotů, se kterými si lidé dnes velmi často povídají a v mnoha případech nám pomáhají, se trénují z textu. To znamená, že musíte mít obrovské množství textu, ze kterého se bot učí, jak má mluvit.

Přehrát

00:00 / 00:00

Poslechněte si rozhovor s Janem Šedivým

V případě Groka od Elona Muska pravděpodobně používali texty, které získali z Muskovy sítě X. Jak víme, všechny sociální sítě jsou plné politicky nekorektního textu. Při trénování jazykového modelu je třeba všechno to, co je politicky nekorektní, odstranit, ale to je velmi těžké.

Kdybychom se třeba podívali na slovo Hitler. Je zcela legitimní zeptat se chatbota, kdy Adolf Hitler zemřel nebo kdy se narodil a podobně. Takže jenom vyškrtnout slovo Hitler nebo všechny věty, ve kterých to slovo je, a vyčistit text tak, aby v něm nezůstaly věci, které v tom botovi nechceme mít, je velmi obtížná věc.

Biliony slov

To znamená, že je potřeba, aby umělá inteligence dostala nějaké jasné příklady třeba toho, co je rasismus, antisemitismus, jaká rétorika je nepřípustná? Musí to být doslova sepsáno?
Ano, ale je to poněkud komplikovanější. My musíme při čištění textů, se kterými trénujeme, rozumět textu. To znamená, že musíme znát sémantiku toho textu, protože věty, které jsou legitimní, tam musí zůstat – a ty mohou popisovat i události a lidi, o kterých nechceme mluvit, i v jiných souvislostech.

Najít to kritérium, tu metriku, která tyto věty vyřadí, je velmi obtížné. Zejména je to obtížné při množství textu, které na trénink potřebujeme. Hovoříme o bilionech slov. Bilion, to je dvanáct nul! To nelze zpracovat ručně.

Je potřeba to zpracovávat automaticky. A v tom tkví jedno z velkých umění a jedna z velkých obtíží při tréninku velkých jazykových modelů.

Muskova AI Grok označila sama sebe za ‚MechaHitlera‘. Jeho zprávy musely zmizet

Číst článek

To znamená, že je potřeba umělé inteligenci jasně odvyprávět třeba příběh Adolfa Hitlera, aby ho mohla detekovat jako zápornou postavu. Stačí jeden takový příklad? Nebo je to nutné udělat to třeba i v případě Benita Mussoliniho a v podstatě každého člověka, který se nějakým způsobem zapsal do kontroverzní kapitoly dějin?
Ty modely samozřejmě umí generalizovat. Můžete jim třeba nadiktovat, jak se řeší jednoduchá matematická úloha, například že pět lidí nastoupí do tramvaje, na první stanici deset vystoupí a tak. Model to umí zgeneralizovat třeba na autobus. To se modely určitě naučí.

Ale je tam jedna problematická věc – protože modely musí hovořit v kontextu a vznikají takzvané emergentní jevy. To znamená, že model za sebe umí logicky stavět některé úvahy. A ty úvahy se můžou vyskytnout v různých článcích. Takže i když uděláme všechno správně, tak jsou tam některé jevy, které úplně přesně ovlivnit neumíme.

Zajistit stoprocentní jistotu, že se tam nevyskytne něco špatného, je stále těžká úloha, na které se ve výzkumu pořád pracuje.

A je to tak, že se chatbot neustále vyvíjí? Protože třeba chatbot Grok nebyl vždycky rasistický, v minulosti dokonce označoval svého „stvořitele“ Elona Muska za dezinformátora a až později začal mít extremistické názory. Znamená to, že učení umělé inteligence je nekonečné?
Není to tak, že by se ten model sám od sebe učil. Teď to říkám velmi zjednodušeně, ale ten model se musí trénovat a to trénování trvá třeba i několik týdnů, protože data jsou opravdu obrovská, takže se to trénuje po určitých úsecích.

Ano, současné modely jsou řešeny tak, že umí pracovat i s nejnovějšími informacemi, to znamená, že ten model má znalost načerpanou v průběhu tréninku třeba k 1. lednu letošního roku a to, co se stalo v prvním pololetí tohoto roku, se do toho dodává dynamicky.

Je to tak, že se tam třeba mění jména, ale slovní spojení nebo schopnost vytvářet nějaké úseky úvah, to neumí.

Pavlína Nečásková, fso Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Nejčtenější

Nejnovější články

Aktuální témata

Doporučujeme