Umělá inteligence je největší výzvou v historii lidstva. Její regulace je nutná, říká výzkumník

S umělou inteligencí (AI) se každý den setkávají tisíce lidí. Mnoho z nich se ale obává toho, že se technologie vyvine špatným směrem. Někteří politici proto navrhují její částečnou regulaci. „Plusy i rizika jsou ohromně velké. Jsem optimista v tom, že si myslím, že to přináší spíš výzvy,“ říká v rozhovoru pro Radiožurnál Jan Kulveit z Centra pro teoretická studia Univerzity Karlovy a Akademie věd České republiky.

Dvacet minut Radiožurnálu Praha Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Už před několika lety jste mluvil o tom, že nástup AI může být největší změnou, jakou lidstvo zažilo. V těch vašich očekáváních převažují přínosy a plusy, nebo rizika a hrozby?
Uvažuji nad tím tak, že plusy i rizika jsou ohromně velké. Jsem optimista v tom, že si myslím, že to přináší spíš výzvy.

Myslím si, že to přináší největší výzvu, před kterou kdy lidstvo stálo. Pravděpodobně větší než třeba vynález jaderných zbraní. Jestli převáží přínosy, nebo jestli to dopadne špatně, to záleží na nás. 

Přehrát

00:00 / 00:00

Co se výrazně změní, bude programování, psaní kódu. V první fázi AI nástroje výrazně zvýší produktivitu lidí tak, že to vyvolá rozkvět oboru. Ale v další fázi se systémy dál zlepšují a podíl lidské práce klesá, popisuje výzkumník Jan Kulveit

Rekurzivní sebevylepšování

Když se k některým scénářům dostaneme, který je z vašeho pohledu ten nejděsivější?
Zkusil bych popsat asi tři základní věci, které se můžou vymknout z rukou. Alespoň část firem, které ty systémy vyvíjí, se momentálně dost snaží, aby byly dobré třeba v psaní počítačových programů nebo ve výzkumu a vývoji umělé inteligence. Takže jeden scénář, ze kterého má řada lidí obavu, je tzv. rekurzivní sebevylepšování.

Dá se to představit tak, že jedna z největších firem v oboru, OpenAI, má několik stovek výzkumných pracovníků a inženýrů, kteří pracují na tom, aby vyvinuli lepší a lepší modely. Když si představíte systém, který by uměl v tom oboru vykonávat úlohy, které těm lidem trvají třeba půl dne nebo den a ten systém by to zvládl mnohem rychleji, dá se představit, že takového systému můžou pustit stovky, tisíce nebo desítky tisíc kopií.

Takže se na to dá dívat tak, že efektivní pracovní síla samotných laboratoří, které vyvíjejí AI systémy, se může velmi rychle zmnohonásobit. Ty systémy oproti lidem mají tu výhodu, že když máte těch 500 lidí a všechny chcete něco nového naučit, tak se to každý musí naučit individuálně. Když něco naučíte AI model, tak to všechny instance toho modelu najednou umí taky.

25:36

Od technologických firem nelze čekat samoregulaci. Na AI zatím příliš nevydělávají, míní Holý

Číst článek

Ale na to se dá dívat pozitivně – že to znamená, že spoustu věcí nebudeme muset dělat a že je za nás bude dělat AI. Kde je ta děsivost v tomto modelu?
V modelu rekurzivního sebevylepšování riziko spočívá v tom, že uvnitř firem třeba vyvinou nějaký systém, který bude extrémně inteligentní. CEO jedné z těch firem, Anthropicu, říká, že je realistické, že koncem roku 2027 by mohli mít systém, který je aspoň v nějakých oborech podobně schopný jako běžný laureát Nobelovy ceny.

Když si představíte skupinu takových simulovaných géniů, kteří běží někde v data centru, tak si můžete například položit otázku, jestli nepřevezmou kontrolu nad laboratoří nebo jestli nezkusí nějakým způsobem zajistit, že je třeba ta laboratoř nevymění.

Scénář, kterého se řada lidí bojí, je ztráta kontroly, kdy ty systémy mohou mít vlastní motivace. Pokud budou tak schopné a chytré, třeba nás zvládnou zmanipulovat nebo technicky zvládnout sabotovat nějaké typy výzkumu, které by se jim nehodily a podobně.

Elon Musk představil nejnovější verzi chatbota Grok 3. Má ‚porozumět vesmíru‘ a ‚jít za pravdou‘

Číst článek

Můžete si představit, že kdyby se všichni pracovníci amerických tajných služeb soustředili na to, že zkusí ovládnout nějakou drobnou zemi a měli by k tomu jenom internet, tak by to třeba zvládli. Našli by na lidi v té zemi různé kompromitující materiály; přes internet můžete posílat peníze, můžete platit lidi, můžete jim zadávat úkoly a podobně. Takže je představitelné, že by se takový systém mohl vymknout kontrole, a naopak třeba ovládnout státy. To je jeden klasický scénář.

Máme teď poměrně čerstvý článek, který toto nepředpokládá, ale říká, že hlavní problém může být to, pokud nahradíme lidi ve spoustě systémů, které slouží nám, jako jsou třeba státy nebo ekonomika. Pokud nahradíme lidi, tak pro ty systémy zmizí část důvodů, proč jsou nějakým způsobem vstřícné k lidem.

Žaloba na OpenAI

Minulý týden obžalovala v Norsku rakouská spotřebitelská organizace společnost OpenAI, a to kvůli šíření lživých informací o konkrétních lidech prostřednictvím chatbotu ChatGPT. Podle ní jazykový model s prvky umělé inteligence opakovaně generuje nepravdivé, poškozující informace, včetně falešných obvinění z trestné činnosti, čímž podle žaloby porušuje legislativu na ochranu osobních údajů. Je toto jenom kuriozita, nebo tato a případné podobné žaloby mohou mít zásadnější dopad?
Obávám se, že žaloby nebudou mít zásadní dopad, protože z debaty ohledně AI systémů se už stává – minimálně ve Spojených státech a Číně – otázka národní bezpečnosti. A ty firmy, jako třeba zmíněná OpenAI, ve vlastní komunikaci tento narativ hodně prosazují – že pro konkurenceschopnost a budoucnost Spojených států je zásadní, aby je nikdo neomezoval. Takže úplně nevěřím, že žaloba spotřebitelské organizace v Evropě něco zásadního změní.

Univerzita Karlova koordinuje projekt na vývoj evropské AI. ‚Doufáme v lepší češtinu,‘ říká Jan Hajič

Číst článek

Už jsme mluvili o tom, jak roste výkonnost AI modelů. Roste s výkonem také věrohodnost výstupů, které produkují? 
V řadě směrů ano. Co se týče toho, že ten model řekne nějakou pomluvu – ty modely jsou natrénované na textech z internetu a na internetu najdete spoustu lží, propagandy, nesmyslů a falešných obvinění, které tam píšou lidi. Takže v tom je ten model spíš odrazem toho, co lidi píšou na internetu.

Je namístě nějaká zásadnější regulace umělé inteligence? A je reálné, že by se na tom mohla domluvit nejen EU, která má nařízení, tzv. AI Act, ale i Spojené státy, Čína a další velcí hráči?
Podle mě je nutná. Pokud to má dopadnout dobře, tak AI jako technologii regulovat musíme.

A je to reálné? Nebo co se musí stát proto, aby k tomu byla vůle opravdu ze všech stran?
Mám trochu obavu, že vůle nejspíš vznikne, pokud se s tím stane nějaký velký průšvih. Ale můžeme doufat, že pokud se splní vize Anthropicu, že budou mít umělou inteligenci na úrovni geniality nositele Nobelovy ceny i v nějakých úzkých oborech, tak to třeba politiky, zákonodárce, ale i voliče znepokojí natolik, že si řeknou, že toto opravdu musíme řešit. 

Jak velkou část pracovních míst bude AI v dalších letech schopna nahradit? Dá se bránit automaticky generované propagandě? A jakou rychlostí se zlepšují AI systémy? Poslechněte si celý rozhovor výše.

Tomáš Pancíř, krt Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Nejčtenější

Nejnovější články

Aktuální témata

Doporučujeme