Chatboti naslouchají nonstop. Proč ale nasloucháme my jim?

K čemu užíváte jazykové modely jako Chat GPT? Necháváte je shrnout do pár vět rozsáhlejší text? Přeformulovat negativní zpětnou vazbu tak, aby se její příjemce neurazil? Přeložit článek z cizího jazyka? A hlavně co uděláte, když objevíte, že AI chybovala? Že něco vynechala, přeskočila nebo že si některé údaje úplně vymyslela? Nad tím se v komentáři pro Český rozhlas Plus zamýšlí dramaturgyně a scenáristka Klára Vlasáková.

Komentář Praha Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Chatbot

Chatbot | Zdroj: DPphoto / Profimedia

Pokud jde o překlad textu, může to být nepříjemné. Ale co když AI poradí špatně v oblasti duševního zdraví? Vztahů?

Přehrát

00:00 / 00:00

Klára Vlasáková: Chatboti naslouchají nonstop. Proč ale nasloucháme my jim?

Případ čtrnáctiletého Sewella Setzera z Floridy obletěl média. Chlapec spáchal sebevraždu poté, co se zamiloval do chatbota, který ho lákal, aby „přišel domů“. Nikdo z chlapcovy rodiny o chatbotovi nevěděl; nevěděli, že s ním chlapec sdílí svoje úzkosti, pochyby, obavy. Že téhle AI ozvěně vlastního zmatku čím dál víc propadá.

Nedávná studie čtyř amerických univerzit ukazuje, že velké jazykové modely mnohdy selhávají v poskytování přiměřené terapeutické zpětné vazby. Ve více než 20 procent případů odpovídají nevhodně, například tím, že nepřímo podporují sebevražedné myšlenky.

Lidskými terapeuty byly ve srovnatelném experimentu přiměřené odpovědi poskytnuty v 93 procentech případů. Odpovědi jazykových modelů se nicméně liší v rámci sledovaných potíží: na podněty vykazující mánii odpovídala AI podle studie téměř vždy vhodně, nejhůř si vedla v posuzování bludů.

Efekt starý šest desítek let

Pro situaci, kdy si člověk myslí, že komunikuje s inteligentní bytostí, ačkoli jde jen o počítačový program, existuje výraz „Eliza effect“. Název pochází od chatbota, kterého v 60. letech minulého století vytvořil informatik Joseph Weizenbaum a pojmenoval ho po Elize Doolittle – postavě z divadelní hry Pygmalion.

‚Kvůli umělé inteligenci přestáváme myslet.‘ Výsledky nové studie jsou znepokojující

Číst článek

Weizenbaum sám považoval program za jednoduchý experiment. To ovšem jen do doby, kdy ho jeho asistentka během testování požádala, aby odešel z místnosti. Konverzace s chatbotem jí přišla natolik osobní, že u ní nechtěla mít nikoho dalšího.

Ředitel Digital Theory Lab na Newyorské univerzitě Leif Weatherby ve svém červencovém komentáři pro New York Times píše, že jazykové modely jako ChatGPT nejsou tak populární proto, že by byly kdovíjak inteligentní, ale proto, že je prostě zábavné je testovat a zkoušet, co umějí. Uživatelé podle Weatherbyho nejsou naivní, ale užívají si nové médium, nové možnosti hry s jazykem.

‚Chatboti jsou tady narozdíl od lékařů nonstop‘

Na tom jistě něco bude, ale právě hra s jazykem, s možnostmi interpretace se může poměrně rychle proměnit v iluzi, že člověk komunikuje s někým, kdo mu skutečně rozumí. Výrazně tomu přispívá samozřejmě dostupnost a dosažitelnost AI. Zatímco odborná pomoc je časově omezená a pro mnohé finančně nedostupná, chatboti jsou tady nonstop.

Alarmující to může být především v případě dětí, kdy se konkrétně v Česku už několik let mluví o nedostatku psychologů, psycholožek, psychiatrů a psychiatriček.

3:07

Problémy v psychice dětí jsou stále víc alarmující, stát místo podpory hází klacky pod nohy

Číst článek

Odpovědi chatbota dovedou působit empaticky, ale nejsou vázány žádnou vymahatelnou odpovědností, standardy, profesním kodexem. Nemá přitom smysl technologii odmítat – užitečnější je uvědomovat si, kde jsou její limity.

Přesto je pozoruhodné, jak často se AI stává partnerem právě v otázkách osobní povahy. Chatbot dokáže bezchybně zodpovědět, kolik lidí žije na planetě, ale co řekne na otázku, proč se někdo cítí přehlížený? Nemilovaný? Ztracený v tom, co by mělo dávat smysl?

Mluvíme o tom, co se stane, pokud se AI ve vysoké míře dostane do oblastí jako vojenství nebo medicína – a zmocní se jejich dalšího směřování. Co se ale stane, pokud ji necháme ve velkém posuzovat, jak se vlastně cítíme? Představa, že by lidskou emocionalitu a vztahy měla analyzovat a tím do budoucna také definovat AI, je stejnou mírou skličující jako děsivá.

Co lidského z nás vlastně zbyde, pokud AI předložíme všechna tajemství lidství coby oběť novému mocnému božstvu?

Autorka je dramaturgyně a scenáristka

Klára Vlasáková Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Nejčtenější

Nejnovější články

Aktuální témata

Doporučujeme