Méně otravný, více vstřícný. Chatbotům chtějí firmy vtisknout osobnost

Přední společnosti zabývající se umělou inteligencí se snaží svým chatbotům dodat osobnost. OpenAI, Google a Anthropic za tímto účelem vytvořily celé týmy zaměřené na zlepšování „chování modelů“, uvedl server listu Financial Times.

San Francisco Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Kybernetická bezpečnost (ilustrační foto)

Firmy zaměřené na umělou inteligenci se chatbotům snaží dodat osobnost (ilustrační foto) | Zdroj: Unsplash | Licence Unsplash,©

Nově vznikající oblast může být podle listu Financial Times určující pro to, jak budou chatboti a velké jazykové modely působit na uživatele. Rozdílné přístupy k chování modelů mohou rozhodnout o tom, který produkt si uživatelé nakonec vyberou a která společnost ovládne rozvíjející se trh.

Meta bude spolupracovat s hollywoodským studiem. Otestuje systém pro tvorbu videí pomocí AI

Číst článek

Firmy se například snaží, aby jejich model byl milý a zábavný, ale zároveň se držel v mantinelech pravidel, aby se předešlo škodám nebo protizákonnému jednání.

Například osobnost nejpopulárnějšího chatbota ChatGPT společnosti OpenAI se neustále vyvíjí. „K tématu chování modelů jsem se na začátku dostala díky tomu, že osobnost ChatGPT působila hodně otravně,“ uvedla Joanne Jangová, která v OpenAI vede oddělení zaměřené na trénink osobnosti modelů.

„Dříve odmítal příkazy, byl extrémně nedůtklivý, přepjatý nebo poučující, proto jsme se snažili odstranit otravné části a naučit ho některé veselé aspekty, jako že by měl být milý, zdvořilý, vstřícný a přátelský, ale pak jsme si uvědomili, že jakmile jsme se ho pokusili takto vycvičit, model byl možná až příliš přátelský,“ dodala.

Japonské firmy nasazují umělou inteligenci do zákaznických služeb. Nutí je k tomu nedostatek lidí

Číst článek

„Dobrý model vyvažuje respekt k lidské autonomii se schopností rozhodovat se, nedělá nic strašně škodlivého, ale zároveň přemýšlí o tom, co je pro lidi skutečně dobré, a nepřebírá jen bezprostřední slova popisující to, co lidé říkají, že chtějí,“ řekla pro Financial Times Amanda Askellová, která vede trénink osobnosti ve společnosti Anthropic vyvíjející modely Claude.

Anthropic rozjel trénink osobnosti v březnu, kdy vydal model Claude 3. Proces probíhá po počátečním datovém tréninku jazykového modelu. Podle společnosti ho „mění z prediktivního textového modelu v asistenta AI“.

ChatGPT od OpenAI byl instruován, aby „zaujal objektivní stanovisko“. Naopak Anthropic považuje snahu o objektivitu za slepou uličku.

„Chtěla bych raději jasně říct, že tyto modely nejsou neutrálními arbitry,“ zdůraznila Askellová. Podle ní byl Claude navržen tak, aby byl upřímný ohledně svých přesvědčení a zároveň otevřený jiným názorům.

ČTK Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Nejčtenější

Nejnovější články

Aktuální témata

Doporučujeme