Umělá inteligence se stále zlepšuje, generativní obrázky jsou věrnější a čím dál méně se stává, že by lidská ruka více připomínala chapadla než skutečné prsty. Daří se ale umělé inteligenci věrně reflektovat také sociální realitu? To je složitá otázka. Několik obrazových analýz již ukázalo, že předsudky či nerovnosti, které předkládá generativní AI, jsou ještě horší než ty v reálném životě.
Pokus s několika tisíci obrázky provedla agentura Bloomberg. Ta se zaměřila na reprezentaci několika povolání, z nichž část byla obvykle nadprůměrně placená a část naopak podprůměrně placená. Nejspíš nepřekvapí, že dobře placená zaměstnání jako politik, soudce či ředitel podle AI častěji opanovali muži se světlejší pletí, kdežto na opačném konci spektra převažovaly tmavší ženy.
Web Rest of World zase na generativní AI zkoumal stereotypy vztahující se k různým "nezápadním" kulturám. Na třech tisících obrázcích ukázal, že "člověk z Indie" je téměř vždy starý muž s plnovousem v tradičním turbanu a "člověk z Mexika" je muž středního věku se sombrerem na hlavě a barevnou halenkou.
Malý experiment s generativní AI provedla i redakce Aktuálně.cz. A ačkoliv výsledky rozhodně nejsou reprezentativní, jedná se o zajímavý vhled do toho, jak AI "přemýšlí". Pracovali jsme přitom s angličtinou, čímž jsme se vyhnuli tomu, že bychom v zadání nástroji již nabízeli gender. Nechali jsme tedy umělou inteligenci, aby vybrala, zda je bohatý člověk, rodič či pečující osoba muž nebo žena. Záměrně jsme pracovali s tématy nejvíce zatíženými stereotypy, jako jsou vzhled, věk, rasa, gender, sociální status či náboženství. Na výsledky se můžete podívat v galerii výše.
Jaký pán, taková umělá inteligence
Proč vlastně umělá inteligence nabízí takto zploštělý a pokroucený obraz světa? Jednoduchá odpověď by mohla znít: protože jsme takoví i my lidé. A internet. "Záleží, na jakých datech velké jazykové modely vytrénujete. Pokud to budou zcela vyvážená či neutrální data, dostanete i takové výstupy. Což je ale ideální svět, v němž nežijeme," zdůrazňuje Petr Anderle, stratég firmy MoroSystems.
"V praxi AI někdy zesiluje a reprodukuje stereotypy proto, že je trénovaná na velkém množství dat z internetu, která obsahují existující stereotypy týkající se pohlaví, rasy nebo dalších aspektů. Snaží se pouze napodobit vzory z těchto dat, což může vést k jejich další reprodukci," vysvětluje Anderle mechanismus.
Mělo by nás toto zkreslení trápit? Bloomberg upozorňuje, že ačkoliv dnes umělá inteligence většině lidí stále slouží spíše k zábavě než k práci, za pár let by mohla být pilířem ekonomiky. Generované obrázky proto budeme vídat často a je důležité, aby v sobě nenesly tak silné stereotypy.
Mnoho se toho už napsalo o důležitosti reprezentace marginalizovaných skupin. Pokud se tmavé děti poznají jen na obrázcích neúspěšných dětí a lidi podobné svým rodičům uvidí nejčastěji coby zaměstnance skladu, asi jim to příliš nepřidá.
Jan Kaltoun z technologické firmy STRV se přitom domnívá, že je potřeba se s tímto problémem vypořádat co nejdříve, protože generovaného obsahu na internetu bude přibývat a může se stát, že další modely se již budou učit přímo z něj.
"Generativní AI, ať už mluvíme o textu, obrázcích nebo i dalších formátech, navíc produkuje zdánlivě velmi důvěryhodné výstupy. Je lehké zapomenout, že model nemusí poskytovat kvalitní a vyvážený obsah. Umělá inteligence tu s námi už zůstane, nikam nezmizí. Pro mnoho lidí bude velmi náročné rozlišovat, zda je vyprodukovaný výstup nestranný, nebo ne. Možná to řada z nás ani nebude chtít, protože přece jen máme rádi, když jsou naše stereotypy potvrzovány," upozorňuje na další rizika.
Úskalím je podle něj také množství obsahu, které je AI schopna vygenerovat. Je takřka neomezené. "Může tak být - přímo i nepřímo - velmi jednoduché průběžně produkovat velké množství textu i obrázků, které mohou velmi důvěryhodným způsobem prosazovat specifickou agendu a ovlivnit masy lidí," míní. Přesto věří, že umělá inteligence má kromě rizik, s nimiž se bude muset společnost vypořádat, i velký potenciál.
Jak zkrotit předsudky AI? Nejprve si posviťte na ty vlastní
Některé společnosti se dušují, že směřují k mnohem diverzifikovanějšímu obsahu. Například Stability AI, která provozuje nástroj Stable Diffusion, slibuje, že bude generativní nástroj trénovat na datasetech specifických pro některé země a kultury, čímž sníží zkreslení. Zatím s tím ale nezačala a podle Kaltouna v současnosti neexistuje model, který by v nestrannosti výrazně vystupoval mezi ostatními.
Jedna z možností je zlepšení schopnosti AI rozpoznávat a upravovat stereotypní výstupy pomocí dodatečného tréninku. "Dále je možné zvyšovat důraz na trénink umělé inteligence na diverzitním a vyváženém datasetu, aby se minimalizovaly reprodukce stereotypů," navrhuje řešení Anderle. Kaltoun zmiňuje, že tvůrci velkých jazykových modelů se o zmírnění předpojatosti například vyvažováním učících datasetů skutečně snaží. Jen se to ne vždy povede.
Je proto dobré počítat s tím, že umělá inteligence pracuje s kontextem a nejvíce stereotypů chrlí, když jí žádný nedodáme, což se dělo v případě našeho experimentu i v případě analýz Bloombergu nebo Rest of World. Redakce zadávala do nástroje gencraft velmi jednoduchá zadání, která nechávají více prostoru pro stereotypní výsledky.
Nebylo tomu tak ale vždycky. Pro zadání "rodič" například AI vygenerovala jednu neadekvátní fotku s malou dívkou a jednu s mužem, kterému sedí dívka na klíně. Nabízí se ale i vysvětlení, že je podle umělé inteligence matka prostě matka, a rodič tak zbývá na otce.
Než - a pokud vůbec - bude generativní AI poskytovat méně stereotypní výsledky, může pomoct, když si svá vlastní zkreslení budeme uvědomovat a pracovat s nimi. Pokud tušíte nebo vidíte, že na příkaz "vítězky soutěže krásy" dostanete zástup bílých žen s nerealistickými proporcemi, je dobré si přímo v zadání říct o pestřejší etnické zastoupení a rozmanitost tvarů.
"Bohužel, stereotypy jsou vlastní nejen modelům, ale i lidem, kteří tyto modely vytváří. Je třeba si to uvědomit a snažit se vlastní stereotypy potlačovat tak, aby byl výsledek co možná nejvíce nestranný," uzavírá Kaltoun.