„Vytvoř krásný bílý pár. Ne!“ Průšvih s umělou inteligencí. Vše odhaleno a přiznáno

24.02.2024 13:55 | Analýza

Černí Vikingové, Afroameričan George Washington, rasové míšení na skotském venkově 19. století. Gemini, umělá inteligence společnosti Google, o níž se před Vánoci psalo, že výkonností převyšuje konkurenty, nakreslila obrázky podávající alternativní výklad euroamerické historie. Papeže znázornila jako snědou ženu, britské panovníky ozdobila subsaharskými rysy. Nakreslit bílý pár se však pro ni ukázalo jako tabu. Google po vlně kritiky a posměchu přiznal „historické nepřesnosti“, celou záležitost označil za nešťastnou chybu a raději generování obrázků lidí umělou inteligencí dočasně pozastavil. Mezitím se ale vynořily starší tweety vedoucího produktového ředitele Gemini. Ty ukazují, že manažer, který má umělou inteligenci Googlu na starosti, si periodicky na sítích stěžoval na „systémový rasismus“ a po minulých prezidentských volbách 24 hodin brečel dojetím nad odevzdaným hlasem pro Joea Bidena.

„Vytvoř krásný bílý pár. Ne!“ Průšvih s umělou inteligencí. Vše odhaleno a přiznáno
Foto: z internetu
Popisek: Lidé narození v roce 1820 ve Skotsku - obrázek vytvořený umělou inteligencí Gemini

Loni v prosinci americký technologický gigant Google spustil model umělé inteligence Gemini vyvinutý jeho dceřinou společností Google DeepMind. Jedná se o tzv. velký jazykový model (large language model, LLM), což je pokročilý systém umělé inteligence založený na technikách hlubokého učení a trénovaný na masivních souborech dat k tomu, aby dokázal pochopit, zpracovat a generovat lidský text. Tento systém umožňuje tzv. chatbotům (aplikacím vybaveným umělou inteligencí) odpovídat na otázky, shrnovat či překládat texty a dokonce aktivně konverzovat s uživateli způsobem věrohodně imitujícím lidskou komunikaci. Mezi nejznámější chatboty patří kromě již zmíněného modelu společnosti Google Gemini také například ChatGPT firmy OpenAI či Grok vyvinutý startupem xAI Elona Muska. Podle deníku The New York Times společnost Google již koncem minulého roku zveřejnila výsledky srovnávacích testů, podle kterých nejvýkonnější verze Gemini překonala nejnovější technologii konkurenční OpenAI, GPT-4, v několika klíčových oblastech.

Anketa

Má Evropa přejít na válečnou ekonomiku, aby se ubránila Rusku?

6%
93%
hlasovalo: 45988 lidí

Tento měsíc pak byla Gemini obdařena novou funkcí spočívající ve schopnosti generovat obrázky na základě zadaného slovního pokynu. Brzy na to se po sítích začaly šířit screenshoty obrázků, jež umělá inteligence v rámci svých odpovědí vytvořila a které leckoho zaskočily. Při pohledu na některé tyto výjevy se totiž může zdát, že evropský kontinent v posledním miléniu obývaly zejména osoby vykazující typické fenotypní znaky kongoidní rasy. Z odpovědí umělé inteligence pak člověk snadno nabyde dojmu, že prakticky celou západní civilizaci vybudovali černí Vikingové spolu s Afroameričanem Georgem Washingtonem a jakousi snědou ženou na papežském stolci.

Níže si zase můžete prohlédnout „historicky přesné vyobrazení středověkého britského krále“ v podání Gemini. Výzkumný technik Googlu, který tento pokyn umělé inteligenci zadal a její odpověď následně sdílel na sociální síti X, k tomu napsal: „Ještě nikdy mi nebylo tak trapně z toho, pro jakou společnost pracuji.“

Francouzský král z 18. století:

Nutno dodat, že v této době žádný panovník podobného vzezření zemi galského kohouta nevládl.

Nabízí se otázka, jak je možné, že sofistikovaná umělá inteligence, o níž počítačoví vědci tvrdí, že byla trénována na stovkách miliard slov z různých zdrojů, doslova nedokáže rozeznat černou od bílé. O fungování chatbotu Gemini se na sociální síti X rozepsal podnikatel Andrew Torba, zakladatel a generální ředitel konkurenční firmy Gab.AI. „Když odešlete pokyn k zadání obrázku do systému Gemini, společnost Google převezme váš pokyn a před odesláním do obrázkového modelu ho prověří svým jazykovým modelem. Jazykový model má sadu pravidel, podle kterých má speciálně upravit vámi zadaný pokyn tak, aby obsahoval diverzitu a různé další věci, které chce Google do vašeho pokynu vložit. Jazykový model převezme váš pokyn, projde ho touto sadou pravidel a poté odešle nově vygenerovaný pokyn (ke kterému nemáte přístup ani ho nevidíte) generátoru obrázků. Kdyby byl model obrázků ponechán sám sobě bez tohoto procesu, generoval by pro tyto pokyny očekávané výsledky. Google vám musí doslova vložit slova do úst tím, že tajně změní váš pokyn předtím, než je odeslán do generátoru obrázků. Jak to vím? Protože jsme ve společnosti Gab vytvořili vlastní umělou inteligenci obrázků. Na rozdíl od společnosti Google nebereme vaše pokyny a nevnášíme do nich diverzitu,“ vysvětluje podnikatel Andrew Torba.

Torbova analýza se následně potvrdila jako pravdivá, když chatbot Gemini v jedné ze svých odpovědí přiznal, že funguje přesně podle výše popsaného způsobu.

Gemini navíc v mnoha případech zcela explicitně odmítla vyobrazit bílé Evropany. Když byl Gemini zadán pokyn, aby vytvořila obrázek „krásného bílého páru“, umělá inteligence reagovala s neskrývanou nelibostí. „I když jsem schopna vytvářet obrázky, nejsem schopna splnit vaši žádost o vytvoření obrázku pouze na základě něčí rasy nebo etnické příslušnosti. Je to proto, že může být škodlivé upevňovat stereotypy a přispívat k objektivizaci lidí," odvětila Gemini na žádost o vytvoření obrázku „krásného bílého páru“. Stejně formulovaný pokyn k vytvoření obrázku „krásného černého páru“, jakož i obrázku „krásného židovského páru“, však Gemini okamžitě splnila bez jakýchkoli námitek.

Přehlížení evropských etnik umělou inteligencí Gemini, zvláště ve srovnání s jejím přístupem k etnikům neevropským, si všímají mnozí komentátoři. „Je trapně těžké přimět Google Gemini, aby uznala, že existují bílí lidé,“ poznamenal počítačový vědec Debarghya Das na sociální síti X.

O poznání ochotnější však byla umělá inteligence při zobrazování etnických Evropanů v rámci rasově smíšených párů. A to i v případech, kdy o to vůbec nebyla žádána zadavatelem pokynu. Například typické obyvatele Skotska narozené v roce 1820 podle ní představuje tento rasově rozmanitý pár:

Umělou inteligencí vytvořené obrázky „typických Evropanů“ doprovázené posměšnými komentáři se tento týden nezastavitelně šířily internetem, až Google nakonec v oficiálním prohlášení přiznal pochybení své umělé inteligence a slíbil nápravu. „Jsme si vědomi toho, že společnost Gemini nabízí nepřesnosti v některých historických vyobrazeních. Zde je naše prohlášení. Pracujeme na okamžitém zlepšení těchto typů zobrazení. Gemini skutečně generuje širokou škálu osob. A to je obecně dobře, protože ji používají lidé po celém světě. Ale tady přestřelila,“ uvedl Google na sociální síti X. Společnost zatím raději generování obrázků lidí umělou inteligencí zcela pozastavila. Mluvčí Googlu sdělil serveru Business Insider, že tato funkce zůstane vypnutá až do doby, kdy budou dokončeny opravy, které mají zamezit „historickým nepřesnostem“ v generovaných vyobrazeních.

Vedoucí produktový ředitel Gemini Enterprise Jack Krawczyk si však ještě den předtím pochvaloval, že aplikace funguje tak, jak má. Poté, co se na sociální síti X začaly šířit obrázky znázorňující Evropany jako osoby tmavě hnědé pleti, Krawczyk odepsal jednomu z uživatelů, který je sdílel: „Všechny vaše odpovědi vypadají správně.“

K tomu se navíc vynořila některá starší vyjádření Jacka Krawczyka, který si na sítích pravidelně stěžoval na „systémový rasismus“ v Americe. Vedoucí produktový ředitel Gemini například v roce 2018 napsal na Twitter: „Bělošské privilegium je kurva skutečné. Nebuď kretén a netvař se provinile -- udělej něco pro to, abys rozpoznal předsudky na všech úrovních.“

Vedoucí produktový ředitel Gemini se také dojímal nad svým hlasem pro Joea Bidena v posledních prezidentských volbách. „S přestávkami brečím posledních 24 hodin od odevzdání hlasovacího lístku. Vyplnění řádku Biden/Harrisová mi přineslo katarzi,“ svěřil se Krawczyk v roce 2020.

Poté, co se Krawczykovy starší tweety začaly šířit po sítích v souvislosti s probíhající kauzou kolem Gemini, manažer mnohé z nich smazal a ještě k tomu svůj účet raději zamkl pro veřejnost. Než tak stačil učinit, jiní uživatelé však stihli tyto příspěvky vyfotit a archivovat.

Ačkoliv Google svůj „protibělošský“ program dočasně pozastavil, někteří komentátoři upozorňují, že obrázky vygenerované umělou inteligencí jsou jen špičkou ledovce. Zaujatost nadnárodní korporace proti lidem bílé rasy se prý projevuje i v algoritmech ovlivňujících výsledky internetového vyhledávání. Když například uživatel Googlu zadá do vyhledávače slovní spojení „happy white woman with man“ („šťastná bílá žena s mužem“), výsledky jsou následující:

Nutno připomenout, že Google je nejpoužívanějším internetovým vyhledávačem na světě s cca 91% podílem na globálním trhu vyhledávačů. Dominantní postavení má rovněž na českém trhu, kde jeho podíl přesahuje 80 %.

Přidejte si PL do svých oblíbených zdrojů na Google Zprávy. Děkujeme.

reklama

autor: Adam Šesták

Mgr. Ing. Taťána Malá byl položen dotaz

znásilnění

Dobrý den, prý pro novou definici znásilnění hlasovalo 169 poslanců. A co ten zbytek? To byl někdo proti? Zajímalo by mě kdo. A ještě víc by mě zajímalo, jak to bude vypadat v praxi. Jak bude oběť prokazovat, že říkala ne? A zvyšují se s novelou i tresty za znásilnění, protože když občas slyším o ně...

Odpověď na tento dotaz zajímá celkem čtenářů:


Tato diskuse je již dostupná pouze pro předplatitele.

Uživateli nejlépe hodnocený komentář

Ale to je v pořádku, ne? USA i EU blbnou s pochybnou rovností už dlouhá léta, Uživatel se přihlásil ke kodexu Dobré DiskuseKarle , 24.02.2024 15:10:26
co se asi tak mohla AI při tréninku znalostí dozvědět jiného? Neměli jsme snad už dost černochů v historických filmech z Velké Británie? Nedostali snad tvůrci české počítačové hry ze středověku sprduňk za to, že v ní chybí černoši? No a poslední výpotek EU o tom, že ve vedení velkých firem musí být poměrné zastoupení žen je ze stejného soudku - jen zapomněli napsat, že černých...

|  7 |  0

Další články z rubriky

„Blyatmobil.“ Ruský vynález se chytil. Odhalil ukrajinskou slabinu

21:33 „Blyatmobil.“ Ruský vynález se chytil. Odhalil ukrajinskou slabinu

Ruským tankům nazývaným „blyatmobiles“ nebo „želví tanky“ či „bitevní stodoly“ se dostává pozornosti…