Výzkumníci z Googlu vydali alarmující studii, která ukazuje, jak generativní umělá inteligence systematicky zaplavuje internet falešným obsahem. Ironií celé situace je, že právě Google patří mezi největší propagátory této technologie prostřednictvím nástrojů jako Gemini a dalších AI funkcí integrovaných napříč svými aplikacemi.
Studie, kterou zatím nikdo nezávisle nerecenzoval a na kterou upozornil magazín 404 Media, odhalila znepokojivý trend. Drtivá většina uživatelů generativní AI využívá tuto technologii k „rozmazání hranic mezi pravdou a podvodem“. Výzkumníci analyzovali přes 200 případů zneužití AI a zjistili, že nejčastěji lidé vytvářejí falešné fotografie, videa nebo text, které pak publikují jako autentický obsah.
„Manipulace s lidskou podobou a falšování důkazů jsou základními kameny většiny případů zneužití,“ konstatují autoři studie. „Převážná část těchto aktivit směřuje k ovlivnění veřejného mínění, umožnění podvodů nebo generování zisku.“
Jak se problém prohlubuje
Situaci zhoršuje fakt, že generativní AI nástroje jsou stále dostupnější a jednodušší na používání. Nevyžadují prakticky žádné technické znalosti, což znamená, že kdokoliv může během několika minut vytvořit přesvědčivý falešný obsah. Například nástroje jako Generátor obrázků na 1AI.cz sice slouží primárně k legitimním kreativním účelům, ale podobné technologie mohou zneužít i lidé se špatnými úmysly.
Výzkum však opomíjí jednu podstatnou věc – vlastní pochybení Googlu při implementaci AI technologií. Jako jedna z největších korporací světa Google několikrát předvedl, jak může masové nasazení nedokonalé AI vést k problémům velkého rozsahu.
Když se na problém podíváte blíže, zjistíte něco paradoxního: to, co autoři nazývají „zneužitím“ AI, často vypadá jako normální použití podle toho, k čemu byla navržena. Lidé prostě používají AI k vytváření obrovského množství obsahu, a internet se tím zahlcuje. A kde se AI trénuje? Přesně tam – na internetu.
Začarovaný kruh nekvalitních dat
Generativní modely jako GPT-4 nebo DALL-E fungují na principu analýzy obřích datových sad. Trénují se na miliardách textů, obrázků a dalších informací z internetu, díky čemuž dokážou vytvářet nové, realisticky vypadající výstupy. Celý proces stojí na „učení z příkladů“. Kvalita vstupních dat přímo ovlivňuje kvalitu výstupů.
Představte si tenhle scénář: Lidé pomocí AI publikují nekvalitní nebo lživý obsah. Tento obsah se dostane na internet. AI se na něm trénují. A díky tomu pak generují ještě horší výstupy. Vzniká začarovaný kruh, který internet postupně degraduje.
Když nevíte, čemu věřit
Google paradoxně umožnil šíření falešného obsahu, nebo se dokonce stal jeho přímým zdrojem – ať už jde o falešné obrázky ve výsledcích vyhledávání, nebo nepravdivé informace z AI asistentů. To vede k dalšímu problému: lidé postupně ztrácejí schopnost rozlišit pravdu od lži.
Když začnete všude vidět AI, často přestanete důvěřovat i skutečně pravdivým informacím. „Masová produkce nekvalitního, spamového a nebezpečného syntetického obsahu zvyšuje skepticismus lidí vůči všem digitálním informacím a přetěžuje je nekonečným ověřováním,“ varují výzkumníci.
Reálné dopady na společnost
Důsledky generativní AI sahají daleko za technologickou sféru. Ano, AI otevírá nové možnosti kreativity a inovací. Zároveň ale vytváří nebezpečné hrozby. Falešné zprávy a dezinformace mohou destabilizovat politickou situaci, způsobit ekonomické ztráty a podkopat důvěru ve veřejné instituce.
Před prezidentskými volbami v USA mezi Trumpem a Bidenem internet doslova explodoval dezinformacemi, které zásadně ovlivnily vnímání kandidátů. Studie MIT Sloan ukázala, že falešné zprávy na Twitteru se šíří o 70 % rychleji než pravdivé a dosáhnou většího publika. Algoritmy sociálních sítí tento efekt ještě zesilují, protože falešné zprávy bývají emotivnější a radikálnější – a tedy „zajímavější“ pro algoritmy.
Během voleb v letech 2012 a 2016 mohly dezinformace změnit názor až 15 % voličů. To není zanedbatelné číslo, zvlášť ve vyrovnaných soubojích.
Kdo ponese odpovědnost?
Technologické giganty jako Google nesou obrovskou odpovědnost za regulaci a řízení AI technologií. Jenže, jak víme, ne vždy využívají svou moc zodpovědně.
Tyto společnosti by měly investovat do výzkumu zaměřeného na detekci a prevenci zneužití AI. Měly by spolupracovat s vládami a mezinárodními organizacemi na vytvoření globálních standardů. Problém je najít rovnováhu – přílišná regulace může vývojáře odradit a poskytnout konkurenční výhodu těm, kdo se pravidly neřídí. Je třeba najít zlatý střed.
Pro běžné uživatele je důležité používat AI nástroje zodpovědně. Platformy jako 1AI.cz nabízejí funkce pro generování obsahu, ale vždy je na vás, jak je využijete a zda výstupy před publikováním ověříte a upravíte.
Co si z toho odnést
Generativní AI mění internet způsobem, který jsme před pár lety nedokázali předvídat. Zahlcuje ho falešným obsahem, snižuje důvěru v digitální informace a komplikuje naše chápání reality. Google, jeden z hlavních hráčů na poli AI, se tak ironicky podílí na problému, který jeho vlastní výzkumníci kritizují.
Masová produkce falešného obsahu umožňuje manipulaci veřejného mínění a vyhýbání se odpovědnosti. Technologie pokročily do bodu, kdy prakticky kdokoliv může vytvořit přesvědčivý falešný obsah bez jakýchkoliv technických znalostí.
Budoucnost závisí na tom, jestli dokážeme najít rovnováhu mezi podporou inovací a rozumnou regulací. Dokud se to nepovede, internet bude dál bobtnat nekvalitním obsahem a naše schopnost rozpoznat pravdu bude slábnout.
