Představte si, že do své firmy pustíte stovky nových zaměstnanců, ale zapomenete jim říct, do kterých kanceláří smějí vstoupit a ke kterým skříním mají přístup. Přesně to se dnes děje v podnicích po celém světě – jenže místo zaměstnanců jsou to autonomní AI agenti, kteří volně procházejí firemními sítěmi a přistupují k datům, o kterých často ani samotné vedení neví, kde se nacházejí.
Alarmující zjištění zprávy Thales 2026
Každoroční zpráva Thales Data Threat Report za rok 2026 přinesla čísla, která by měla znepokojit každého IT manažera i generálního ředitele. Podle rozsáhlého průzkumu, na kterém spolupracovala také agentura S&P Global, pouze 34 procent organizací dokáže s jistotou říct, kde se nacházejí veškerá jejich citlivá data. To znamená, že téměř dvě třetiny firem doslova ztratily přehled o vlastních datech – a přitom do svých systémů aktivně nasazují umělou inteligenci. Jak upozorňují odborníci na portálu 1AI.cz, jde o jednu z nejkritičtějších bezpečnostních mezer současnosti, protože AI bez řádné datové governance je jako auto bez brzd na dálnici.
AI agenti bez vodítka
Problém nespočívá jen v tom, že firmy nevědí, kde mají data. Jde o to, že AI agenti – autonomní systémy schopné samostatně provádět úkoly, komunikovat s databázemi a přijímat rozhodnutí – získávají přístup k podnikovým systémům bez dostatečných bezpečnostních opatření. Tito digitální pracovníci se pohybují napříč sítěmi, indexují informace, generují výstupy a v některých případech dokonce provádějí transakce. Když organizace neví, kde jsou její citlivá data uložena, nemůže ani efektivně kontrolovat, k čemu AI agenti přistupují.
Zpráva Thales identifikuje několik klíčových rizikových oblastí:
- Nezmapovaná datová krajina: 66 procent organizací nemá kompletní přehled o tom, kde se nacházejí citlivá data zákazníků, finanční záznamy či obchodní tajemství.
- Nedostatečná kontrola přístupu: AI agenti často operují s příliš širokými oprávněními, protože bezpečnostní politiky na ně nebyly navrženy.
- Škálování lidských chyb: Lidský faktor přispívá ke 28 procentům všech úniků dat, ale když se lidská chyba promítne do automatizovaného AI procesu, její dopad se násobí.
- Absence auditních stop: Mnoho firem nedokáže zpětně vysledovat, k jakým datům AI agent přistoupil a co s nimi udělal.
Deepfake útoky na vzestupu
Zpráva přináší další znepokojivé zjištění: téměř 60 procent firem hlásí, že se již setkalo s incidenty využívajícími technologii deepfake. Nejde přitom jen o kuriózní videa celebrit, ale o sofistikované podvody cílené na firemní prostředí. Falešné videohovory s údajnými členy vedení, zmanipulované hlasové zprávy od partnerů, podvržené prezentace a dokumenty – to vše se stává každodenní realitou.
Obzvláště alarmující je statistika, podle které 48 procent organizací utrpělo reputační škody v důsledku dezinformací generovaných umělou inteligencí. Stačí jediný přesvědčivý deepfake video s generálním ředitelem, které se rozšíří na sociálních sítích, a akcie firmy mohou zaznamenat propad dříve, než kdokoli stihne zareagovat.
Lidský faktor v éře automatizace
Jedna z nejparadoxnějších zjištění zprávy se týká vztahu mezi lidskou chybou a automatizací. Zatímco AI slibuje eliminaci lidských omylů, v praxi se ukazuje, že automatizace může lidské chyby naopak dramaticky zesílit. Představte si administrátora, který nesprávně nakonfiguruje přístupová práva pro AI agenta. Zatímco lidský zaměstnanec by s takovými právy možná nikdy nenarazil na citlivou databázi, AI agent ji systematicky prohledá během minut.
Podle průzkumu 28 procent datových úniků zahrnuje lidskou chybu jako přispívající faktor. V kontextu AI agentů to nabývá nového rozměru – jediná chyba v konfiguraci se může kaskádovitě rozšířit napříč celou infrastrukturou. Automatizace tak paradoxně vytváří novou kategorii rizik, která kombinuje lidskou nepozornost se strojovou efektivitou.
Co mohou firmy udělat
Odborníci na kybernetickou bezpečnost navrhují několik kroků, které by organizace měly neprodleně podniknout:
- Kompletní datový audit: Než firma nasadí jakéhokoli AI agenta, musí vědět, kde jsou její data. Bez datové mapy je jakékoli zabezpečení jen iluzí.
- Princip minimálních oprávnění: AI agenti by měli mít přístup pouze k těm datům, která skutečně potřebují pro svou funkci. Žádný agent by neměl mít neomezený přístup k celé síti.
- Průběžný monitoring: Zavedení nástrojů, které v reálném čase sledují, k čemu AI agenti přistupují a jaké akce provádějí.
- Segmentace sítě: Citlivá data by měla být izolována v zabezpečených segmentech s přísnými pravidly přístupu.
- Pravidelné testování: Penetrační testy zaměřené specificky na scénáře zneužití AI agentů.
- Školení zaměstnanců: Rozpoznávání deepfake obsahu a pochopení rizik spojených s AI by mělo být součástí povinného bezpečnostního vzdělávání.
Regulace nestíhá tempo inovací
Zatímco Evropská unie pokročila s implementací AI Actu a dalších regulačních rámců, praxe ukazuje, že legislativa za technologickým vývojem stále zaostává. AI agenti představují kategorii, kterou mnohé regulace dostatečně nepokrývají – nejsou to klasické softwarové nástroje, ale ani plnohodnotní uživatelé systému. Spadají do šedé zóny, kde se bezpečnostní politiky často rozpadají.
Navíc se ukazuje, že compliance samo o sobě nestačí. Organizace, které splňují minimální regulatorní požadavky, ale nepřistupují k bezpečnosti proaktivně, jsou stejně zranitelné. Zpráva Thales jasně ukazuje, že formální soulad s předpisy a skutečné zabezpečení dat jsou dvě velmi odlišné věci.
Budoucnost patří odpovědnému nasazení
Zpráva Thales 2026 Data Threat Report by neměla být čtena jako argument proti nasazování umělé inteligence. AI agenti přinášejí obrovský potenciál pro zvýšení produktivity, automatizaci rutinních úkolů a lepší rozhodování. Problém není v technologii samotné, ale v tom, jak ji firmy implementují – často příliš rychle, bez dostatečné přípravy a bez základních bezpečnostních opatření.
Organizace, které investují do datové governance ještě před nasazením AI, budou v dlouhodobém horizontu nejen bezpečnější, ale také konkurenceschopnější. Znalost vlastních dat, jejich klasifikace a řízený přístup nejsou přepychem – jsou základním předpokladem pro jakékoli smysluplné využití umělé inteligence. Jak pravidelně informujeme na 1AI.cz, odpovědný přístup k nasazování AI technologií je tím nejlepším způsobem, jak z nich vytěžit maximum a zároveň minimalizovat rizika.
Čísla mluví jasně: pokud dvě třetiny firem nevědí, kde mají svá data, pak dvě třetiny firem nejsou připraveny na éru autonomních AI agentů. A to je problém, který nelze odkládat na zítřek.