Umělá inteligence se stává nedílnou součástí moderního válčení. Automatizované zbraňové systémy, analýza strategických dat i masivní sledovací operace – to vše už dnes AI umožňuje. Jenže s těmito schopnostmi přicházejí i znepokojivé otázky: Kde jsou hranice? Co když technologie povede k rozhodnutím, která budou stát životy nevinných civilistů?
Vývojáři z Google DeepMind si tyto otázky kladou čím dál naléhavěji. A někteří z nich už nchtějí být součástí armádních projektů. Nikdo přece nechce být dalším Oppenheimerem – vědcem, jehož výzkum vedl ke zpustošení Hirošimy a Nagasaki.
Dvě stovky podpisů pod protestem
V květnu 2024 se pod otevřený dopis podepsalo téměř 200 zaměstnanců Google DeepMind, což je zhruba pět procent celé divize. V dopise jasně vyzývají vedení společnosti, aby ukončilo všechny kontrakty s vojenskými organizacemi. Jejich hlavní obava? Technologie, na kterých pracují, se podle nich používají k válečným účelům.
Dopis sice zdůrazňuje, že nejde o reakci na konkrétní geopolitický konflikt, ale přesto zmiňuje kontroverzní Project Nimbus – kontrakt mezi Googlem a izraelskou armádou. Podle magazínu Time izraelské obranné síly využívají AI k masovému sledování a výběru bombardovacích cílů v Gaze. Izraelské zbrojní firmy jsou navíc vládou povinny kupovat cloudové služby právě od Googlu a Amazonu.
Když se střetnou hodnoty s byzysem
Uvnitř Googlu narůstá napětí mezi AI divizí a cloudovým businessem. Zatímco první skupina vyvíjí pokročilé algoritmy s vizí lepší budoucnosti – podobně jako si můžete vyzkoušet Generátor textu nebo AI Chat na 1AI.cz – druhá tyto technologie prodává armádám po celém světě.
Na květnové konferenci Google I/O se propalestinští demonstranti u vchodu připoutali k sobě a protestovali proti vojenským projektům firmy, včetně systémů Lavender, „Where’s Daddy?“, Gospel a právě Project Nimbus.
Pikantní je, že když Google v roce 2014 kupoval DeepMind, vedení laboratoře si vyjednalo jasnou podmínku: jejich AI technologie nesmí být nikdy použita pro vojenské nebo sledovací účely. Tento slib teď visí ve vzduchu.
„Jakákoliv účast na vojenské výrobě ovlivňuje naší pozici jako lídrů v oblasti etické AI a jde proti našemu poslání,“ píše se v dopise, který koloval uvnitř společnosti.
Co zaměstnanci požadují?
Autoři dopisu žádají vedení o několik konkrétních kroků: prošetřit tvrzení o využívání cloudových služeb armádami a zbrojovkami, zablokovat vojenský přístup k technologiím DeepMind a zřídit nové kontrolní orgány, které by zabránily podobnému využití AI v budoucnu.
Google zatím na tyto požadavky nijak zásadně nereagoval. Mlčení korporace ale situaci jen zhoršuje. Čím víc se AI technologie rozvíjejí – ať už jde o pokročilé nástroje jako Generátor obrázků na 1AI.cz nebo vojenské systémy – tím naléhavější etické otázky před námi stojí.
Zaměstnanci DeepMind teď čekají, jestli jejich hlas bude slyšet. A s nimi celá technologická komunita, která si stále častěji klade otázku: Kam až může AI zajít, a kdy je třeba říct dost?
