Google mění etické zásady pro AI: Cesta k vojenskému využití?
Původní etické zásady Googlu, poprvé zveřejněné v roce 2018, obsahovaly jednoznačné odmítnutí vývoje zbraní a sledovacích technologií na bázi AI. Nyní však Google tyto závazky vypustil a místo nich se soustředí na tři nové hlavní principy: inovaci, spolupráci a odpovědný vývoj. Problémem je, že “odpovědný vývoj” se v oficiálních vyjádřeních Googlu vyhýbá konkrétním závazkům a nabízí pouze obecné fráze o podpoře demokracie a lidských práv.
Demis Hassabis, šéf Google DeepMind, a James Manyika, viceprezident Googlu pro technologie a společnost, změny obhajují jako nutné přizpůsobení se geopolitické realitě. Ve svém blogovém příspěvku uvedli:
“Probíhá globální závod o vedoucí postavení v oblasti umělé inteligence v čím dál složitějším geopolitickém prostředí. Věříme, že demokratické státy by měly stát v čele vývoje AI, vedeny klíčovými hodnotami, jako jsou svoboda, rovnost a respekt k lidským právům.”
Tento výrok naznačuje, že Google se chce aktivně podílet na formování AI v souladu s geopolitickými zájmy demokratických států – což znamená i možné zapojení do vojenských projektů.
Google a armádní zakázky: Už dříve překročil etické hranice
Přestože Google dříve tvrdil, že jeho AI technologie nebudou sloužit k vojenským účelům, realita je jiná. Společnost se již dříve zapojila do několika kontroverzních projektů, které vyvolaly vlnu nesouhlasu mezi zaměstnanci i veřejností.
- Project Maven (2018) – Pentagon využíval AI od Googlu k analýze záběrů z dronů. Tato spolupráce vedla k protestům uvnitř společnosti, včetně hromadných výpovědí zaměstnanců. Google nakonec oznámil, že smlouvu neobnoví.
- Project Nimbus (2021) – V rámci této dohody poskytl Google cloudové služby izraelské vládě a armádě. Dohoda vyvolala kontroverze kvůli použití AI při monitorování palestinského obyvatelstva.
Změna etických zásad Googlu tak nemusí být jen formální úpravou, ale spíše pragmatickým krokem směrem k oficiálnímu přijetí spolupráce s armádními a bezpečnostními složkami.