Podle zprávy technologických výzkumníků Amnesty nesou dopady umělé inteligence hlavně marginalizované skupiny. Účinná regulace ale stále chybí.
Rok 2023 se nesl ve znamení nadšení kolem umělé inteligence, zároveň ale vedl zákonodárce i veřejnost k diskusím o bezpečnosti i regulaci této technologie. Horečný rok v oblasti technologií začal spuštěním ChatGPT na konci roku 2022 a skončil dosažením přelomové dohody o zákonu EU o umělé inteligenci. Ačkoli se její konečné znění bude ještě dolaďovat, první signály naznačují, že tento
první „soubor pravidel pro umělou inteligenci“ v západním světě do jisté míry chrání lidi před škodami způsobenými umělou inteligencí, ale v řadě zásadních oblastí je stále nedostatečný a nezajišťuje ochranu lidských práv zejména pro ty nejvíce marginalizované. Klíčovou otázkou pro rok 2024 proto je, zdali všechny diskuse o regulaci umělé inteligence povedou ke konkrétním závazkům, přinesou řešení současných rizik a najdou ukotvení v zákonech.
Ačkoli vývoj v oblasti UI představuje nové příležitosti, nesmí být přehlíženy zdokumentovaná nebezpečí – např. pokud je AI využívána jako prostředek společenské kontroly, masového dohledu a diskriminace. Systémy AI jsou navíc až příliš často trénovány na obrovském množství soukromých i veřejných dat. Ta však odrážejí společenskou nespravedlnost, což často vede k neobjektivním výsledkům umělé inteligence a prohlubování nerovností.
Od prediktivních policejních nástrojů přes automatizované systémy používané při rozhodování ve veřejném sektoru, které určují, kdo může mít přístup ke
zdravotní péči a sociální pomoci, až po
monitorování pohybu migrantů a uprchlíků,
umělá inteligence hrubě porušuje lidská práva těch nejvíce marginalizovaných ve společnosti. Jiné formy umělé inteligence, jako jsou algoritmy pro odhalování podvodů, mají rovněž nepřiměřeně
větší dopad na etnické menšiny, které se potýkají s ničivými finančními problémy, jak již zdokumentovala Amnesty International, zatímco technologie rozpoznávání obličejů byla policií a bezpečnostními složkami využívána k cílení na rasově odlišné komunity a k
upevňování izraelského systému apartheidu.
Co však činí regulaci umělé inteligence složitou a náročnou? Prvním problémem je vágní povaha samotného pojmu „umělá inteligence“, která činí snahy o regulaci této technologie těžkopádnými. Neexistuje všeobecná shoda na definici, protože tento termín neodkazuje na jednu konkrétní technologii a spíše zahrnuje nesčetné množství technologických aplikací a metod. Používání systémů umělé inteligence v mnoha různých oblastech napříč veřejným i soukromým sektorem navíc znamená, že se na jejich vývoji a zavádění podílí velké množství různorodých zúčastněných stran, což znamená, že tyto systémy jsou komplexním produktem práce, dat, softwaru a finančních vstupů a jakákoli regulace se musí potýkat s předcházejícími a následnými škodami.
Souběžně s legislativním procesem EU stanovily Spojené království, Spojené státy o další země své odlišné plány a přístupy k identifikaci klíčových rizik, která technologie umělé inteligence představují, a k tomu, jak je hodlají zmírnit. Ačkoli je v těchto legislativních procesech mnoho překážek, neměly by omezovat jakékoliv úsilí o ochranu lidí před současnými a budoucími škodami způsobenými umělou inteligencí. Existují zásadní prvky, o kterých v Amnesty víme, že je musí obsahovat jakýkoli navrhovaný regulační přístup. Regulace musí být právně závazná a musí se soustředit na již zdokumentované škody způsobené lidem. Dosavadní závazky a zásady týkající se „odpovědného” vývoje a používání umělé inteligence však neposkytují dostatečnou ochranu před riziky nové technologie a musí nalézt svou oporu v legislativě.
Stejně tak musí jakákoli regulace zahrnovat širší mechanismy odpovědnosti nad rámec technických hodnocení, která prosazuje průmysl. Ty sice mohou být užitečnou součástí každé regulační politiky, zejména při testování algoritmické zaujatosti, ale nutné zákazy a omezení nemohou být vyloučeny, a to zejména u systémů, které jsou zásadně neslučitelné s lidskými právy, bez ohledu na to, jak přesné nebo technicky účinné se zdají být.
Ostatní se musí poučit z postupu EU a zajistit, aby neexistovaly právní
mezery, které by soukromým či veřejným subjektům jakkoliv umožňovaly obcházet regulační povinnosti. Rozhodující pro dosažení tohoto cíle je
odstranění jakýchkoli výjimek pro umělou inteligenci používanou v rámci národní bezpečnosti nebo vymáhání práva. Je rovněž důležité, aby v případech, kdy budoucí regulace omezí nebo zakáže používání určitých systémů AI v rámci jedné legislativy, neexistovaly žádné právní cesty, které by umožnily
vývoz stejných systémů do jiných zemí, kde by mohly být použity k poškozování lidských práv. To zůstává zjevnou mezerou v přístupech Spojeného království, USA i EU, neboť u této technologie nezohledňují globální nerovnováhu moci, zejména co se týče dopadu na skupiny obyvatel, jejichž hlasy nejsou v diskusích o AI zastoupeny. Již byly například zdokumentovány případy vykořisťování externích pracovníků v
Keni a
Pákistánu společnostmi vyvíjejícími nástroje umělé inteligence.
S příchodem roku 2024 nastal čas nejen zajistit, aby na respektování práva bylo pamatováno již při vzniku AI systémů, ale také zaručit, aby ti, na které má tato technologie dopad, byli zapojeni do rozhodování o tom, jak by měla být regulována, a aby jejich zkušenosti byly v diskuzích zohledněny .
Potřebujeme závaznou regulaci, která bude více než jen slovní výmluvou zákonodárců hnát společnosti a další klíčové hráče k odpovědnosti. Musí zajistit, aby peněžní zisky nevznikaly na úkor ochrany lidských práv. Mezinárodní, regionální a vnitrostátní správní úsilí se musí vzájemně doplňovat a globální diskuse nesmí být vedeny na úkor smysluplné vnitrostátní regulace nebo závazných regulačních norem. To je úroveň, na které se vyvozuje odpovědnost – musíme se poučit z minulých pokusů o regulaci technologií, což znamená zajistit zavedení spolehlivých mechanismů, které umožní obětem porušování práv způsobených umělou inteligencí domoci se spravedlnosti.