Regulace AI: hledání křehké rovnováhy

Nežijete-li pod kamenem, nemohlo vás to minout. Umělá inteligence (AI) je všude a kde se ještě neobjevila, tam bude zhruba pozítří. Prostě AI je naplno tady a nejde ji ignorovat. Používá se ve všech oblastech, od optimalizace provozu služeb až po nábor. Již dnes pomáhá v lékařských aplikacích nebo finančních a bezpečnostních systémech. Často činí klíčová rozhodnutí v životě lidí. Přitom je to technologie, kterou v současnosti vyvíjíme prakticky bez kontroly. Přirozeně se tak nabízí otázka, zda a jak máme AI regulovat?

Každý, kdo četl 1984 George Orwella, si vybaví onoho Velkého bratra, který tě sleduje. V Evropě se sice (zatím) Velkého bratra bát nemusíme, ale mnoho výzkumů už prokázalo, že nekontrolovaná AI může být rasistická, diskriminační či jinak zaujatá. Žebříčky vysokých škol, přijímání do zaměstnání, policejní algoritmy nebo třeba credit scoring. To je jen pár příkladů, kdy nám algoritmy nemusí sloužit ideálně. V dnešní době tak většina stakeholderů uznává, že určitá regulace umělé inteligence je na místě. I z toho důvodu Evropská komise v roce 2021 představila návrh AI Aktu, nařízení regulující systémy umělé inteligence v EU. Dne 14. června Evropský parlament schválil svoji verzi nařízení a nyní probíhá vyjednávání mezi členskými státy, Evropskou komisí a parlamentem o finálním znění. Cílem je mít nařízení schválené do konce tohoto roku.

Každá regulace nové technologie čelí kritice, že je příliš tvrdá a zároveň, že je příliš slabá. Nejinak je tomu i v případě AI Aktu. Přední evropské organizace zabývající se umělou inteligencí zkoumaly dopad připravovaného AI Aktu na evropský trh. 50 % startupů zabývajících se umělou inteligencí se domnívá, že AI Akt zpomalí inovace v oblasti umělé inteligence v Evropě. Dalších 16 % dokonce zvažuje zastavení vývoje AI nebo přesun mimo EU. Naopak lidskoprávní organizace volají po regulaci přísnější. Návrh podle nich společnost před sledováním, diskriminací a umlčováním nechrání dostatečně. Před unijními institucemi tak leží nelehký úkol najít onu křehkou rovnováhu. Rovnováhu mezi zájmy a rozvojem AI businessu v EU a dostatečnou ochranou práv a svobod Evropanů.

AI Akt je založen na systému hodnocení rizik pro zdraví a bezpečnost nebo základní práva osob a v návaznosti na to zavádí tři kategorie AI systémů. Systémy s omezeným a minimálním rizikem, jako jsou třeba spam filtry, bude povoleno používat s minimálními požadavky na jejich transparentnost. Naopak systémy jako vládní social scoring nebo biometrické identifikační systémy ve veřejném prostoru v reálném čase budou až na pár výjimek zakázány. Drtivá většina nových povinností se pak bude vztahovat na systémy s vysokým rizikem. Poskytovatelé takových systémů budou povinni zavést robustní a nepřetržitý systém řízení rizik, dodržovat podmínky ohledně kvality tréninkových dat, vytvořit detailní technickou dokumentaci nebo zajistit dostatečnou sledovatelnost fungování systému.

Konec přechodného období a finální účinnost nového nařízení se předpokládá až v roce 2027. To ale neznamená, že používání umělé inteligence je v nějakém právním vakuu. Vždy platí, že co je nelegální ve světě reálném, je nelegální i ve světě digitálním. Při používání Chatu GPT, DALL·E nebo Midjourney tak musíte dodržovat třeba autorská práva nebo chránit osobní údaje.

Umělá inteligence má a bude mít řadu pozitivních dopadů na naše životy a celkově společnost. Bez jakékoli kontroly a regulace se nám ale snadno může vymknout nebo být zneužita. Na druhou stranu nechceme regulací AI business zadusit, už teď Evropa za USA v oblasti umělé inteligence zaostává. Je zkrátka potřeba najít křehkou rovnováhu.

Autor: Ondřej Vykoukal

Článek byl publikován v týdeníku Marketing & Media, který je dostupný na webu www.mam.cz.