Regulace umělé inteligence: Aby se z dobrého sluhy nestal zlý pán

PRAHA 30. června 2021 – K navrhované regulaci umělé inteligence v Evropské unii, potažmo v Česku, je třeba přistupovat velmi citlivě a obezřetně. Ačkoli za ní stojí dobré úmysly, může zpomalit nasazení moderních technologií v Evropě a snížit konkurenceschopnost zdejších podniků i startupů. Shodli se na tom přední experti během on-line diskuse s názvem AI v Česku. Co s evropskou regulací?, kterou uspořádal Aspen Institute Central Europe ve spolupráci s Hospodářskými novinami, vědeckou iniciativou prg.ai. a technickou podporou odborného spolku Paralelní Polis.  Debatu moderovala Sara Polak z prg.ai,  absolventka programu Aspen Young Leaders. 

Jako jeden z hlavních pilířů plošné regulace má být zavedena kategorie „vysoce rizikových AI systémů“, které EU považuje za ohrožující lidská práva. Ty přímo zakazuje, na další se chystá uvrhnout přísná omezení. Za nedodržení pravidel bude hrozit pokuta až šest procent ročního obratu firmy, anebo třicet milionů eur – podle toho, která částka bude vyšší.

„Regulace, které přijímáme, budou mít přímý vliv na konkurenceschopnost Evropy na mezinárodním trhu. Už teď ekonomická síla EU radikálně klesá a pokud si přílišnou regulací svážeme nohy, konkurence nám uteče,” upozorňuje Martin Rehák, CEO & Founder, Resistant AI. Zároveň připouští, že umělá inteligence přinese dramatickou změnu v profesním životě řady lidí. „Ale změnu je třeba využít v náš prospěch, ne se jí bát. Regulace založená na strachu z neznáma může jen škodit,“ prohlásil Martin Rehák s tím, že regulace umělé inteligence zkouší řešit problémy, které zatím existuji jen zřídka. Měla by především chránit občany před podvodníky a nemorálními praktikami.

V EU mají být zakázané technologie pro výpočet sociálního skóre, které by sledovaly ekonomickou či společenskou bonitu a nastavovaly různé úrovně přístupu k veřejným službám. Stejně tak technologie zneužívající zranitelnosti dětí, nebo manipulující s lidským chováním s cílem obejít svobodnou vůli uživatelů. Využití systémů umožňujících sledovat lidi pomocí rozpoznávání obličeje by se mělo do budoucna omezit výslovně jen na prevenci teroristických útoků či hledání ztracených osob. Nová pravidla bude muset umělá inteligence splňovat i v personalistice.

Pro poskytovatele vysoce rizikových AI systémů zavádí regulace povinnost testovat jejich software na kvalitních datových souborech. Například u samořídicích aut jde o soubory fotografií a videosekvencí chodců. „Kromě dopadů na úrovni jednotlivců, jako jsou základní lidská práva, je třeba sledovat i celospolečenské důsledky. Monitoring a hodnocení rizik je mimo možnosti většiny soukromých firem, a proto by mělo být na základě transparentní metodologie zajištěno veřejným sektorem,“ domnívá se Marek Havrda z GoodAI. Regulace by podle něho neměla být plošná, ale sektorová, a nesmí umělou inteligenci diskriminovat.

Dalibor Kačmář, ředitel pro technologické standardy, Microsoft ČR a Slovensko, připomíná, že umělá inteligence je v podstatě nástroj pro snazší zpracování velkého objemu dat. A jako každý nástroj může být využita pro společensky prospěšné cíle, stejně jako pro ty kontroverzní: „Microsoft je proto zastáncem regulace AI zejména z etického hlediska: aby její použití bylo vždy bezpečné, spolehlivé, inkluzivní a spravedlivé, aby sloužilo k prospěchu všech lidí a nenarušovalo ničí soukromí.“  Přímo v Microsoftu již funguje několik poradních komisí, které na dodržování zmíněných zásad dohlížejí, včetně obchodních partnerů využívajících firemní produkty. Je nutné transparentně definovat pravidla hry a ověřit, jestli regulace bude funkční. Každou regulaci by měla provázet studie ekonomických dopadů.

Podle Jana Klesly, národního koordinátora pro centra umělé inteligence, je zejména pro menší podniky složité, jakému množství vnitřních předpisů a certifikací budou muset vyhovět. V krajních případech tato procedura, bez níž bude firmě přístup na trhy EU odepřen, může trvat až roky a řada firem se raději přesune do Velké Británie nebo USA. Jan Klesla je přesvědčen, že plošnou regulaci AI nepotřebujeme, neboť je již zakotvena v Listině základních práv a svobod, GDPR a dalších právních normách. Aby nevznikaly problematické duplicity, mělo by si Česko jasně vyhodnotit, ve kterých případech je třeba stanovit mantinely. A ty prosazovat v Bruselu v době blížícího se předsednictví v EU.

Veronika Žolnerčíková z Ústavu práva a technologií Právnické fakulty Masarykovy univerzity zdůraznila, že návrh EU se staví k umělé inteligenci jako k technologii se čtyřmi stupni rizika. Ten nejpřísnější, například biometrickou identifikaci v reálném čase, regulace neakceptuje, další lze používat jen za určitých podmínek. „Akt o umělé inteligenci může posloužit jako základ regulatorního rámce pro výrobce a vývojáře. Ti potřebují jistotu, že realizace jejich nápadu nebude představovat zakázanou činnost a ztracené investice. Tu jim dá jenom právní předpis. Je ale třeba regulaci upravit, zacházet co nejméně do detailů a konkrétní požadavky na systémy AI přenechat sektorovým předpisům a technickým normám, aby nedošlo k omezení inovačního potenciálu,“ uzavírá Veronika Žolnerčíková.

Diskuse o regulaci umělé inteligence je v pořadí již třetí ze série AI v Česku. Jak jsme v předešlých dvou debatách poukázali (AI v Česku. Lepší, než si myslíte! a AI v Česku. Kde na to vzít?), umělá inteligence je rozsáhlý vědní obor, který má záběr od statistiky, přes programování, až po filozofii.

 

O Aspen Institute Central Europe
Aspen Institute Central Europe je nezávislá platforma, kde se mohou setkávat a jednat představitelé politiky a byznysu, ale také osobnosti z oblasti umění, sportu či vědy. Cílem institutu je rozvíjet mezioborovou spolupráci a podporovat mladé středoevropské lídry z různých sektorů v jejich osobním i profesním rozvoji.

Share this on social media

Support Aspen Institute

The support of our corporate partners, individual members and donors is critical to sustaining our work. We encourage you to join us at our roundtable discussions, forums, symposia, and special event dinners.

Cookies
These web pages use cookies to provide their services. You get more information about the cookies after clicking on the button “Detailed setting”. You can set the cookies which we will be able to use, or you can give us your consent to use all the cookies by clicking on the button “Allow all”. You can change the setting of cookies at any time in the footer of our web pages.
Cookies are small files saved in your terminal equipment, into which certain settings and data are saved, which you exchange with our pages by means of your browser. The contents of these files are shared between your browser and our servers or the servers of our partners. We need some of the cookies so that our web page could function properly, we need others for analytical and marketing purposes.