Bezpečné a odpovědné AI systémy: kyberbezpečnost, AI Akt a ISO/IEC 42001

Přednášející IS2 2026

Michael Bátrla & Štěpánka Havlíková

S narůstajícím využíváním modelů a systémů umělé inteligence roste i potřeba účinně je chránit před kybernetickými hrozbami, zneužitím a systematickými riziky vyplývajícími z nesprávného či úmyslně škodlivého použití. S blížící se účinností AI Aktu Evropské unie zároveň stojí organizace před otázkou, jak skloubit kybernetickou bezpečnost AI systémů, regulatorní požadavky a reálné provozní potřeby.

Přednáška nabídne společný pohled bezpečnostního manažera a právničky na praktický návrh, zavádění a provoz AI systémů tak, aby splňovaly požadavky AI Aktu, NIS 2, GDPR i souvisejících předpisů a současně byly udržitelné v každodenním provozu. Vysvětlíme rizikový přístup AI Aktu od zakázaných systémů po ty nízkorizikové, se zaměřením na povinnosti pro vysoce rizikové systémy – bezpečnost, řízení rizik, kvalitu a governance dat, monitoring, či robustnost.

Zároveň představíme normu AI governance ISO/IEC 42001 a ukážeme, jak lze nad existujícím ISMS a procesy kybernetické bezpečnosti vybudovat AIMS, které pomůže naplnit a obhájit požadavky této mezinárodní normy i AI Aktu. Na příkladech z cloudového prostředí i z regulovaných a neregulovaných sektorů ukážeme, kde se AI Akt a ISO/IEC 42001 překrývají (např. řízení rizik, bezpečnost, soukromí, governance, dokumentace, monitoring) a kde kladou odlišné nároky. Zaměříme se na typické bezpečnostní a smluvní „slepé skvrny“ při nasazování generativních i negenerativních AI systémů, roli smluvních ujednání s poskytovateli modelů a cloudových platforem a na praktické postupy, jak nastavit vnitřní procesy, organizační a technické kontroly od návrhu až po dlouhodobý provoz AI systémů.

Image

Michael Bátrla

MU Brno

Michael Bátrla je bezpečnostní, GRC manažer a výzkumný pracovník na Ústavu práva a technologií Masarykovy univerzity. Má zkušenosti z vedoucích i poradenských pozic v oblasti kybernetické bezpečnosti ve veřejném i soukromém sektoru. Specializuje se na kybernetickou bezpečnost, umělou inteligenci a compliance. Publikuje i přednáší na témata regulace kybernetické bezpečnosti a AI governance.

Image

Štěpánka Havlíková

MU Brno

Štěpánka Havlíková je advokátka se specializací na IT právo, právo umělé inteligence, duševní vlastnictví a ochranu dat. Poskytuje právní poradenství napříč technologickým sektorem včetně komplexních IT projektů, implementace nových technologií a AI systémů, SW smluv a compliance s digitální legislativou. Více než rok působila na secondmentu v právním týmu globálního big tech poskytovatele AI modelů. Současně působí jako doktorandka na Ústavu práva a technologii Masarykovy univerzity.