Zakladatelka iniciativy Barbora Brabcová provádí kontinuálně průzkum mezi dospělými i dětmi dva roky. Pohledy dospělých se přitom nejčastěji pohybují v extrémech, „ode zdi ke zdi“: velká část nevidí rizika ve využití AI vůbec žádná, menší část naopak očekává doslova apokalypsu a válku terminátorů. „Lidé mají AI buď za kouzelnou skříňku, do které se něco vloží a ona vše zařídí, anebo z ní mají až panický strach. Zažila jsem i paní, která doslova utekla ze školení, protože ji toto téma děsí.“ Poměr u dospělých je přitom 59 % bezstarostných a 18 % zneklidněných. S tím kontrastují výsledky u dětských respondentů, jejichž očekávání jsou naopak až nečekaně realistická. „Devadesát procent dětí se při využívání umělé inteligence obává zcizení a zneužití citlivých dat, manipulace nebo diskriminace. Děti tedy přistupují k rizikům AI mnohem poučeněji,“ vysvětluje Brabcová.
Co svěřit a co zamlčet? Lidé tápou a chybějí pravidla
Právě bagatelizace rizik, nebo naopak jejich nafukování, způsobují, že lidé nevědí, jak s nástroji AI pracovat a jaká data jim svěřovat. Ve firmách, kde Brabcová etiku AI školí, představuje absence pravidel bezpečného užívání nejčastější nešvar. „Firma často zjistí, že její zaměstnanci už nástroje AI využívají, ovšem každý po svém a bez poučení, která data sdílet a která nesvěřovat. Než se přijme jednotná firemní politika, může dojít k úniku citlivých informací,“ vysvětluje expertka. Místo plánovaného řešení inovací se tak jen hasí požáry. Opačným extrémem je pak zbytečně nedůvěřivý přístup vedení, které svým lidem užívání umělé inteligence třeba přímo nezakazuje, ale ani vyloženě nedoporučuje, a spíše radí k přístupu „raději tam nic nepište“. To samozřejmě vysílá zaměstnancům signál, že AI je nebezpečná, což jejich motivaci a důvěru v nové technologie značně oslabuje. Posledním z typických nešvarů je pak lhaní firem o jiných než svých vlastních AI řešeních, když zamlčují lidem existenci nástrojů, které vyvinula konkurence. „Takový přístup jednak neposiluje loajalitu k vlastní firmě, ale navíc i pak škodí tím, že vyvolává nerealistická očekávání od vlastního nástroje,“ varuje Barbora Brabcová.
DO BOXU:
Čeho se podle Barbory Brabcové držet při zavádění umělé inteligence ve firmách:
- Rozdělení dat podle citlivosti: Zaveďte jasnou klasifikaci dat (např. veřejná, interní, citlivá, přísně tajná) a určete pravidla, která data lze v AI nástrojích používat a jakým způsobem.
- Firemní AI portál: Mějte jedno místo, kde zaměstnanci najdou vše o AI – schválené nástroje, pravidla, kontakty na odpovědné osoby a reálné příklady využití ve vaší firmě.
- Pravidelné školení a AI specialisté: Vzdělávejte zaměstnance, aby AI používali bezpečně a efektivně. Zároveň určete lidi, kteří budou mít AI na starosti, pomohou se zodpovězením otázek a budou udržovat pravidla aktuální.