FIREMNÍ STRAGEGIE A AI
Důvěryhodná umělá inteligence a její potenciál
Podniky jsou dnes stále více konfrontovány s novou generací softwarových nástrojů, aplikací a dalšími technickými řešeními, které obsahují umělou inteligenci (AI). Řeč je například o částečném samočinném řízení automobilů, řízení výrobních linek nebo diktování e-mailů pomocí telefonu. Všechny tyto systémy mají jedno společné – jejich součástí jsou komponenty na bázi strojového učení.
Autor: Jan Hejtmánek, ředitel a leader RPA programu, Deloitte Czech Republic
U nových systémů je oproti předchozím generacím složité predikovat rozhodnutí AI. Důvod je jednoduchý – vytváření AI komponent stojí na principu předkládání příkladů a následného vytváření modelů. Při použití dané komponenty s AI pak kromě samotného rozhodnutí předkládá systém i pravděpodobnost, s jakou k tomuto rozhodnutí dospěl.
Tento způsob predikování je velmi podobný tomu lidskému, ale je jen velmi málo podobný tomu, jakým způsobem jsou dnes lidé zvyklí používat technologie a IT zařízení. Je pro nás samozřejmé, že při diktování SMS do mobilního telefonu se umělá inteligence „splete“ a přepis řeči na text není vždy správný. Stejně tak je pro nás samozřejmé, že na samočinné řízení v automobilu se nelze spoléhat bezvýhradně.
Na druhou stranu existují systémy, které obsahují umělou inteligenci a kterým věříme bezmezně. Například přiřazení rizikového skóre při přidělování úvěrů. Nebo vyhledání informací na internetu. A není sporu o tom, že bez strojového učení by některé technické systémy vůbec nebylo možné vytvořit (například automatické detekce vadných kusů ve výrobě s pomocí kamery).
Aby podniky a organizace mohly stále více využívat nástroje na bázi strojového učení, je nutné, aby jim mohly důvěřovat. Organizace si potřebují být jisté nejen tím, že nasazované nástroje technicky fungují, ale také, že fungují eticky a jsou v souladu s firemními hodnotami.
Příležitosti spojené s důvěryhodnými systémy AI
Existuje mnoho případů, kdy se nasazení umělé inteligence pokazilo: chatboti, kteří se stali rasistickými, diskriminační algoritmy reklamy, zpracování přirozeného jazyka s pochybnou pozorností věnovanou soukromí a další. Důsledky (např. poškození značky, regulační pokuty atd.) motivují podniky k nápravným opatřením.
Předcházení pokutám nebo škodám způsobeným umělou inteligencí je ale pouze jednou stranou mince. Tou druhou je budování důvěryhodnosti AI, resp. systémů využívajících umělou inteligenci. Příkladem mohou být systémy pro vyhodnocování rizikovosti komerčních subjektů nebo jednoduché získávání informací z dokumentů. Zatímco prostřednictvím kontroly čtyřma očima nebo zpomalením procesu lze snadno zamezit či předejít škodám, důvěryhodnost systému je komplexní téma, kvůli kterému řada organizací váhá s nasazením systémů nové generace.
Použití rámce pro důvěryhodnou AI
Prvním krokem k rozšířenému využívání důvěryhodné AI je shoda na etických zásadách, které jsou cenné pro strategii podniku, a na nástrojích, které jsou k jejímu prosazování zavedeny. Jednou z možností jak zajistit, že strategie zavedení AI bude úspěšná, je Deloitte Trustworthy AI™ framework. Tento přístup definuje šest faktorů, pomocí nichž lze vyhodnotit chování nasazované AI. Podívejme se nyní podrobněji, o jaké faktory se jedná:
1. Transparentnost a vysvětlitelnost
Důvěra v AI vyžaduje schopnost porozumět jejím nedostatkům, identifikovat zkreslení, provádět kontroly přesnosti systémů a po nasazení modelů sledovat jejich změny. Toho lze dosáhnout například prostřednictvím modelování výstupů, trasováním nebo průběžným monitorováním. Každý z těchto přístupů má vliv na účinnost systému.
2. Spravedlnost a nestrannost
Nestrannost spočívá v mnoha ohledech na kvalitě údajů, na kterých je model AI vyškolen. Podniky jsou pověřeny zajistit, aby datové sady neobsahovaly skryté zkreslení, aby se po nasazení posuzovala data z domén v reálném světě a aby součástí procesů byly interní a externí kontroly, které nepřetržitě monitorují a ověřují spravedlivost a ověřování AI.
3. Robustnost a spolehlivost
Konzistence systémů je klíčovým faktorem úspěchu. Důvěryhodné systémy AI se musí chovat spolehlivě a podle očekávání, a to i v případě, že se setkají s neočekávanými daty. Měly by být také dostatečně robustní, aby zůstaly spolehlivé ve velkém měřítku. A to i z bezpečnostního hlediska – systém by měl být odolný takovým způsobem, aby dokázal čelit potenciálním snahám oklamat model, kvůli kterým by následně dodával nepřesné výstupy.
4. Bezpečnost a zabezpečení
Organizace by měly nejen stavět na systémech, které jsou odolné vůči známým (a neznámým) rizikům, ale také by měly informace o těchto rizicích sdělovat uživatelům systémů a dalším zúčastněným stranám. V praxi to může znamenat školení modelů, využívání vrstvených procesů s redundancí zabudovanou do infrastruktury a přísné řízení a podávání zpráv, které prostupuje celým životním cyklem AI.
5. Odpovědnost a zodpovědnost
Za každým nástrojem AI stojí řada lidí, kteří rozhodují o tom, jak je systém konstruován a používán v praxi. Důvěryhodná umělá inteligence je potom založena na lidské zodpovědnosti za chování takového nástroje. Jedná se o jednu z největších výzev v oblasti AI a její řešení vyžaduje jasný řetězec odpovědnosti za nápravu problémů, které se projevují v provozu.
6. Respektování soukromí
U důvěryhodné AI by organizace měly zajistit, aby byla chráněna trénovací data, vstupy byly omezeny jen pro vlastníka modelu, výstupy byly dodávány pouze uživateli a samotný model byl chráněn před nežádoucí expozicí. V praxi uživatelé potřebují jasné informace, aby pochopili, jaká data jsou používána a jakým způsobem. Dále musí mít uživatelé možnost volby se ke sdílení dat přihlásit a také se od něho odhlásit. A v neposlední řadě je potřeba dostupný kanál pro sdělování zpětné vazby.
Nasazení AI a transformace organizací
Doba, kdy se s technologiemi s umělou inteligencí setkávali pouze vědci nebo profesionálové z oboru, je už za námi. Každý uživatel, každý zaměstnanec, se dnes setkává s AI prakticky denně. Ať už v placené či neplacené verzi, systémy s umělou inteligencí jsou dostupné a jakýkoli zaměstnanec je může využít, aniž by se o tom zaměstnavatel dozvěděl. Kupříkladu dnes tolik častý „citizen development“ – automatizace úkolů na počítači uživatelem se natolik zjednodušila, že z kdysi běžných maker se stalo programování pomocí vizuálních nástrojů, kde si uživatel vůbec nemusí uvědomit, že vlastně vyvíjí software (i s umělou inteligencí), který by měl projít ověřením, testováním a procesem nasazení.
Otázkou tedy není, zda organizace budou nasazovat systémy s AI. Měli bychom se spíše ptát, zda organizace vůbec vědí, že systémy s umělou inteligencí už využívají.
Nasazení nových systémů se však není třeba obávat – existují totiž způsoby, jak je efektivně implementovat a udržovat. A zajištění důvěryhodné AI je pak příležitostí pro transformaci podniku. Příležitostí, jak zvýšit přidanou hodnotu společnosti tím, že všichni zaměstnanci budou chápat, co je umělá inteligence, kde ji očekávat a co to znamená pro organizaci. Namísto toho, aby se podnik bránil vznikajícím regulačním režimům a neetickému chování v oblasti AI, které vyvolává nedůvěru zákazníků, je tedy třeba si uvědomit rostoucí hodnotu v sebevědomém využívání schopností umělé inteligence.