2024. május 29.
Nemrégiben egy londoni kapcsolatépítő rendezvényen gyűltem össze egy csapat kollégával, amikor egyikük finoman megdorgált, amiért szemtelenül sürgetem a szakmát, hogy ugorjon be a mesterséges intelligencia (AI) színterére. Szerinte a szavaimnak nagy súlya van, és hogy azok a belső ellenőrök, akik azt hallják tőlem, hogy "kezdjük el használni az AI-t", az összes kockázat és következmény mérlegelése nélkül teszik ezt. Kicsit visszavágtam, de az álláspontja jól hangzott. A generatív AI-megoldásokban rejlő lehetőségek bőségesen kínálkoznak szakmánk számára, de meg kell győződnünk arról, hogy ismerjük a kockázatokat és a szervezetünk "szabályai" szerint játszunk - különösen akkor, ha a szervezet technológiáját használva férünk hozzá az AI-hoz.
Az elmúlt évben az AI-technológiák integrációja számos ágazatban elterjedt, forradalmasítva a vállalkozások működését. A legnagyobb izgalmat kiváltó fejlesztés a generatív AI. Az olyan eszközök, mint a ChatGPT, képesek a szövegtől a képekig figyelemre méltó, emberhez hasonló gördülékenységgel létrehozni tartalmakat. Miközben a generatív mesterséges intelligencia hatalmas innovációs és hatékonysági potenciált rejt magában, a munkahelyi alkalmazása számtalan olyan kockázatot is rejt magában, amelyek gondos mérlegelést és a kialakított irányelvek betartását igénylik.
A mélytanulási algoritmusok által működtetett generatív mesterséges intelligencia az önálló tartalomgenerálásra való képességével hívta fel magára a figyelmet. Legyen szó termékleírások készítéséről, marketingszövegek generálásáról vagy akár teljes cikkek készítéséről, mint például ez, a generatív AI képes utánozni az emberi írásmódot, és elképesztő sebességgel képes tartalmat előállítani.
A belső ellenőrök a generatív mesterséges intelligenciát a kockázatértékelés, az ellenőrzés tervezése, az adatelemzés és még a jelentésírás segítésére is használják. Bátorítottam a használatát, sőt, még a szakmát is megróttam, amiért lassú az elfogadás. Végül is a generatív mesterséges intelligencia csábító ereje abban rejlik, hogy racionalizálhatja a munkafolyamatokat, növelheti a termelékenységet és csökkentheti a munkaigényes feladatokat. A belső ellenőrzési folyamatok automatizálásával időt és erőforrásokat takaríthatunk meg, miközben megfelelünk a globális belső ellenőrzési szabványoknak, és időszerű és hatásos belső ellenőrzési jelentéseket készíthetünk.
A generatív mesterséges intelligencia széles körű alkalmazása a munkahelyeken azonban olyan kockázatokkal is jár, amelyekkel a belső ellenőröknek nagyon is tisztában kell lenniük, és amelyeknek a saját használatunk során is irányadónak kell lenniük. Az elsődleges aggályok közé tartoznak:
A pontosság és a minőség: Bár a generatív mesterséges intelligencia gyorsan képes tartalmat előállítani, annak pontossága, relevanciája és a minőségi szabványok betartása továbbra is kihívást jelent. Megfelelő felügyelet nélkül fennáll a veszélye annak, hogy pontatlan belső ellenőrzési eredmények születnek, ami nem megfelelő korrekciós intézkedésekhez vezet.
Etikai megfontolások: Amint arra már korábban is figyelmeztettem, a generatív mesterséges intelligencia etikai aggályokat vet fel a tartalom hitelességével és integritásával kapcsolatban. Fennáll a kockázata annak, hogy téves információkat terjesztünk vagy elfogult tartalmat generálunk, ami sérti a belső ellenőrzési standardokat, és pontatlanná teheti az ellenőrzési munkánkat, valamint árthat a hírnevünknek.
Adatvédelem és biztonság: A generatív mesterséges intelligencia hatalmas adathalmazokra támaszkodik a tanuláshoz és a tartalomgeneráláshoz. Ha azonban a belső ellenőrök megfelelő óvintézkedések nélkül férnek hozzá érzékeny adatokhoz és dolgoznak fel érzékeny adatokat, az adatvédelem veszélybe kerülhet, és bizalmas információk illetéktelenek számára is hozzáférhetővé válhatnak. Belső ellenőrökként fel kell ismernünk, hogy az AI-rendszereket célzó adatsértések vagy rosszindulatú támadások kockázata aláhúzza a szilárd kiberbiztonsági intézkedések fontosságát.
Jogi megfelelés: Ahogy az AI által generált tartalom egyre elterjedtebbé válik, segítenünk kell a szervezetünknek biztosítani a szellemi tulajdonjogokra, a fogyasztóvédelemre és a hamis állításokra vonatkozó vonatkozó törvényeknek és szabályozásoknak való megfelelést. Ennél már csak az lenne rosszabb, ha valaki más a társaságunknál megszegné ezeket a megfelelési követelményeket, ha mi is így járnánk el az AI kiaknázásának rohamában.
E kockázatok fényében számos szervezet hozott létre irányelveket és iránymutatásokat a generatív mesterséges intelligencia munkahelyi használatára vonatkozóan. Ha a vállalati erőforrások felhasználásával akarjuk hasznosítani az AI-t, jobb, ha betartjuk azokat a szabályzatokat, amelyek betartásáért másokat is felelősségre vonunk. Amint azt a KPMG, az ISACA, a HBR és mások is megjegyezték, íme, miért kulcsfontosságúak az irányelvek és a megfelelés:
Kockázatcsökkentés: A jól meghatározott irányelvek segítenek azonosítani és csökkenteni a generatív mesterséges intelligencia használatával kapcsolatos potenciális kockázatokat. Belső ellenőrökként mindenképpen fel kell ismernünk és el kell fogadnunk a kockázatok mérséklését célzó irányelveket. Az elfogadható gyakorlatok, szabványok és eljárások követésével minimálisra csökkenthetjük az AI belső ellenőrzési célú felhasználásából eredő nem szándékos következmények és kedvezőtlen eredmények valószínűségét.
Etikai keretrendszer: Egyes szervezetek olyan irányelveket fogadtak el, amelyek keretet biztosítanak az etikus döntéshozatalhoz és a felelős AI-használathoz. Tiszteletben kell tartanunk az elfogadható viselkedés határait, biztosítva, hogy az általunk használt AI-alkalmazások összhangban legyenek az etikai elvekkel, tiszteletben tartsák az egyéni jogokat és fenntartsák a társadalmi értékeket.
Jogi megfelelés: Belső ellenőrként a vonatkozó törvényeknek és szabályozásoknak való megfelelés nem képezi vita tárgyát. El kell fogadnunk az adatvédelemre, a szellemi tulajdonra, az átláthatóságra és az elszámoltathatóságra vonatkozó irányelveket és jogi követelményeket, biztosítva, hogy a mesterséges intelligencia alkalmazása megfeleljen a jogi előírásoknak és elkerülje a jogi buktatókat.
Elszámoltathatóság és átláthatóság: Belső ellenőrökként tisztában kell lennünk a generatív AI-eszközök használata során fennálló kötelezettségeinkkel, és elszámoltathatónak kell lennünk az általuk generált tartalmakért.
Képzés és tudatosság: Teljes mértékben részt kell vennünk az alkalmazottak képzésében és tudatosságnövelő programokban, amelyek oktatják a munkatársakat a generatív AI-val kapcsolatos kockázatokról, előnyökről és legjobb gyakorlatokról. El kell fogadnunk az AI-műveltség és a felelős használat kultúráját, és arra kell ösztönöznünk a szervezetünket, hogy képessé tegyük a munkavállalókat a megalapozott döntések meghozatalára és a szabályzatok betartására.
A generatív mesterséges intelligencia soha nem látott innovációs és hatékonysági lehetőségeket kínál a belső ellenőrök számára, de alkalmazása magában rejlő kockázatokkal jár, amelyeket gondosan kell kezelni. Az irányelveknek való megfelelés és az etikai megfontolások előtérbe helyezésével kihasználhatjuk a generatív mesterséges intelligencia erejét, miközben védekezhetünk a lehetséges károk ellen. Egyértelmű irányelvekkel, szilárd irányítási keretekkel és a felelős AI-használat iránti elkötelezettséggel a belső ellenőrök eligazodhatnak az AI-technológia összetettségében, és teljes mértékben kiaknázhatják annak lehetőségeit.
Az Ön szervezetének irányelveitől függően a belső ellenőrzési funkciók számára az AI-képességek kiaknázásának biztonságos módja az AI-alapú ellenőrzési és kockázatkezelési megoldások. Néhány ilyen modell, például az AuditBoard (az én szervezetem) által kifejlesztett modellek közül vagy helyben fejlesztik és hosztolják, vagy harmadik fél integrációit használják az egyenértékűen jól bevált adatkezelési megoldásokkal. Ezek a megoldások a biztonságot és az adatvédelmet helyezik előtérbe, mint elsődleges szempontokat, és gyakran sokkal kisebb kockázatot jelentenek, mint maguk a generatív AI-megoldások alkalmazása.
A londoni megbeszélés végén tréfásan azt mondtam a kollégáimnak, hogy a jövőben a blogbejegyzéseim tartalmazni fogják a belső ellenőröknek szóló nyilatkozatot, hogy kövessék a népszerű közhelyet, és "ne próbálják ki ezt otthon". Amikor azonban leültem, hogy megírjam ezt a blogot, eszembe jutott egy másik kifejezés, amelynek eredetébe nem fogok belemenni - ne vegyen részt olyan AI-használatban, amely "nem biztonságos a munkához".
Richard Chambers
Gépi fordítás (DeepL) a következő forrásból: https://www.richardchambers.com/not-safe-for-work-internal-auditors-should-follow-policies-when-using-ai/