2024. november 15.
A mesterséges intelligencia (AI) megértése és a kockázatértékelés közötti jelentős szakadékot tárta fel a belső ellenőrzés jövőjét vizsgáló átfogó új jelentés.
Az AuditBoard által kiadott „2025 Focus on the Future” című jelentés megállapította, hogy miközben a belső ellenőrzési vezetők 61%-a elismeri, hogy nem rendelkezik AI-szakértelemmel, paradox módon a 14 kulcsfontosságú kockázati terület közül az AI-kockázatokat sorolták a legkevésbé aggasztónak.
„Ez jelentős hitelességi szakadékot teremt” - mondja Richard Chambers, a Belső Ellenőrök Intézetének korábbi vezérigazgatója. „Hogyan értékelhetnénk az AI kockázatokat, ha nem értünk a technológiához?”
Az eredmények még aggasztóbbá válnak, ha a szélesebb körű üzleti trendekkel vetjük össze őket. Míg a legfrissebb adatok szerint a szervezetek 55%-a aktívan alkalmazza az AI-t, addig a belső ellenőrzési részlegeknek csak 2-4%-a számolt be arról, hogy jelentős előrelépést ért el az AI megvalósításában. Körülbelül a fele egyáltalán nem tett erőfeszítéseket.
A jelentés egy olyan szakmáról árulkodik, amely nehezen tud lépést tartani a technológiai változásokkal. Tízből kevesebb mint 1 ellenőrzési részleg használja a mesterséges intelligenciát az éves tervezés során, és mindössze 20% alkalmazza azt a megbízások tervezése vagy a terepmunka során. Talán a legaggasztóbb, hogy a belső ellenőrzési vezetők mindössze 32%-a hisz abban, hogy a mesterséges intelligencia jelentősen átalakítja majd a belső ellenőrzési folyamatokat.
A mesterséges intelligencia felkarolásától való ódzkodás annak ellenére tapasztalható, hogy egyre több bizonyíték van annak fontosságára. A tanulmányban idézett külön „Vision 2035” jelentésben a belső ellenőrzési szakemberek 74%-a jelölte meg a mesterséges intelligenciát a szakma jövője szempontjából kulcsfontosságúnak. A felismert fontosság és a tényleges megvalósítás közötti különbség azt sugallja, hogy a szakma válaszúthoz érkezett.
A tanulmány számos akadályt azonosított a mesterséges intelligencia bevezetése előtt az ellenőrzési részlegeken. A széles körben elismert szakértelemhiányon túlmenően a többi kulcsfontosságú kihívás a következő:
elégtelen erőforrások és költségvetési korlátok
az adatbiztonsággal és a magánélet védelmével kapcsolatos aggályok
a mesterséges intelligencia használatára vonatkozó világos szervezeti irányelvek hiánya
bizonytalanság a szabályozási követelményekkel kapcsolatban
A kis létszámú ellenőrzési csoportok különösen nagy kihívásokkal szembesülnek: a hat vagy annál kevesebb alkalmazottat foglalkoztató szervezeti egységek 42%-a számolt be arról, hogy jelentős nehézségekbe ütközik az új technológiák bevezetése.
Úgy tűnik, hogy a mesterséges intelligencia vakfoltja a kockázatértékelés és az ellenőrzési tevékenységek közötti téves összhang szélesebb körű mintázatának része. A jelentés több olyan területet is azonosít, ahol az ellenőrzési figyelem nem felel meg az észlelt kockázati szinteknek:
A gazdasági feltételek a második legnagyobb kockázatot jelentik, de a tizenegyedik legnagyobb ellenőrzési erőfeszítést kapják.
A tehetséggondozás az ötödik helyen áll a kockázat tekintetében, de a tizenharmadik az ellenőrzési lefedettség tekintetében.
Az olyan hagyományos területek, mint a csalás, aránytalanul nagy figyelmet kapnak az alacsonyabb kockázati rangsor ellenére.
A jelentés átfogó ütemtervet vázol fel a mesterséges intelligencia képességek hiányának áthidalására törekvő ellenőrzési részlegek számára. A jelentés alapját az ellenőrzési személyzet AI-oktatásába és -képzésébe való befektetés képezi, ami az első kritikus lépésnek számít. Ez nem feltétlenül jelenti a magas szintű technikai képesítések megszerzését - a részlegeknek inkább az AI-alkalmazások gyakorlati megértésére kell összpontosítaniuk ellenőrzési kontextusban.
Azoknak a szervezeti egységeknek, amelyek még csak most kezdik az AI-utazást, a jelentés azt ajánlja, hogy a kockázatértékelésben már bizonyított AI-alkalmazásokkal kezdjék. Ez a megközelítés lehetővé teszi a csapatok számára, hogy bizalmat szerezzenek a technológiával kapcsolatban, miközben azonnali értéket biztosítanak. Példaként említhetjük a mesterséges intelligencia alkalmazását a korábbi ellenőrzési adatok elemzésére, a kockázatértékelésekben található minták azonosítására vagy a rutinszerű dokumentációs feladatok automatizálására.
Az átalakulási folyamat másik fontos eleme az egyértelmű AI-irányítási keretek kialakítása. Ezeknek a kereteknek meg kell határozniuk, hogy miként fogják használni az AI-eszközöket, milyen biztosítékokat kell alkalmazni, és hogyan fogják validálni az eredményeket. A jelentés hangsúlyozza, hogy az ilyen keretrendszereknek élő dokumentumoknak kell lenniük, amelyek a technológia és a szervezeti igények változásával együtt fejlődnek.
Az informatikai részlegekkel való együttműködés kulcsfontosságú sikertényezőnek bizonyul. Ahelyett, hogy a mesterséges intelligencia bevezetését kizárólag ellenőrzési kezdeményezésnek tekintenék, a sikeres részlegek az IT-csapatokkal együttműködve a meglévő szakértelem és infrastruktúra kihasználása érdekében. Ez az együttműködésen alapuló megközelítés nemcsak felgyorsítja a végrehajtást, hanem segít biztosítani a szervezeti technológiai szabványokkal való összhangot is.
A jelentés hangsúlyozza a proaktív AI-kockázatfigyelés fontosságát is. Mivel a szervezetek egyre nagyobb számban alkalmaznak AI-megoldásokat a különböző üzleti funkciókban, az ellenőrzési részlegeknek új felügyeleti megközelítéseket és az AI-rendszerekre jellemző kockázati mutatókat kell kidolgozniuk. Ez magában foglalja az olyan szempontok figyelembevételét, mint az AI elfogultság, a döntések átláthatósága és az adatminőség.
Végezetül a tanulmány hangsúlyozza, hogy az AI megfontolásokat integrálni kell a szélesebb körű ellenőrzési tervezésbe. Ez azt jelenti, hogy a mesterséges intelligenciát nem csupán eszközként kell használni az ellenőrzési folyamatokon belül, hanem a mesterséges intelligenciával kapcsolatos kockázatokat más üzleti területek ellenőrzésének tervezésekor is figyelembe kell venni. Ahogy a mesterséges intelligencia egyre inkább elterjed a szervezetekben, ez az integrált megközelítés egyre fontosabbá válik a hatékony kockázatkezelés szempontjából.
„A belső ellenőrzést kétségtelenül át fogja alakítani az AI hatása” - jegyzi meg Chambers. „Ahelyett, hogy homokba dugnánk a fejünket, el kell fogadnunk ezt a lehetőséget, hogy meghatározzuk szakmánk jövőjét.”
Az eredmények a szakma számára kritikus időszakban születtek. A jelentés szerint a szervezetek 35%-a nem számít arra, hogy 2025 januárjáig teljes mértékben bevezetik az új globális belső ellenőrzési standardokat, ami a változásokhoz való alkalmazkodás szélesebb körű kihívásaira utal.
Ráadásul a számos részleget érintő költségvetési megszorítások miatt (2025-ben csak 54% számít a költségvetés növekedésére) egyre fontosabbá válik a technológia kihasználásának szükségessége annak érdekében, hogy kevesebből többet lehessen elérni.
A jelentés szerint a szakma fordulóponthoz érkezett. Ahogy a szervezetek gyorsan átveszik a mesterséges intelligencia technológiákat, úgy tűnik, hogy a belső ellenőrzés képessége, hogy érdemi felügyeletet nyújtson, egyre korlátozottabbá válik. Ez a szakadék még hangsúlyosabbá válhat, ahogy az AI elfogadása felgyorsul és a szabályozói ellenőrzés fokozódik.
„Nem engedhetjük meg magunknak, hogy elszalasszuk azokat a lehetőségeket, amelyeket mi magunk is a jövőnk szempontjából központi jelentőségűnek tartunk” - zárja Chambers, kiemelve, hogy sürgősen változtatni kell a szakma AI-hoz való hozzáállásán.
Az eredmények azt sugallják, hogy bár az AI bevezetésével kapcsolatos kihívások jelentősek, a tétlenség kockázatai még nagyobbak lehetnek. Mivel a szervezetek egyre inkább a mesterséges intelligenciára támaszkodnak a kritikus üzleti folyamatokban, a belső ellenőrzés képessége, hogy megértse és értékelje a mesterséges intelligenciával kapcsolatos kockázatokat, alapvető fontosságúvá válik a hatékony kockázatkezelés szempontjából.
Accountancy Age
Forrás: https://www.accountancyage.com/2024/11/15/internal-auditors-flying-blind-on-ai-risks-report