Big Four werken aan assurance voor AI-diensten

De Big Four zijn bezig om audits te ontwikkelen voor het beoordelen van AI-systemen. Daarmee proberen ze in te spelen op de vraag van bedrijven en andere organisaties die bewijs willen dat hun AI-systemen goed functioneren en veilig zijn. Dit meldt de Financial Times. De krant heeft het over AI-assurancediensten.
De vier kantoren hopen volgens de Britse zakenkrant hun reputatie op het gebied van financiële audits in te zetten om opdrachten binnen te halen voor het beoordelen van AI-systemen. Het gaat bijvoorbeeld om AI-systemen die worden gebruikt in zelfrijdende auto’s of kankerdiagnostische programma’s. De accountantskantoren willen dan een vorm van zekerheid geven dat de programma’s werken zoals bedoeld.
De grote kantoren hopen met deze dienstverlening een nieuwe bron van inkomsten aan te boren voor de accountants. Deze nieuwe vorm van dienstverlening komt op het moment dat sommige verzekeraars dekking bieden tegen schade veroorzaakt door defecte AI-tools, zo voegt de FT eraan toe.
Richard Tedder, een auditpartner bij Deloitte UK, noemt in de FT AI-assurance cruciaal voor de acceptatie van AI. “Bedrijven willen zekerheid over de AI die ze gebruiken om andere kritieke functies te beheren. Consumenten willen ook zekerheid als zij AI-diensten gaan gebruiken voor essentiële delen van hun leven, zoals hun gezondheid of hunn financiën.”
Marc Bena, Chief Technology Officer voor audit van PwC UK, beaamt in de FT dat PwC binnenkort AI-assurance introduceert. Het bedrijf voert nu al opdrachten uit waarbij specifieke klanttools worden geëvalueerd, zoals het controleren van chatbots op het correct beantwoorden vragen en het opsporen van problemen, zoals vooringenomenheid, aldus Bena.
Maar of AI-assurance er snel zal komen wordt betwijfeld door EY UK, die waarschuwt dat deze dienstverlening tijd gaat kosten. Met name vanwege de grote potentiële aansprakelijkheden voor accountants als een verzekerd AI-product toch niet naar verwachting functioneert.
“We zijn nog een eind verwijderd van het moment waarop we ondubbelzinnig kunnen zeggen dat we volledige zekerheid geven over een AI-model”, aldus Pragasen Morgan, verantwoordelijk voor technologie-risico’s bij EY UK. Doordat AI-modellen continu gegevens verwerken en zich ontwikkelen, is er geen zekerheid dat ze continu hetzefde reagere in een gegeven situatie. “Het geven van volledige zekerheid is iets waarvan ik denk dat wij nog niet klaar zijn, en ook de andere Big Four-kantoren niet.
In Groot-Brittannië worden nu al vormen van AI-assurance gegeven door sommige bedrijven, aldus de FT. Maar dat gebeurt doorgaans door de AI-ontwikkelaars zelf, wat vragen oproept over hun onafhankelijkheid.
De zakenkrant merkt ook ook op dat het in de prille markt voor AI-assurance ontbreekt aan standaardisering, in tegenstelling tot financiële audits. Door deze ommissie kan het niveau van verificatie sterk variëren. Sommige vormen van assurance blijven volgens de FT beperkt tot licht advies of het controleren of een AI-systeem voldoet aan slechts één specifieke wet.
Onderzoek van het Britse ministerie van Wetenschap, Innovatie en Technologie toont aan dat de vraag naar AI-assurance het grootst is in sectoren zoals financiële dienstverlening, life sciences en farmaceutische bedrijven.