7 risico’s die samengaan met de snelle groei van AI
Het onderzoek werd uitgevoerd door Sharp Europe onder 2.500 bedrijfsleiders van bedrijven met 50 tot 250 medewerkers in Nederland, België, Frankrijk, Duitsland, Oostenrijk, Zwitserland, Polen, Zweden, Spanje en het Verenigd Koninkrijk, waaronder 250 in Nederland.
Bijna 60 procent van de mkb-bedrijven verwacht de komende drie jaar aanzienlijk te investeren in cloudcapaciteit, procesautomatisering en nieuwe AI-toepassingen. Bestuurders spelen daarbij een actieve rol: 71 procenty van de mkb-bestuurders maakt zelf gebruik van AI in besluitvorming.
Oplopende risico’s
De snelle groei in adoptie en investeringen gaat echter gepaard met oplopende risico’s rond toezicht en ongecontroleerd gebruik van AI-tools, zo waarschuwt Sharp. Ook ontstaat er een kloof tussen formeel beleid en feitelijk gebruik. Hoewel 97 procent van de bedrijven een AI-policy heeft, gebruikt bijna de helft van de medewerkers (46,8%) AI-tools zonder dit te melden.
Deze vorm van shadow AI wijst op een gebrek aan zicht op welke systemen worden ingezet en welke risico’s dat met zich meebrengt voor dataveiligheid, compliance en operationele continuïteit.
1. Wanneer medewerkers bedrijfsvertrouwelijke informatie (zoals klantgegevens, financiële cijfers of broncode) in externe AI-tools plakken, kan die informatie onbedoeld worden opgeslagen, gedeeld of zelfs gebruikt voor training van de AI-modellen van de leverancier. Dit kan leiden tot datalekken en verlies van controle over vertrouwelijke data.
2. Daarnaast kan shadow AI leiden tot privacy- en complianceproblemen leiden, zoals een onbedoelde schending van de Europese AI-wetgeving, de AI Act. Bedrijven missen vaak zicht op wat er gebeurt, wat kan leiden totboetes of juridische aansprakelijkheid.
3. Daarnaast neemt het risico op cybercrime toe. Ongeautoriseerde AI-tools worden niet door IT-teams gecontroleerd en missen vaak essentiële beveiligingsmaatregelen zoals encryptie, toegangscontrole of patching. Dit vergroot de kans op ransomware-aanvallen
4. Ongecontroleerd gebruik van AI-modellen kan leiden tot hallucinaties (fouten in output), bias of andere onnauwkeurigheden.Als medewerkers deze fouten gebruiken voor beslissingen zonder validatie, kunnen datavergissingen, verkeerde analyses of zelfs blunders ontstaan.
5. Slecht governance is het vijfde risico van shadow AI, omdat die buiten IT-controle valt. Security-teams zien dan niet wie de tools gebruikt, wat voor data er naartoe gaan en hoe resultaten worden opgeslagen en verwerkt. Dat maakt toezicht, auditing en risicoanalyse bijna onmogelijk.
6. Wanneer klanten of partners ontdekken dat gevoelige informatie is blootgesteld, kan dat reputatieschade veroorzaken. Klanten kunnen hierdoor afhaken.
7. Tenslotte kan shadow AI leiden tot hoge kosten als gevolg van het ongeoorloofd dupliceren van tools en abonnementen, extra uitgaven voor IT-beheer- en beveiligingskosten en extra inspanningen om incidenten op te lossen.