Met kunstmatige intelligentie groeit ook het crimineel gebruik ervan

Stel, u wordt gebeld en u hoort uw moeder vragen om hulp – ze is haar pincode vergeten en het briefje kwijt geraakt.

Maar het was uw moeder helemaal niet, blijkt later. Het was een bende boeven die met sophisticated synthesizer software haar stem nabootste.

Science fiction? Misschien. Maar misschien heeft u ook de aankondiging van Deepmind, dochter van Alphabet Inc, moeder van Google gemist. Deepmind (wereldkampioen GO) kondigde een nieuwe toepassing aan, die  “mimics any human voice and which sounds more natural than the best existing text-to-speech systems, reducing the gap with human performance by over 50 percent.”

Met andere woorden, een systeem dat indien gewenst tekst opleest met de stem, aarzelingen en intonatie van uw oude moeder.  En ‘social engineering’ is erkend de meest effectieve truc om mensen zoals uzelf en uw medewerkers (de erkend zwakste schakel in elk beveiligingssysteem) zó te manipuleren, dat u en zij vertrouwelijke informatie doorgeven of frauduleuze betalingen accorderen.

Cyber criminelen zijn er als de kippen bij om het beste in de mens te misbruiken – vooral zijn vertrouwen en haar bereidheid om een ander te helpen. En zelflerende systemen met kunstmatige intelligentie zijn bij uitstek ook geschikt om ‘avatars’ mee te creëren, die u en uw medewerkers online uiterst overtuigend om de tuin zullen leiden, waarschuwt de New York Times. .  

De ironie wil, dat de computer security industrie, met voor dit jaar een geschatte omzet van $75 miljard, dezer dagen de mond vol heeft van de mogelijkheden van analytics, zelflerende machines en patroonherkenning om gegevens- en netwerkbeveiliging effectiever te maken.

Tegelijk wordt steeds duidelijker, dat de cybercriminelen, al dan niet gesteund door ‘vreemde mogendheden’, minstens zo effectief van de nieuwste technologieën gebruik maken. James R. Clapper, directeur van de Amerikaanse National Intelligence, wees er in zijn jaarlijkse security review nog op , dat AI-systemen allerlei zaken mogelijk en gemakkelijker maakten, maar ook de kwetsbaarheid van de online-wereld vergroten. Met saillante voorbeelden.

Ook de CAPTCHA-test— Completely Automated Public Turing test to tell Computers and Humans Apart — is geen struikelblok meer voor intelligente machine vision software. Stemherkenningssystemen als Apple’s Siri, Microsoft’s Cortana, Amazon’s Echo en Facebook’s Messenger chatbot worden steeds vaker en breder ingezet voor online ecommerce en klantondersteuning, en ook daar zal de cybercrimineel dankbaar gebruik van maken.

In a recent research paper beschrijft de socioloog Philip N. Howard hoe politieke chatbots ook nu al in de strijd tussen Trump en Clinton een ‘kleine maar strategische’ rol spelen.  We kunnen erop wachten, dat die technologie ook voor criminele doeleinden wordt ingezet.

nytimes.com

 

Lees voor een nieuwe variant op de CEO-fraude Ronald van het Hof op Euler Hermes DUitsland

Gerelateerde artikelen