Opkomende gevaren: hoe AI de virtuele ontvoeringsdreiging mogelijk maakt

Betrouwbaarheid
In het kort

Geavanceerde technologieën zoals kunstmatige intelligentie (AI) en machine learning (ML) zijn ontwikkeld om de productiviteit, efficiëntie en het gemak in ons dagelijks leven te verhogen. Helaas zijn deze technologieën ook in handen gevallen van cybercriminelen met kwaadaardige bedoelingen. Virtuele ontvoering is een opkomende vorm van cybercriminaliteit die AI gebruikt om besluitvormingsprocessen te manipuleren en menselijke emoties te manipuleren voor schadelijke doeleinden.

Excuseer ons als we in een beetje Black Mirror-achtig alarmisme over de nabije toekomst duiken, maar dan voor een goed doel.

Uw dochter is op haar eerste schoolreisje en is opgewonden als u haar afzet. Het is een paar uur geleden, u bent weer thuis en uw telefoon gaat; het is uw dochter! Een beetje verrast neemt u de telefoon op.

U bent verrast door een norse en onbeschofte stem van de andere kant: “We hebben uw dochter.” U hoort haar op de achtergrond om hulp roepen.

Ongeloof verandert in shock en dan komt het bevel om $ 50.000 te betalen en uw geest wordt leeg.

Je kiest voor met het overmaken van het geld, om er vervolgens achter te komen dat uw dochter Casey veilig en gelukkig is en geniet van haar reis.

Welkom in de wereld van virtuele ontvoering. Oplichters hebben u zojuist opgelicht.

Wacht, hoe zit het dan met Casey’s stem? Die klonk zo echt

Welkom in de wereld waarin iemands stem – dood of levend – in seconden kan worden gegenereerd.

Het bestaat al voor verschillende use cases. Laten we Podcast.ai nemen, dat podcasts genereert met kunstmatige intelligentie (AI): de host en gasten zijn virtueel en kunnen iedereen zijn – live op de radio zijn Joe Rogan en Steve Jobs.

Ondertussen vertaalt Spotify zijn populairste podcasts naar andere talen – met de stemmen van de oorspronkelijke podcaster intact.

Volgens Subbarao Kambhampati, een professor computerwetenschappen aan de Arizona State University die gespecialiseerd is in AI, zijn de mogelijkheden tot het klonen van stemmen met AI snel verbeterd.

“In het begin zou het een grotere hoeveelheid samples vereisen. Nu zijn er manieren waarop je dit kunt doen met slechts drie seconden van je stem. Drie seconden. En met die drie seconden kan het in de buurt komen van hoe je precies klinkt.

 

“Het grootste deel van het stemklonen legt eigenlijk zowel de intonatie als de emotie vast. Hoe groter het monster, hoe beter u die kunt vastleggen.

En als het verhaal dat we u bovenaan het artikel vertelden te hypothetisch klinkt om waar te zijn, dan komen de citaten uit een verhaal waarin een moeder uit Arizona een telefoontje kreeg van een voice-kloon waarin een losgeld van een miljoen dollar werd geëist voor de terugkeer van haar dochter — terwijl haar dochter vrolijk op dansles zat.

Hoe werkt stemklonen?

Als je al kennis hebt van videodeepfakes, beschouw AI-stemkloningssoftware dan als de auditieve tegenhanger. Met slechts een fragment van opgenomen spraak kunnen ontwikkelaars een audiodataset samenstellen en deze gebruiken om een ​​AI-stemmodel te trainen dat de doelstem kan repliceren.

Deze modellen bootsen het leerproces van de hersenen na en vertonen een opmerkelijke efficiëntie bij het onderscheiden van patronen in data. Hoewel er verschillende benaderingen bestaan ​​voor het toepassen van deep learning op synthetische stemmen, leveren ze over het algemeen verbeteringen op in de uitspraak van woorden en de genuanceerde aspecten van spraak, zoals snelheid en intonatie, wat resulteert in meer levensechte en menselijk klinkende stemmen.

Volgens Dan Mayo, een speciaal agent bij de FBI, vinden oplichters hun prooi op sociale media. Sociale media staan ​​inderdaad vol met video- en audioclips en hun eigenaren zijn makkelijke prooien.

Mayo stelde voor: “Je moet dat spul op slot houden. Het probleem is dat als je het openbaar maakt, je jezelf laat oplichten door dit soort mensen, omdat ze op zoek gaan naar openbare profielen met zoveel mogelijk informatie over je, en als ze die te pakken krijgen, gaan ze zich in je verdiepen.”

Conclusie

De snelle verbetering van AI-stemklonen weerspiegelt de halsbrekende snelheid van AI-ontwikkeling en roept het onderwerp ethiek, geheimhouding en beveiliging op.

AI is ongetwijfeld bezig met een aanval op onze privacy en beveiliging, en er is nog geen oplossing.

Eén ding dat we kunnen doen, is voorzichtiger zijn: we zijn misschien zachtjes in slaap gewandeld in een wereld waarin we ons privéleven met plezier aan de wereld blootstellen via sociale media.

We kunnen onmogelijk veel doen om de vooruitgang van AI te vertragen, maar we kunnen zeker voorzichtiger zijn met het delen van onze privé-informatie.

Oplichters zullen altijd nieuwe manieren vinden, maar we moeten waakzaam zijn.

Referenties

Gerelateerde begrippen

Gerelateerde artikelen

Kaushik Pal
Technisch Architect
Kaushik Pal
Technisch Architect

Kaushik is een technisch architect en software consultant met meer dan 20 jaar ervaring in software analyse, ontwikkeling, softwarearchitectuur, ontwerp, testen en training. Hij is geïnteresseerd in nieuwe technologieën en innovatiegebieden. Hij richt zich op webarchitectuur, webtechnologieën, Java/J2EE, open source, WebRTC, Big Data en semantische technologieën. Kaushik is ook de oprichter van TechAlpine, een technologieblog/consultancy gevestigd in Kolkata. Het team van TechAlpine werkt voor verschillende klanten in India en daarbuiten. Het team heeft expertise in Java/J2EE/Open Source/Web/WebRTC/Hadoop/Big Data technologieën en het schrijven van technische artikels.