De volgende keer dat u een Zoom-gesprek voert, kunt u de persoon met wie u spreekt vragen om zijn vinger in de zijkant van zijn neus te duwen. Of misschien even een volledig profiel voor de camera inleveren.
Dit zijn slechts enkele van de methoden die experts hebben aanbevolen als manieren om ervoor te zorgen dat u een echt beeld ziet van de persoon met wie u spreekt en niet een imitatie die is gemaakt met deepfake-technologie.
Het klinkt als een vreemde voorzorgsmaatregel, maar we leven in vreemde tijden.
Vorige maand zei een topmanager van de cryptocurrency-uitwisseling Binance dat fraudeurs een geavanceerd deepfake “hologram” van hem hadden gebruikt om verschillende cryptocurrency-projecten op te lichten. Patrick Hillmann, Chief Communications Officer van Binance, zegt dat criminelen de deepfake hadden gebruikt om hem te imiteren tijdens Zoom-gesprekken. (Hillmann heeft geen bewijs geleverd om zijn bewering te staven en sommige experts zijn sceptisch over het gebruik van deepfake. Desalniettemin zeggen beveiligingsonderzoekers dat dergelijke incidenten nu aannemelijk zijn.) In juli waarschuwde de FBI dat mensen deepfakes konden gebruiken in sollicitatiegesprekken via video vergadersoftware. Een maand eerder zeiden verschillende Europese burgemeesters dat ze aanvankelijk voor de gek werden gehouden door een deepfake-videogesprek dat beweerde met de Oekraïense president Volodymyr Zelensky te zijn. Ondertussen heeft een startup genaamd Metaphysic, die deepfake-software ontwikkelt, de finale van “America’s Got Talent” gehaald door opmerkelijk goede deepfakes van Simon Cowell en de andere juryleden van beroemdheden te maken, en andere zangers in realtime te transformeren in de beroemdheden, vlak voor de ogen van het publiek.
Deepfakes zijn extreem overtuigende nep-afbeeldingen en video’s die zijn gemaakt met behulp van kunstmatige intelligentie. Er waren ooit veel afbeeldingen van iemand nodig, veel tijd en een behoorlijke mate van zowel codeervaardigheid als speciale effectenkennis om een geloofwaardige deepfake te creëren. En zelfs als het eenmaal was gemaakt, kon het AI-model niet snel genoeg worden uitgevoerd om in realtime een deepfake te produceren op een live video-uitzending.
Dat is niet langer het geval, want zowel het Binance-verhaal als de Metaphysics “America’s Got Talent”-act benadrukken. In feite wordt het voor mensen steeds gemakkelijker om deepfake-software te gebruiken om zich voor te doen als anderen in live video-uitzendingen. Software waarmee iemand dit kan doen, is nu gemakkelijk en gratis beschikbaar en vereist relatief weinig technische vaardigheden om te gebruiken. En zoals het Binance-verhaal ook laat zien, opent dit de mogelijkheid voor allerlei soorten fraude – en politieke desinformatie.
“Ik ben verrast door hoe snel live deepfakes zijn gekomen en hoe goed ze zijn”, zegt Hany Farid, een computerwetenschapper aan de University of California in Berkeley, een expert in video-analyse en authenticatie. Hij zegt dat er minstens drie verschillende open source-programma’s zijn waarmee mensen live deepfakes kunnen maken.
Farid is een van degenen die zich zorgen maken dat live deepfakes fraude kunnen aanwakkeren. “Dit lijkt op phishing op steroïden”, zegt hij.
De “potloodtest” en andere trucs om een AI-bedrieger te vangen
Gelukkig zeggen experts dat er nog steeds een aantal technieken zijn die een persoon kan gebruiken om zichzelf een redelijke zekerheid te geven dat ze niet communiceren met een deepfake-imitatie. Een van de meest betrouwbare is om gewoon een persoon te vragen zich om te draaien, zodat de camera haar in volledig profiel vastlegt. Deepfakes worstelen om een aantal redenen met profielen. Voor de meeste mensen zijn er niet genoeg profielafbeeldingen beschikbaar om een deepfake-model te trainen om de hoek betrouwbaar te reproduceren. En hoewel er manieren zijn om computersoftware te gebruiken om een profielweergave van een afbeelding aan de voorzijde te schatten, voegt het gebruik van deze software het proces van het maken van de deepfake ingewikkelder toe.
Deepfake-software maakt ook gebruik van “ankerpunten” op het gezicht van een persoon om het deepfake “masker” er goed op te plaatsen. Door 90 graden te draaien, worden de helft van de ankerpunten geëlimineerd, wat er vaak toe leidt dat de software het profielbeeld op vreemde, zeer opvallende manieren vervormt, vervaagt of vervormt.
Yisroel Mirsky, een onderzoeker die aan het hoofd staat van het Offensive AI Lab aan de Ben-Gurion University in Israël, heeft geëxperimenteerd met een aantal andere methoden voor het detecteren van live deepfakes die hij heeft vergeleken met het CAPTCHA-systeem dat door veel websites wordt gebruikt om softwarebots te detecteren (je weet wel, degene die je vraagt om alle afbeeldingen van verkeerslichten uit een foto te kiezen die is opgedeeld in vierkanten). Zijn technieken zijn onder meer mensen tijdens een videogesprek vragen om een willekeurig voorwerp op te pakken en over hun gezicht te bewegen, een voorwerp te laten stuiteren, hun shirt op te tillen en te vouwen, hun haar te strelen of een deel van hun gezicht te maskeren met hun hand. . In elk geval zal de deepfake er niet in slagen om het object weer te geven dat voor het gezicht wordt gepasseerd, of zal de methode ernstige vervorming van het gezichtsbeeld veroorzaken. Voor audiodeepfakes stelt Mirsky voor om de persoon te vragen te fluiten, te proberen met een ongewoon accent te spreken, of een willekeurig gekozen deuntje te neuriën of te zingen.
Afbeelding met dank aan Yisroel Mirsky
“Alle bestaande deepfake-technologieën volgen een zeer vergelijkbaar protocol”, zegt Mirsky. “Ze zijn getraind op heel veel gegevens en die gegevens moeten een bepaald patroon hebben dat je het model leert.” De meeste AI-software wordt geleerd om op betrouwbare wijze het gezicht van een persoon na te bootsen, gezien vanaf de voorkant en kan niet omgaan met schuine hoeken of objecten die het gezicht goed afsluiten.
Ondertussen heeft Farid aangetoond dat een andere manier om mogelijke deepfakes te detecteren is om een eenvoudig softwareprogramma te gebruiken dat ervoor zorgt dat het computerscherm van de andere persoon in een bepaald patroon flikkert of een lichtpatroon projecteert op het gezicht van de persoon die de computer gebruikt. Ofwel zal de deepfake het lichteffect niet overbrengen naar de imitatie of het zal te traag zijn om dit te doen. Een vergelijkbare detectie is mogelijk door iemand te vragen een andere lichtbron te gebruiken, zoals een zaklamp voor een smartphone, om hun gezicht vanuit een andere hoek te verlichten, zegt Farid.
Om realistisch na te bootsen dat iemand iets ongewoons doet, zegt Mirsky dat de AI-software duizenden voorbeelden moet hebben gezien van mensen die dat doen. Maar zo’n dataset verzamelen is lastig. En zelfs als je de AI zou kunnen trainen om op betrouwbare wijze iemand te imiteren die een van deze uitdagende taken uitvoert, zoals een potlood oppakken en het voor hun gezicht doorgeven, zal de deepfake waarschijnlijk nog steeds mislukken als je de persoon vraagt om een heel ander soort object, zoals een mok. En het is ook onwaarschijnlijk dat aanvallers die deepfakes gebruiken een deepfake hebben kunnen trainen om meerdere uitdagingen te overwinnen, zoals zowel de potloodtest als de profieltest. Elke andere taak, zegt Mirsky, verhoogt de complexiteit van de training die de AI vereist. “Je bent beperkt in de aspecten die je wilt dat de deepfake-software perfectioneert”, zegt hij.
Deepfakes worden steeds beter
Voorlopig suggereren maar weinig beveiligingsexperts dat mensen deze CAPTCHA-achtige uitdagingen moeten gebruiken voor elke Zoom-vergadering die ze nemen. Maar Mirsky en Farid zeiden allebei dat mensen er verstandig aan zouden doen om ze te gebruiken in situaties met een hoge inzet, zoals een telefoongesprek tussen politieke leiders of een vergadering die zou kunnen resulteren in een financiële transactie van hoge waarde. En zowel Farid als Mirsky drongen er bij mensen op aan om zich af te stemmen op andere mogelijke rode vlaggen, zoals audio-oproepen van onbekende nummers of mensen die zich vreemd gedroegen of ongebruikelijke verzoeken deden (zou president Biden echt willen dat je een heleboel Apple-cadeaubonnen voor hem koopt?).
Farid zegt dat mensen voor zeer belangrijke oproepen een soort eenvoudige tweefactorauthenticatie kunnen gebruiken, zoals het verzenden van een sms naar een mobiel nummer waarvan u weet dat het het juiste is voor die persoon, met de vraag of ze nu aan het videobellen zijn met jou.
De onderzoekers benadrukten ook dat deepfakes steeds beter worden en dat er geen garantie is dat het in de toekomst niet veel gemakkelijker voor hen zal worden om een bepaalde uitdaging – of zelfs combinaties daarvan – te ontwijken.
Dat is ook de reden waarom veel onderzoekers het probleem van live deepfakes vanuit het tegenovergestelde perspectief proberen aan te pakken – door een soort digitale handtekening of watermerk te creëren dat zou bewijzen dat een videogesprek authentiek is, in plaats van te proberen een deepfake te ontdekken.
Een groep die zou kunnen werken aan een protocol voor het verifiëren van live videogesprekken is de Coalition for Content Provenance and Authentication (C2PA) – een stichting die zich toelegt op digitale media-authenticatiestandaarden die wordt ondersteund door bedrijven zoals Microsoft, Adobe, Sony en Twitter. “Ik denk dat de C2PA dit zou moeten oppikken omdat ze een specificatie hebben ontwikkeld voor opgenomen video en deze uitbreiden voor live video is een natuurlijke zaak”, zegt Farid. Maar Farid geeft toe dat het geen gemakkelijke technologische uitdaging is om gegevens te verifiëren die in realtime worden gestreamd. “Ik zie niet meteen hoe ik het moet doen, maar het zal interessant zijn om over na te denken”, zegt hij.
Herinner de gasten er in de tussentijd bij je volgende Zoom-gesprek aan om een potlood mee te nemen naar de vergadering.
Schrijf je in voor de Fortune-functies e-maillijst zodat u onze belangrijkste functies, exclusieve interviews en onderzoeken niet mist.
0 Comments