WASHINGTON – De telefoon gaat over. Het is de staatssecretaris. Of is het?
Voor insiders in Washington is het zien en horen niet meer geloofd, dankzij een golf van recente incidenten waarbij deepfakes betrokken zijn, die zich voordoen als topambtenaren in de regering van president Donald Trump.
Aanbevolen video’s
Digitale nep komt ook voor het Amerikaanse bedrijfsleven, omdat criminele bendes en hackers geassocieerd met tegenstanders, waaronder Noord-Korea, synthetische video en audio gebruiken om CEO’s en sollicitatiegesprekken op laag niveau te gebruiken om toegang te krijgen tot kritieke systemen of zakelijke geheimen.
Dankzij de vooruitgang in kunstmatige intelligentie is het creëren van realistische deepfakes eenvoudiger dan ooit, waardoor beveiligingsproblemen voor overheden, bedrijven en particulieren worden veroorzaakt en vertrouwen de meest waardevolle valuta van het digitale tijdperk maakt.
Reageren op de uitdaging vereist wetten, betere digitale geletterdheid en technische oplossingen die AI met meer AI bestrijden.
“Als mensen zijn we opmerkelijk gevoelig voor bedrog,” zei Vijay Balasubramaniyan, CEO en oprichter van het technologiebedrijf Pindrop Security. Maar hij gelooft dat oplossingen voor de uitdaging van deepfakes binnen handbereik kunnen zijn: “We gaan terugvechten.”
AI Deepfakes worden een nationale veiligheidsdreiging
Deze zomer gebruikte iemand AI om een diepgang van staatssecretaris Marco Rubio te creëren in een poging om ministers van Buitenlandse Zaken, een Amerikaanse senator en een gouverneur te bereiken over tekst, voicemail en de Signal Messaging -app.
In mei impliceerde iemand als stafchef van Trump, Susie Wiles.
Een andere nep die Rubio was eerder dit jaar in een diepgang opgedoken en zei dat hij de toegang van Oekraïne tot de Starlink Internet Service van Elon Musk wilde afsnijden. De regering van Oekraïne heeft later de valse claim weergegeven.
De implicaties van de nationale veiligheid zijn enorm: mensen die denken dat ze chatten met Rubio of Wiles, bijvoorbeeld, kunnen gevoelige informatie over diplomatieke onderhandelingen of militaire strategie bespreken.
“U probeert gevoelige geheimen of competitieve informatie te extraheren of u gaat achter toegang, naar een e -mailserver of een ander gevoelig netwerk,” zei Kinny Chan, CEO van het cybersecuritybedrijf QID, over de mogelijke motivaties.
Synthetische media kunnen ook gericht zijn op het veranderen van gedrag. Vorig jaar ontvingen Democratische kiezers in New Hampshire een Robocall die hen aanspoorde om niet te stemmen in de komende primary van de staat. De stem op de oproep klonk verdacht als toenmalige president Joe Biden, maar werd eigenlijk gemaakt met behulp van AI.
Hun vermogen om te bedriegen maakt AI Deepfakes een krachtig wapen voor buitenlandse acteurs. Zowel Rusland als China hebben desinformatie gebruikt als propaganda gericht op Amerikanen als een manier om vertrouwen in democratische allianties en instellingen te ondermijnen.
Steven Kramer, de politieke consultant die toegaf dat hij de nep Biden Robocalls stuurde, zei dat hij een boodschap wilde sturen van de gevaren die Deepfakes aan het Amerikaanse politieke systeem vormden. Kramer werd vorige maand vrijgesproken van beschuldigingen van kiezersonderdrukking en imiteerde zich voor een kandidaat.
“Ik deed wat ik deed voor $ 500,” zei Kramer. “Kun je je voorstellen wat er zou gebeuren als de Chinese regering zou besluiten dit te doen?”
Oplichters richten zich op de financiële sector met diepe
De grotere beschikbaarheid en verfijning van de programma’s betekent dat deepfakes in toenemende mate worden gebruikt voor bedrijfsspionage en tuinvariëteit fraude.
“De financiële sector heeft gelijk in het vizier”, zegt Jennifer Ewbank, een voormalig adjunct -directeur van de CIA die werkte aan cybersecurity en digitale bedreigingen. “Zelfs personen die elkaar kennen, zijn overtuigd om enorme sommen geld over te dragen.”
In de context van bedrijfsspionage kunnen ze worden gebruikt om CEO’s voor te doen als werknemers vragen om wachtwoorden of routeringsnummers over te dragen.
Diepfakes kunnen oplichters ook in staat stellen om banen aan te vragen – en ze zelfs te doen – onder een veronderstelde of nep -identiteit. Voor sommigen is dit een manier om toegang te krijgen tot gevoelige netwerken, om geheimen te stelen of ransomware te installeren. Anderen willen gewoon het werk en werken mogelijk tegelijkertijd een paar vergelijkbare banen bij verschillende bedrijven.
Autoriteiten in de VS hebben gezegd dat duizenden Noord -Koreanen met informatietechnologievaardigheden zijn verzonden om in het buitenland te wonen, met behulp van gestolen identiteiten om banen te verkrijgen bij technologiebedrijven in de VS en elders. De werknemers krijgen toegang tot bedrijfsnetwerken en een salaris. In sommige gevallen installeren de werknemers ransomware die later kan worden gebruikt om nog meer geld af te persen.
De regelingen hebben miljarden dollars gegenereerd voor de Noord -Koreaanse regering.
Binnen drie jaar wordt naar verwachting maar liefst 1 op de 4 sollicitaties nep, volgens onderzoek van Adaptive Security, een cybersecuritybedrijf.
“We zijn een tijdperk ingegaan waarin iedereen met een laptop en toegang tot een open-source model overtuigend zich kan voordoen als een echte persoon,” zei Brian Long, de CEO van Adaptive. “Het gaat niet langer om hacksystemen – het gaat over het hacken van vertrouwen.”
Experts implementeren AI om terug te vechten tegen AI
Onderzoekers, experts op het gebied van openbare beleid en technologiebedrijven onderzoeken nu de beste manieren om de economische, politieke en sociale uitdagingen aan te pakken die door deepfakes worden gesteld.
Nieuwe voorschriften kunnen eisen dat technologiebedrijven meer doen om deperken op hun platforms te identificeren, te labelen en mogelijk te verwijderen. Wetgevers kunnen ook grotere straffen opleggen aan degenen die digitale technologie gebruiken om anderen te misleiden – als ze kunnen worden gepakt.
Grotere investeringen in digitale geletterdheid kunnen ook de immuniteit van mensen tot online bedrog vergroten door hen manieren te leren om nepmedia te herkennen en te voorkomen dat ze ten prooi vallen aan oplichters.
Het beste hulpmiddel voor het vangen van AI kan een ander AI -programma zijn, een getraind om de kleine fouten in deepfakes te snuiven die door een persoon onopgemerkt zouden blijven.
Systemen zoals Pindrop’s analyseren miljoenen datapunten in de toespraak van elke persoon om snel onregelmatigheden te identificeren. Het systeem kan worden gebruikt tijdens sollicitatiegesprekken of andere videoconferenties om te detecteren of de persoon bijvoorbeeld spraakkloneringssoftware gebruikt.
Soortgelijke programma’s kunnen op een dag alledaags zijn, op de achtergrond draaien als mensen online met collega’s en geliefden chatten. Op een dag kan Deepfakes de weg van e -mailspam gaan, een technologische uitdaging die ooit dreigde het nut van e -mail te versterken, zei Balasubramaniyan, CEO van Pindrop.
“Je kunt de defaitistische weergave innemen en zeggen dat we ondergeschikt zijn aan desinformatie,” zei hij. “Maar dat gaat niet gebeuren.”