Anthropic waarschuwt voor een AI-gestuurde hackcampagne die verband houdt met China

Jan De Vries

WASHINGTON – Een team van onderzoekers heeft ontdekt wat volgens hen het eerste gerapporteerde gebruik van kunstmatige intelligentie is om een ​​hackcampagne op grotendeels geautomatiseerde wijze aan te sturen.

Het AI-bedrijf Anthropic zei deze week dat het een cyberoperatie verstoorde die zijn onderzoekers aan de Chinese overheid koppelden. De operatie omvatte het gebruik van een kunstmatig intelligentiesysteem om de hackcampagnes te sturen, wat onderzoekers een verontrustende ontwikkeling noemden die het bereik van met AI uitgeruste hackers aanzienlijk zou kunnen vergroten.

Aanbevolen video’s



Hoewel zorgen over het gebruik van AI om cyberoperaties aan te sturen niet nieuw zijn, is het zorgwekkende aan de nieuwe operatie de mate waarin AI een deel van het werk kon automatiseren, aldus de onderzoekers.

“Hoewel we voorspelden dat deze mogelijkheden zouden blijven evolueren, viel ons op hoe snel ze dit op grote schaal hebben gedaan”, schreven ze in hun rapport.

De operatie was gericht op technologiebedrijven, financiële instellingen, chemische bedrijven en overheidsinstanties. De onderzoekers schreven dat de hackers “ongeveer dertig mondiale doelen aanvielen en in een klein aantal gevallen slaagden.” Anthropic ontdekte de operatie in september en ondernam stappen om de operatie stop te zetten en de betrokken partijen op de hoogte te stellen.

Anthropic merkte op dat hoewel AI-systemen steeds vaker worden gebruikt in verschillende omgevingen voor werk en vrije tijd, ze ook kunnen worden bewapend door groepen te hacken die voor buitenlandse tegenstanders werken. Het in San Francisco gevestigde bedrijf, maker van de generatieve AI-chatbot Claude, is een van de vele technologieontwikkelaars die AI-agenten pitchen die verder gaan dan de mogelijkheden van een chatbot om toegang te krijgen tot computerhulpmiddelen en namens iemand acties te ondernemen.

“Agenten zijn waardevol voor het dagelijkse werk en de productiviteit – maar in de verkeerde handen kunnen ze de levensvatbaarheid van grootschalige cyberaanvallen aanzienlijk vergroten”, concluderen de onderzoekers. “Deze aanvallen zullen waarschijnlijk alleen maar in effectiviteit toenemen.”

Een woordvoerder van de Chinese ambassade in Washington heeft niet onmiddellijk een bericht teruggestuurd met het verzoek om commentaar op het rapport.

De Amerikaanse tegenstanders, maar ook criminele bendes en hackbedrijven, hebben het potentieel van AI uitgebuit door het te gebruiken om cyberaanvallen te automatiseren en te verbeteren, om opruiende desinformatie te verspreiden en om gevoelige systemen binnen te dringen. AI kan slecht geformuleerde phishing-e-mails bijvoorbeeld vertalen naar vloeiend Engels, maar ook digitale klonen van hoge overheidsfunctionarissen genereren.

Anthropic zei dat de hackers Claude konden manipuleren met behulp van ‘jailbreaking’-technieken waarbij een AI-systeem werd misleid om de vangrails tegen schadelijk gedrag te omzeilen, in dit geval door te beweren dat ze werknemers waren van een legitiem cyberbeveiligingsbedrijf.

“Dit wijst op een grote uitdaging met AI-modellen, en deze beperkt zich niet tot Claude, namelijk dat de modellen onderscheid moeten kunnen maken tussen wat er feitelijk aan de hand is met de ethiek van een situatie en het soort rollenspelscenario’s dat hackers en anderen misschien willen bedenken”, zegt John Scott-Railton, senior onderzoeker bij Citizen Lab.

Het gebruik van AI om cyberaanvallen te automatiseren of te sturen zal ook kleinere hackgroepen en lone wolf-hackers aanspreken, die AI zouden kunnen gebruiken om de schaal van hun aanvallen uit te breiden, aldus Adam Arellano, veld-CTO bij Harness, een technologiebedrijf dat AI gebruikt om klanten te helpen de softwareontwikkeling te automatiseren.

“De snelheid en automatisering van de AI zijn een beetje eng”, zegt Arellano. “In plaats van dat een mens met goed ontwikkelde vaardigheden verharde systemen probeert te hacken, versnelt de AI die processen en overwint hij consistenter obstakels.”

AI-programma’s zullen ook een steeds belangrijkere rol spelen bij de verdediging tegen dit soort aanvallen, zei Arellano, waarmee wordt aangetoond hoe AI en de automatisering die het mogelijk maakt beide partijen ten goede zullen komen.

De reacties op de onthulling van Anthropic waren gemengd: sommigen zagen het als een marketingtruc voor de aanpak van Anthropic om cyberveiligheid te verdedigen, terwijl anderen de wake-up call verwelkomden.

“Dit gaat ons – sneller dan we denken – vernietigen als we morgen niet van AI-regulering een nationale prioriteit maken”, schreef de Amerikaanse senator Chris Murphy, een democraat uit Connecticut, op sociale media.

Dat leidde tot kritiek van Meta’s hoofd AI-wetenschapper Yann LeCun, een voorstander van de open-source AI-systemen van het Facebook-moederbedrijf die, in tegenstelling tot die van Anthropic, hun belangrijkste componenten openbaar toegankelijk maken op een manier die sommige voorstanders van AI-veiligheid te riskant achten.

“Je wordt gespeeld door mensen die toezicht willen houden”, schreef LeCun in een antwoord aan Murphy. “Ze maken iedereen bang met dubieuze onderzoeken, zodat open source-modellen uit het bestaan ​​worden gereguleerd.”

__

O’Brien rapporteerde vanuit Providence, Rhode Island.