Australische advocaat verontschuldigt zich voor AI-gegenereerde fouten in de moordzaak

Jan De Vries

Melbourne – Een senior advocaat in Australië heeft zich verontschuldigd bij een rechter voor het indienen van inzendingen in een moordzaak met nepcitaten en niet -bestaande zaakoordelen die worden gegenereerd door kunstmatige intelligentie.

De blunder in het Hooggerechtshof van Victoria State is een andere in een litanie van ongelukken die AI heeft veroorzaakt in rechtssystemen over de hele wereld.

Aanbevolen video’s



“Het spijt ons zeer en beschaamd voor wat er is gebeurd,” vertelde Nathwani woensdag aan Justice James Elliott namens het verdedigingsteam.

De door AI gegenereerde fouten veroorzaakten een 24-uurs vertraging bij het oplossen van een zaak die Elliott had gehoopt woensdag te concluderen. Elliott oordeelde donderdag dat de cliënt van Nathwani, die niet kan worden geïdentificeerd omdat hij minderjarige is, niet schuldig was aan moord vanwege mentale beperkingen.

“Met het risico van understatement is de manier waarop deze gebeurtenissen zich hebben afgevouwen onbevredigend,” vertelde Elliott donderdag aan advocaten.

“Het vermogen van de rechtbank om te vertrouwen op de nauwkeurigheid van inzendingen die door de raadsman zijn ingediend, is fundamenteel voor de gepaste rechtbank,” voegde Elliott eraan toe.

De nep -inzendingen omvatten gefabriceerde citaten van een toespraak tot de staatswetgever en niet -bestaande zaakcitaten die naar verluidt van het Hooggerechtshof zijn.

De fouten werden ontdekt door de medewerkers van Elliott, die de zaken niet konden vinden en vroegen dat advocaten van de verdediging kopieën verstrekken.

De advocaten gaven de citaten toe “bestaan niet” en dat de inzending “fictieve citaten” bevatte, zeggen gerechtelijke documenten.

De advocaten legden uit dat ze controleerden dat de eerste citaten nauwkeurig waren en ten onrechte aannamen dat de anderen ook correct zouden zijn.

De inzendingen werden ook verzonden naar officier van justitie Daniel Porceddu, die hun nauwkeurigheid niet controleerde.

De rechter merkte op dat het Hooggerechtshof vorig jaar richtlijnen heeft vrijgegeven voor hoe advocaten AI gebruiken.

“Het is niet acceptabel dat kunstmatige intelligentie wordt gebruikt, tenzij het product van dat gebruik onafhankelijk en grondig is geverifieerd,” zei Elliott.

De rechtbankdocumenten identificeren niet het generatieve kunstmatige intelligentiesysteem dat door de advocaten wordt gebruikt.

In een vergelijkbaar geval in de Verenigde Staten in 2023, legde een federale rechter $ 5.000 boetes op aan twee advocaten en een advocatenkantoor nadat CHATGPT de schuld kreeg van hun indiening van fictief juridisch onderzoek in een claim van de luchtvaartletsel.

Rechter P. Kevin Castel zei dat ze te kwader trouw hebben gehandeld. Maar hij heeft hun excuses en corrigerende stappen gecreëerd om uit te leggen waarom strengere sancties niet nodig waren om ervoor te zorgen dat zij of anderen niet opnieuw kunstmatige intelligentie -tools zullen laten vragen om nep -juridische geschiedenis in hun argumenten te produceren.

Later dat jaar werden meer fictieve rechterlijke uitspraken uitgevonden door AI aangehaald in juridische artikelen ingediend door advocaten voor Michael Cohen, een voormalige persoonlijke advocaat voor de Amerikaanse president Donald Trump. Cohen nam de schuld en zei dat hij zich niet realiseerde dat de Google-tool die hij gebruikte voor juridisch onderzoek ook in staat was tot zogenaamde AI-hallucinaties.

Het Britse High Court Justice Victoria Sharp waarschuwde in juni dat het verstrekken van vals materiaal alsof het echt zou worden beschouwd als minachting van de rechtbank of, in de ‘meest egregious zaken’, het versterken van de gerechtigheid, die een maximale levenslange gevangenisstraf heeft.