Publicité
L'article provient de TVA Nouvelles
Monde

Un homme décédé dans un incident de rage au volant témoigne en cour grâce à l’IA

Illustration ADOBE STOCK
Partager

Agence QMI

2025-05-10T07:50:28Z
2025-05-10T13:35:00Z
Partager

La sœur d’un homme abattu lors d’un épisode de rage au volant a utilisé l’intelligence artificielle (IA) pour que son frère livre sa déclaration d’impact en cour.

• À lire aussi: L’IA peut-elle remplacer un psy?

• À lire aussi: Robots et intelligence artificielle: doit-on absolument aimer des personnes?

• À lire aussi: Tendance inquiétante: des hommes utilisent Grok pour déshabiller des femmes sur X

Stacey Wales et son mari ont créé, à l’aide de l’IA, une vidéo de Christopher Pelkey, tué par balle en 2021 dans un incident de rage au volant, afin de la diffuser lors de l’audience de son meurtrier.

Après avoir passé deux ans à rédiger une déclaration d’impact qu’elle envisageait de livrer en cour, Mme Wales s’est finalement résolue à donner la parole à son frère.

Le script de la vidéo, bien que rédigé par Mme Wales et son mari, reflète l’humanité et la pensée du défunt. Par exemple, Pelkey accorde le pardon à son assassin dans sa déclaration fabriquée par l’IA, ce que sa sœur n’est pas prête à faire.

Capture d'écran Youtube / NewsNation
Capture d'écran Youtube / NewsNation

«Je devais faire attention de me détacher de la situation afin de correctement écrire au nom de Christopher, car ce qu’il dit n’est pas nécessairement ce que je pense», a déclaré Mme Wales à CNN.

Le juge Todd Lang, de la Cour supérieure du comté de Maricopa, en Arizona, a «adoré [la déclaration d’impact] élaborée par l’IA». Il a finalement condamné le tueur de Pelkey à 10 ans et demi de prison pour homicide involontaire. L’État avait réclamé une peine de 9 ans et demi.

«Malgré que votre colère et celle de votre famille soient justifiées, j’entends votre pardon», peut-on entendre dire le juge Lang à l’endroit de la version numérique de Pelkey, dans un enregistrement de l’audience.

L’IA, qui prend de plus en plus de place dans la sphère judiciaire, soulève des questions quant à son rôle en cour.

Dans une affaire distincte survenue à New York le mois dernier, un juge d’appel a rapidement mis fin à la tentative d’un plaignant de faire plaider son affaire par un avatar généré par l’IA, sans préciser de prime abord qu’il ne s’agissait pas d’une personne réelle.

Plus récemment, un panel judiciaire a mis de l’avant la semaine dernière un projet de loi qui obligerait les preuves générées par l’IA à répondre aux mêmes normes de fiabilité que les preuves fournies par des experts humains, selon ce que rapporte l’agence de presse britannique Reuters.

Publicité
Publicité