Einsatz künstlicher Intelligenz: Ein ermordeter Mann „spricht“ im Gerichtssaal während der Urteilsverkündung gegen seinen Mörder.
Es handelt sich vermutlich um eine Weltneuheit: Künstliche Intelligenz ermöglichte es einem ermordeten Mann, bei der Urteilsverkündung seinen Mörder anzusprechen.
Christopher Pelkey wurde vor vier Jahren bei einem Vorfall von Aggression im Straßenverkehr in Chandler, Arizona, erschossen. Doch kürzlich wurde mithilfe künstlicher Intelligenz eine digitale Version des Opfers erstellt, das während des Prozesses eine Aussage machen durfte. Laut einer lokalen Nachrichten-Website. Diese Technologie wirft ethische und rechtliche Fragen hinsichtlich des Einsatzes von KI in Gerichtsverfahren auf.
Die Videopräsentation enthielt auch echte Clips von Belkey, um den Anwesenden ein klareres Bild seines Charakters zu vermitteln. Einige dieser Clips wurden auch verwendet, um Bilkis KI-generiertes Bild zu erstellen, das Sie unten sehen können. Dieser innovative Einsatz künstlicher Intelligenz stellt eine bedeutende Entwicklung in der Art und Weise dar, wie Beweise vor Gericht präsentiert und beeinflusst werden.
Chris Pelkey starb im November 2021 bei einer Schießerei im Zusammenhang mit einem Verkehrsunfall.
Vor Kurzem hat die Familie von Chris ein KI-generiertes Video erstellt, in dem er seine eigene Erklärung zur Auswirkung auf das Opfer abgibt.
Hier ist ein Clip - sehen Sie sich die ganze Geschichte heute Abend an
Chris Pelkey starb im November 2021 bei einer Schießerei aus Wut im Straßenverkehr.
Vor Kurzem hat die Familie von Chris ein KI-generiertes Video erstellt, in dem er seine eigene Erklärung zur Auswirkung auf das Opfer abgibt.
Hier ist ein Clip – sehen Sie die ganze Geschichte heute Abend NUR auf @FOX10Phoenix 📺 pic.twitter.com/JIz6bKuNfU
- Nicole Krasean (@NicoleK_Fox10) May 5, 2025
In dem vor Gericht abgespielten Video sagt die KI-Version von Bilkey: „An Gabriel Horcasitas, den Mann, der mich erschossen hat – es ist eine Schande, dass wir uns an diesem Tag unter diesen Umständen getroffen haben. In einem anderen Leben wären wir vielleicht Freunde gewesen.“
Er fährt fort: „Ich glaube an Vergebung und an Gott, der vergibt. Das habe ich immer getan und tue es immer noch.“
Nachdem Richter Todd Lang das Video gesehen hatte, sagte er: „Ich liebe diese KI. Vielen Dank dafür. Ich hatte das Gefühl, sie sei echt, und seine offensichtliche Vergebung von Herrn Horcasitas spiegelt den Charakter wider, von dem ich heute gehört habe.“
Diese Woche verurteilte ein Richter Horcasitas wegen Totschlags an Chris Pelkey zu 10,5 Jahren Gefängnis.
Es war Chris Pelkeys Schwester Stacey, die auf die Idee kam, mithilfe künstlicher Intelligenz eine exakte Kopie ihres Bruders für den Einsatz vor Gericht zu erstellen. Sie sagte, es sei wichtig gewesen, „dass Chris nicht aussprach, was ich fühlte, sondern dass ich Abstand hielt und ihn reden ließ, weil er Dinge sagte, die ich sonst nie ausgesprochen hätte, aber ich weiß, dass sie es tun würden.“
Ann A. kommentierte. Scott Timmer, Vorsitzender Richter des Obersten Gerichtshofs von Arizona, Das Künstliche Intelligenz hat das Potenzial, „die Effizienz im Justizsystem deutlich zu steigern und juristischen Laien zu helfen, ihre Fälle besser zu präsentieren. Deshalb sind wir vom Potenzial der KI begeistert.“
„Aber KI kann die Justiz behindern oder sogar untergraben, wenn sie unsachgemäß eingesetzt wird“, fügte Timmer hinzu. Ein maßvoller Ansatz ist am besten. In diesem Sinne hat das Gericht eine KI-Kommission eingerichtet, die den Einsatz von KI untersuchen und Empfehlungen für deren optimale Nutzung abgeben soll. Wer KI einsetzt – einschließlich der Gerichte – ist für deren Genauigkeit verantwortlich.
Zwar verleiht der Einsatz von KI auf diese Weise Gerichtsverfahren ein starkes und höchst persönliches Element, doch wirft er auch verschiedene ethische und rechtliche Bedenken hinsichtlich der Authentizität, der emotionalen Wirkung und der angemessenen Anwendung auf. Daher ist es wahrscheinlich, dass andere Gerichte irgendwann Richtlinien für künftige Fälle entwickeln werden, falls sie sich dafür entscheiden, KI-generierte Opferdaten zuzulassen.
Kommentarfunktion ist geschlossen.