Tecnología y sociedad

La IA permite a una víctima de asesinato comparecer en el juicio de su asesino y dirigirse al juez

Un video póstumo generado por IA conmueve a un tribunal estadounidense y reabre el debate sobre el valor legal y ético de la tecnología en la sala de justicia

Reconstrucción del aspecto de Christopher Pelkey para acudir al juicio de su asesino.

Reconstrucción del aspecto de Christopher Pelkey para acudir al juicio de su asesino. / Stacey Wales/YouTube

Redacción T21

Madrid
Por qué confiar en El Periódico Por qué confiar en El Periódico Por qué confiar en El Periódico

La tecnología ha cruzado una nueva frontera en los tribunales de Arizona: por primera vez, la voz y el rostro de una víctima de homicidio “hablaron” ante el juez gracias a la inteligencia artificial. El caso de Christopher Pelkey, asesinado en un incidente de violencia vial, plantea preguntas urgentes sobre la humanidad, la legalidad y el poder emocional de la tecnología en la búsqueda de justicia.

La irrupción de la inteligencia artificial en el proceso penal estadounidense ha alcanzado un nuevo hito con el caso de Christopher Pelkey, un veterano de 37 años asesinado en 2021 en Chandler, Arizona, tras un incidente de violencia vial. Pelkey fue abatido por Gabriel Horcasitas después de una discusión de tráfico que terminó con un disparo mortal en un semáforo en rojo. Tres años y medio después, la voz y el rostro de Pelkey “regresaron” al tribunal, gracias a un video generado por IA que conmovió a todos los presentes y marcó un antes y un después en la forma de presentar el impacto de un crimen en la sala de justicia.

La iniciativa partió de Stacey Wales, hermana de la víctima. Tras recopilar más de 40 declaraciones de familiares y amigos, sintió que faltaba la voz más importante: la de Chris. Junto a su esposo, alimentó un modelo de inteligencia artificial con videos y audios personales de Pelkey, buscando recrear no solo su imagen y voz, sino también su personalidad y valores. El resultado, descrito por Wales como un “Frankenstein de amor”, fue un breve video en el que el avatar digital de Chris se dirigía al juez, agradeciéndole su dedicación, y a su asesino, expresando incluso palabras de perdón y reflexión sobre el fatídico encuentro.

Para la familia, el proceso fue catártico y sanador. El hermano de Pelkey, John, relató que ver y oír a Chris en la sala aportó paz y ayudó a muchos a procesar la pérdida. Para el hijo adolescente de Stacey, fue una oportunidad de despedirse y escuchar una última vez a su tío.

Este es el video presentado en la sala de juicios de Arizona en el que se ve a la víctima de un asesinato "comparecer" en la audiencia y dirigirse al juez y a la sociedad.

¿Qué valor jurídico tiene un video póstumo generado por IA?

El video de Pelkey no fue admitido como prueba en sentido estricto, sino como declaración de impacto de la víctima, una figura habitual en la fase de sentencia en el sistema judicial estadounidense. En este contexto, la ley permite a las familias compartir testimonios, cartas o videos que ayuden al tribunal a comprender el daño causado por el delito. Sin embargo, la novedad radica en que, por primera vez, la “voz” de la víctima fue reconstruida artificialmente.

Expertos legales coinciden en que, en este caso, el uso de IA no presentó objeciones éticas o legales graves, ya que el video no fue utilizado para probar hechos, sino para ilustrar el impacto emocional del crimen ante el juez. Sin embargo, la defensa del acusado presentó una apelación, argumentando que el juez podría haberse dejado influir indebidamente por la carga emocional y la verosimilitud del video, lo que abre el debate sobre el riesgo de que este tipo de recursos afecten la imparcialidad de la sentencia.

En sistemas jurídicos como el español, la admisibilidad de grabaciones como prueba depende de su autenticidad y de que se garantice el derecho de contradicción y defensa. Pero en este caso estadounidense, el video fue considerado parte de la declaración de impacto, no de la prueba pericial ni testimonial, lo que reduce las exigencias de veracidad y autenticidad, aunque no elimina el riesgo de manipulación o de influir en la decisión judicial más allá de los hechos probados.

El impacto tecnológico y humano en la justicia

El juez Todd Lang, tras ver el video, reconoció que la intervención virtual permitió “escuchar el corazón” de la víctima y destacó el perdón expresado, a pesar del dolor de la familia. Finalmente, dictó la pena máxima para Horcasitas: 10 años y medio de prisión por homicidio involuntario, un año más de lo solicitado por la fiscalía.

Este caso abre un debate urgente sobre los límites y posibilidades de la inteligencia artificial en la justicia. Por un lado, la tecnología permite humanizar el proceso y dar voz a quienes ya no pueden hablar. Por otro, plantea interrogantes sobre la autenticidad, la manipulación emocional y la influencia en jueces y jurados, especialmente en un contexto donde la frontera entre realidad y simulación se vuelve cada vez más difusa.