En Minority Report (2002), protagonizada por Tom Cruise y basada en un relato corto de Philip K. Dick, se habla de la instauración del sistema PreCrimen, basado en el uso de tres hermanos con habilidades precognitivas capaces de predecir un delito antes de que se cometa.
Encontrar un método para predecir si un criminal reincidirá o no es algo que todas las sociedades querrían. En Estados Unidos han sido pioneros en hallarlo: desde 1998, sus juzgados utilizan un programa llamado COMPAS. Se trata de un sofisticado algoritmo al que se atribuye la capacidad de predecir la probabilidad de que un delincuente vuelva a delinquir en el futuro.
Este software, comercializado por la empresa Northpointe y que se ha empleado para evaluar a más de un millón de delincuentes, tiene como objetivo predecir el riesgo de que un acusado cometa un delito dentro de los dos años posteriores a su evaluación teniendo en cuenta 137 parámetros diferentes del individuo, entre los que se encuentran sus antecedentes penales.
Sin embargo, entregar el control de algo tan crucial como el futuro de la vida de una persona a las máquinas puede resultar peligroso, porque, según los resultados de un nuevo análisis llevado a cabo por un equipo de investigadores del Dartmouth College –universidad privada ubicada en Hanover, Nuevo Hampshire (EE. UU.)–, el algoritmo falla tanto como una persona elegida al azar y que tenga pocos o ningún conocimiento en el ámbito criminalístico.
Para llegar a sus conclusiones, trabajaron con una muestra de mil convictos y llevaron a cabo una comparación de la capacidad predictiva del software en relación con la de personas de carne y hueso –unas quinientas personas sin ninguna preparación legal y a las que se sometió a una encuesta online–. Fallaron en similar proporción (en torno a ese 65%), y eso que los humanos disponían de mucha menos información que COMPAS, ya que solo valoraron siete parámetros, en lugar de 137.
Además, una investigación llevada a cabo en mayo de 2016 por ProPublica –agencia de noticias independiente y sin ánimo de lucro, con sede en Manhattan– señalaba que, aunque los parámetros empleados por COMPAS no incluyen la raza de los sujetos, otros de los datos que recopila y que están correlacionados con esta característica conducen a que el algoritmo pueda caer en un sesgo racista por el que se ven perjudicados los individuos afroamericanos –predice que reincidirán más de lo que luego lo harán–, mientras que los blancos se ven beneficiados –en este caso, predice que reincidirán menos de lo que lo hacen–. Llegaron a esta conclusión tras analizar la eficacia del software en más de 7.000 personas arrestadas en el condado de Broward (Florida) entre los años 2013 y 2014.