Inteligencia

 

Raquel Borges Blázquez
Profesora Ayudante Doctora
Universitat de València

 

Inteligencia artificial y proceso penal

Prólogo

Elena Martínez García

 

 

frn_fig_001

 

 

Primera edición, 2021

 

El editor no se hace responsable de las opiniones recogidas, comentarios y manifestaciones vertidas por los autores. La presente obra recoge exclusivamente la opinión de su autor como manifestación de su derecho de libertad de expresión.

La Editorial se opone expresamente a que cualquiera de las páginas de esta obra o partes de ella sean utilizadas para la realización de resúmenes de prensa.

Cualquier forma de reproducción, distribución, comunicación pública o transformación de estaobra solo puede ser realizada con la autorización de sus titulares, salvo excepción prevista por laley. Diríjase a CEDRO (Centro Español de Derechos Reprográficos) si necesita fotocopiar o escanear algún fragmento de esta obra (www.conlicencia.com; 91 702 19 70 / 93 272 04 45).

Por tanto, este libro no podrá ser reproducido total o parcialmente, ni transmitirse por procedimientos electrónicos, mecánicos, magnéticos o por sistemas de almacenamiento y recuperación informáticos o cualquier otro medio, quedando prohibidos su préstamo, alquiler o cualquier otra forma de cesión de uso del ejemplar, sin el permiso previo, por escrito, del titular o titulares del copyright.

Thomson Reuters y el logotipo de Thomson Reuters son marcas de Thomson Reuters

Aranzadi es una marca de Thomson Reuters (Legal) Limited

 

© 2021 [Thomson Reuters (Legal) Limited / Raquel Borges Blázquez]

© Portada: Thomson Reuters (Legal) Limited

 

Editorial Aranzadi, S.A.U.

Camino de Galar, 15

31190 Cizur Menor (Navarra)

ISBN: 978-84-1390-451-1

DL NA 677-2021

Printed in Spain. Impreso en España

Fotocomposición: Editorial Aranzadi, S.A.U.

Impresión: Rodona Industria Gráfica, SL

Polígono Agustinos, Calle A, Nave D-11

31013 – Pamplona

 

 

“Aún hay tiempo para decirles a los algoritmos que nosotros no somos la suma imprecisa e incompleta de nuestros comportamientos”

Dominique Cardon, 2018.

 

 

A mis padres, porque nunca dejen de mirarme del modo en que lo hacen.

Sumario

 

Agradecimientos

Prólogo

Abreviaturas

Capítulo I
Inteligencia artificial: de la utopía a la distopía

I.   El espacio virtual como reflejo del espacio físico

1. La cuarta revolución industrial y el petróleo del siglo XXI

2. La otra cara de la Inteligencia Artificial: el cibercrimen

II.  De la utopía a la distopía

1. ¿Qué es la Inteligencia Artificial?

2. Mitos y falsas creencias

3. La trampa de la neutralidad. Precisiones conceptuales y su interés para el derecho (sustantivo y procesal) penal

III.  ¿Cómo funcionan los algoritmos?

1. Machine Learning y niveles de autonomía

2. Predictive Justice Software

IV.  Sistemas de Inteligencia Artificial y crimen

1. En materia policial

2. En materia judicial

Capítulo II
Luces y sombras del uso de la inteligencia artificial en el proceso penal

I.   Bias In, Bias Out: predecir el futuro mirando al pasado

1. A propósito del caso Loomis

2. Machine Bias: un pasado con desigualdades proyecta un futuro desigual

3. Los algoritmos predictivos en la toma de decisiones judiciales

II.  El uso de la Inteligencia Artificial en el proceso penal y el ¿regreso? de Lombroso

1. La escuela positivista italiana y el delincuente “nato”

2. Los pronósticos de criminalidad y reincidencia: el uso de sistemas algorítmicos para la valoración del riesgo

III.  Más sombras que luces

IV.  Una luz en la oscuridad: retos de la inteligencia artificial en el proceso penal

1. European Ethical Charter on the use of Artificial Intelligence in Judicial Systems and their Environment

1.1. Respeto a los derechos fundamentales

1.2. No discriminación

1.3. Calidad y seguridad

1.4. Transparencia, imparcialidad y justicia

1.5. Principio “bajo control del usuario”

2. Artificial Intelligence in Society

3. Libro Blanco sobre la Inteligencia Artificial. Un enfoque europeo orientado a la excelencia y la confianza

4. Progreso tecnológico y derechos humanos

Capítulo III
El uso de la inteligencia artificial en la fase policial

I.   Policía predictiva en España

1. La gestión de la seguridad pública

2. El cambio de paradigma: de la reacción a la prevención

3. La falta de transparencia y la perpetuación de sesgos

4. Alarma social: prevención y ¿predicción?

II.  Sistemas de Inteligencia Artificial utilizados por la policía española

1. Patrullaje y Sistemas de Información Geográfica (SIG)

2. VERIPOL

3. CATT (Chat Analysis Triage Tool) y la lucha contra la pedofilia

4. Captación y radicalización de internos en centros penitenciarios

5. Búsqueda de personas desaparecidas

6. VIOGÉN

6.1. Funcionamiento de VIOGÉN

6.1.1. Valoración Policial del Riesgo (VPR) y Valoración Policial de la Evolución del Riesgo (VPER)

6.1.2. VPR 5.0-H. La valoración del riesgo de violencia mortal

6.2. ¿Por qué aplicar la perspectiva de género en el uso de la Inteligencia Artificial en la justicia?

6.3. Referencia a la sentencia de la Audiencia Nacional de 30 de septiembre de 2020

III.  Distintos niveles de garantías: fase policial vs fase judicial

Capítulo IV
Inteligencia artificial y proceso penal español

I.   Los principios del procedimiento y del proceso y la Inteligencia Artificial, ¿un buen maridaje?

1. Los principios del procedimiento

1.1. Inmediación

1.2. Concentración

1.3. Publicidad

2. Los principios del proceso

2.1. Dualidad de posiciones

2.2. Contradicción

2.3. Igualdad

II.  La e-Justicia en España: cómo, cuándo, dónde y por qué

1. El papel cero

2. El expediente judicial electrónico

3. Ventanilla única judicial

4. El uso de sistemas expertos en la fase de decisión

III.  El uso del Big Data en el proceso

1. Big Data y diligencias de investigación: datos públicos vs datos privados

2. Principio de necesidad y control judicial

3. Big Data y predicción

IV.  Prueba científica como prueba ¿de cargo?

1. Neurociencia y derecho penal (sustantivo y procesal)

2. La onda P300 y la fMRI (Functional Magnetic Resonance Imaging)

2.1. La onda P300

2.1.1. Funcionamiento

2.1.2. Problemática práctica y su uso en nuestro sistema judicial

2.2. La fMRI

3. ¿Es posible detectar las mentiras con una prueba neurocientífica?

4. Validez científica vs validez jurídica

4.1. El estándar Daubert

4.2. El derecho a guardar silencio y a no declarar contra uno mismo

4.3. El derecho a la intimidad

4.4. Un avance no exento de riesgos

5. La prueba testifical: crónica de una muerte anunciada

V.  ¿Cada vez más cerca del juez robot?

1. El artículo 117.3 CE como cortapisa

2. El cribado de datos

3. ¿El fin de la motivación?

4. La Inteligencia Artificial como herramienta de asistencia y auxilio a los operadores jurídicos

Bibliografía utilizada y citada

Jurisprudencia

I.   Tribunales nacionales

1. Tribunal Constitucional

2. Tribunal Supremo

3. Audiencia Nacional

4. Tribunal Superior de Justicia

5. Audiencia Provincial

6. Juzgado Violencia sobre la Mujer

7. Juzgado de Instrucción

II.  Tribunal Europeo de Derechos Humanos

III.  Tribunales extranjeros

1. Estados Unidos

2. Canadá

Agradecimientos

 

Empecé el trabajo de investigación del que surge la presente obra durante la realización de la que fue mi primera (y, por ahora, única) estancia postdoctoral en el instituto Max Planck für ausländisches öffentliches Recht und Völkerrecht (Heidelberg) con una beca de la Fundación Manuel Serra Domínguez. Debido a la situación de emergencia sanitaria que estamos viviendo no conocí la ciudad en sus mejores circunstancias. Las bromas sobre la situación que se escuchaban en los pasillos a mi llegada dieron paso a la incertidumbre y al miedo para finalmente dejar un espacio de reflexión. Esto fue en marzo de 2020. Un año después, escribo los agradecimientos de este libro con España sumida en Estado de Alarma y Valencia con toque de queda a las diez de la noche debido a la situación de emergencia sanitaria que estamos atravesando.

Pero no adelantemos acontecimientos. Volví de Heidelberg a finales de marzo de 2020 y me encontré un lugar muy distinto al que había dejado apenas tres semanas atrás. La concesión del contrato postdoctoral PROMETEO 2018/111 (Claves de la Justicia Civil y Penal en la sociedad del miedo: Feminización, Inteligencia Artificial, Supranacionalidad, Eficiencia y Securitization) me permitió continuar investigando de la mano de la Profa. Silvia Barona Vilar, una de las mayores expertas en la materia. A ella quiero expresarle mi más sincero agradecimiento por permitirme formar parte de este proyecto y por todo lo que me ha enseñado leyéndola y escuchándola. También quiero agradecer a la que fue mi directora de tesis, la Profa. Elena Martínez García, por seguir confiando en mí y por guiarme en este camino. Por esa capacidad que tiene de hacer posible lo (im)probable y por estar en los momentos importantes. Silvia y Elena son fortaleza y superación. Pero, sobre todo, son equipo. Por eso, este agradecimiento también quiero hacerlo extensivo a mis compañeras del equipo, que en algún momento dejaron de serlo para también ser compañeras de vivencias.

Durante este tiempo la tecnología nos ha mantenido cerca de personas que no lo están. Y a todas ellas quiero mostraros mi agradecimiento. En especial, a aquellos compañeros que también os encontráis en los inicios de la vida académica y que compartís conmigo sueños y miedos. A Cristina García Arroyo, por animarme a plasmar sobre el papel el boceto que, tras mucho esfuerzo, se convirtió en este libro. Las líneas de investigación de Cristina no pueden estar más alejadas de lo que en este libro se plasma, pero ello no ha sido obstáculo para escuchar pacientemente mis audios y contestarme siempre con esa sinceridad y honestidad que la caracterizan. A Ana Carrillo del Teso, la “resistencia” procesalista friburguesa, por sus consejos y por infundirme confianza. Por hacerme ver que para que algo sea posible debemos intentar una y otra vez lo (im)posible1. También a Oriol Martínez Sanromà, porque tiene la capacidad de convertir en insignificantes las dudas e incertidumbres sobre el futuro. Los tres se encuentran entre las personas que Freiburg me regaló. Y al casi-doctor Adrián Palma Ortigosa, por su disposición a debatir y contraargumentar cuando las dudas me asaltaban. Si no lo encuentran más citado en este libro, es porque todavía no ha defendido su tesis sobre Inteligencia Artificial y Protección de Datos.

Por último, se lo debo a mi familia. Porque en unos tiempos tan difíciles y complejos como los que estamos viviendo, han sido capaces de ofrecerme la calma y la tranquilidad que la redacción de un libro requiere. A mis padres, porque nunca dejen de mirarme del modo en que lo hacen. Porque piensan que puedo conseguir todo lo que me proponga y consiguen hacérmelo creer. A mi hermano Luis, porque solo él es capaz de teletransportarme al pasado recordándome una anécdota de nuestra infancia cuando necesito evadirme de la realidad. Y a Carlos, por su infinita paciencia ahora que el teletrabajo nos ha convertido en “compañeros de trabajo”. Por todo el tiempo que no le he dedicado mientras escribía estas líneas. Y por el futuro.

1. “Man muss das Unmögliche versuchen, um das Mögliche zu erreichen” (Herman Hesse).

Prólogo

 

Asistimos inevitablemente a una suerte de “desmaterialización del proceso judicial”. La tecnología pasa a estar al servicio de la función jurisdiccional, sin que ello pueda ser un riesgo para ella y su fin último: la aplicación de la Ley de la manera más justa y adecuada a los principios y valores de nuestro ordenamiento jurídico.

Este proceso lo encontramos acelerado en su afianzamiento en el marco de la inesperada crisis sanitaria y social del COVID-19, que ha puesto de manifiesto más si cabe la transcendencia de los aspectos digitales y de inteligencia artificial en los procesos judiciales. Hemos de adelantarnos, por tanto, a la reflexión sobre el impacto que van a tener estos términos tecnológicos en la Justicia. Celeridad, seguridad y eficiencia son criterios que integran la calidad de la justicia y estos tres sí pueden venir determinados positivamente por la tecnología, si se hace esta transformación cuidadosamente. Pero más importante que esto, es preguntarnos cómo queda afectada la calidad de la justicia, de las resoluciones judiciales que atienden a tutelar derechos de las personas.

La primera pregunta que surge al hilo es si la tecnología y la Inteligencia Artificial (en adelante, IA) puede mejorar la justicia y las garantías procesales. Para contestar a dicha cuestión, debemos abordar el derecho a la tutela judicial efectiva, así como los demás derechos y libertades fundamentales y las garantías procesales que las integran. En este sentido, encontramos un hilo conductor que esboza una hoja de ruta de mínimos comunes intocables en la aprobada “Carta Europea sobre el Uso ético de la Inteligencia Artificial en los asuntos judiciales y su entorno” en diciembre de 2018 por la Comisión Europea (CEPEJ 2018). Se trata de una primera aproximación, que requerirá de un desarrollo específico próximamente.

La fase en la que entramos supone una vuelta de tuerca. La desmaterialización de los procesos al darle un cuerpo digital no es solamente introducir la tecnología en el proceso, sino que se pretende que a través de la IA se dicten resoluciones judiciales de fondo, con eficacia de cosa juzgada, en su caso. No es simplemente una ayuda o complemento al juez, se trata de la potestad jurisdiccional, tal y como viene planteada en el estado social y democrático de derecho, pero sobre la base de un análisis masivo de datos. Es decir, la IA se está metiendo en la Justicia, es decir, en el ámbito de un derecho fundamental como el derecho de acceso a la justicia Y la IA se refiere a la función jurisdiccional y no al procedimiento, ese es el problema.

La pregunta es: ¿en qué puede mejorar la IA este derecho? ¿puede afectar a la estructura de poder que hay tras las diferentes desigualdades existentes, que son limitantes al acceso a la justicia y se encuentra tras la mayoría de los litigios civiles o penales? Contestar a esta pregunta no es nada sencillo. Haría falta probablemente un análisis sociológico de la justicia. El ordenamiento jurídico está lleno de estereotipos que alimentan la desigualdad de género, raza y clase, al igual que el propio proceso y procedimiento, heredados de legislaciones anteriores ajenas a estos problemas sociales. La judicatura tiene la obligación de superarlos al ejercer la función jurisdiccional, de conformidad con la Constitución Española. Pensemos, entonces, cómo vamos a asegurar este fino filtro a la encomienda que va a tener la IA en materia de justicia.

Todavía estamos en fase de necesitar inversiones y mejoras en la justicia tradicional, especialmente si hacemos una comparativa con los estados miembros y, sin embargo, debemos pensar en dar un salto al vacío, porque la sociedad desigualitaria sobre la que se construye este nuevo modelo de justicia sigue ahogada entre parcheos y remiendos. Una mayor calidad en la Justicia exige, no solo resolver el conflicto y la reparación de los daños del tipo que fueren, sino también mejorar la situación social de determinados colectivos y superar la desigualdad social de éstos en la estructura social. ¿Puede contribuir la IA en este sentido? No podemos correr el riesgo de crear un sucedáneo de justicia a la imagen y semejanza de los desequilibrios que tenemos ahora sino, muy al contrario, debe de ayudar a superarlos. La COVID-19 nos ha puesto de manifiesto las desigualdades de la sociedad, a las que no ha podido dar solución ni la justicia ni la sanidad. La tecnología e inteligencia artificial debe, pues, estar al servicio de la ciudadanía; no es tecnología por tecnología, renovar por renovar…El sentido debe de venir de la mano de la protección de los derechos de las personas y futuras generaciones.

Tenemos obligaciones como Estados, positivas y negativas, de garantizar el acceso a la justicia, de velar por los derechos de las minorías, de remover los obstáculos que impidan la igualdad… y los últimos acuerdos internacionales apuntan en esa dirección. Así acontece, por ejemplo, con el Convenio de Estambul suscrito por España el año 2014, donde se establece la responsabilidad de los Estados firmantes por la falta de diligencia exigible a la hora de realizar los cambios legales allí exigidos para cambiar la cultura de la desigualdad y el machismo y los sesgos de género, exigiendo la función jurisdiccional con perspectiva de género al igual que la función policial en la investigación de estos delitos contra la mujer. Este tratado internacional apunta en la misma dirección de la Carta Europea citada en materia de inteligencia artificial: el sesgo de género es un impedimento hacia la justicia e igualdad y prohibición de discriminación, constituyendo una obligación de los Estados eliminarlo para garantizar los derechos de la ciudadanía.

Antes de hacer la concreción y desarrollo de este modelo de justicia a través de la IA, debemos revisar las obligaciones positivas y negativas del Estado a la hora de garantizar el derecho de acceso a la justicia de todas las personas y, especialmente, de los colectivos discriminados y vulnerables tradicionalmente, debiendo de repensar en una estructura social de género en el acceso a la justicia. Necesitamos una justicia que proteja a todas las personas por igual, pero especialmente, que queden protegidos y con acceso a dicha justicia, los más débiles. Para la ONU el acceso a la justicia forma parte de la gobernabilidad democrática, la erradicación de la pobreza y el desarrollo humano sostenible. La IA del futuro deberá ser feminista e inclusiva de todas las realidades sociales, asegurando la tutela de sus derechos y el acceso a la justicia.

La justicia debe incorporar la ética del cuidado, para ser una justica igualitaria y ética, que incluya la perspectiva de género, porque la justicia, tal y como se presenta, parece aséptica y objetiva, con ausencia de cualquier elemento emocional, que incluya la visión de las mujeres, donde el elemento relacional entre las personas es clave y no la perspectiva individualista del propio derecho y funcionamiento de la justicia.

En este trabajo se hace un estudio exhaustivo sobre los problemas a los que va a tener que enfrontarse la justicia en próximo siglo. La IA busca acabar con las desigualdades, pero hemos de ser cautelosos porque los algoritmos pueden llegar a generar una desigualdad social y política sin precedentes invisibilizando sectores de la sociedad o extra visibilizando otros. La profesora Raquel Borges Blázquez analiza con rigor y profundidad uno de los mayores retos del proceso penal actual. El punto de mira no es el avance de la ciencia que seremos capaces de alcanzar, sino dónde pondrá el derecho el freno a estos avances.

La lectura de estas líneas nos hace ver lo lejos que estamos de conseguir el objetivo de la IA: una justicia rápida, limpia y sin sesgos. Pero también nos señala la hoja de ruta que debemos seguir si queremos una Inteligencia Artificial segura, democrática e igualitaria. Raquel ha conseguido poner sobre la mesa estas cuestiones tan difíciles y satisfactorias al mismo tiempo. ¿Cuál es el precio en la búsqueda de la verdad?, ¿Qué haremos cuándo un casco sea capaz de leer nuestros pensamientos?, ¿Qué será de los abogados, jueces y policías cuando una máquina arroje mejores resultados de investigación? Como indica la profesora Barona, no podemos quedarnos en la fase de aplicación de los algoritmos. Hemos de ir al paso previo y preguntarnos quién entrena a los algoritmos y con qué informaciones lo hace. Porque sus educadores pueden acabar controlando el pensamiento jurídico mundial.

PROMETEO 2018/111 Claves de la Justicia Civil y Penal en la Sociedad del miedo.

Elena Martínez García

Valencia, 8 de marzo de 2021.

Abreviaturas

 

ADNÁcido Desoxirribonucleico.
ANAudiencia Nacional.
APAudiencia Provincial.
BOLDBlood Oxigenation Level-Dependent.
CATTChat Analysis Triage Tool.
CCAAComunidades Autónomas.
CEConstitución Española.
CENDOJCentro de Documentación Judicial.
CPCódigo Penal.
CEDAWConvención sobre la Eliminación de toda forma de Discriminación contra la Mujer.
CEDHConvenio Europeo de Derechos Humanos.
DIDHDeclaración Internacional de Derechos Humanos.
EE. UU.Estados Unidos.
EJISEsquema Judicial de Interoperabilidad y Seguridad.
ELSJEspacio de Libertad, Seguridad y Justicia.
ERG 22+Extremist Risk Guidelines.
fMRIFunctional Magnetic Resonance Imaging.
FRAFundamental Rights Agency.
GPSGlobal Positioning System.
IAInteligencia Artificial.
IMEIInternational Mobile Equipment Identity.
IoTInternet of Things.
ITInformation Technology.
JVSMJuzgado de Violencia Sobre la Mujer.
LECLey de Enjuiciamiento Civil.
LECrimLey de Enjuiciamiento Criminal.
LFRLive Facial Recognition.
LOLey Orgánica.
LOPDGDDLey Orgánica de Protección de Datos Personales y Garantía de los Derechos Digitales.
LOPJLey Orgánica del Poder Judicial.
LOVGLey Orgánica de Violencia de Género.
MEGMagneto encefalografía.
NOJNueva Oficina Judicial.
Núm.Número.
OCDEOrganización para la Cooperación y el Desarrollo Económicos.
OMSOrganización Mundial de la Salud.
Op. cit.Obra Citada.
PETPositron Emission Tomography/Tomografía por emisión de Positrones.
PIDCPPacto Internacional de Derechos Civiles y Políticos.
PLNProcesamiento del Lenguaje Natural.
RGPDReglamento General de Protección de Datos.
SANSentencia Audiencia Nacional.
SESSecretaría de Estado y Seguridad.
SIGSistemas de Información Geográfica.
SIRAGSistema de Registros Administrativos de Apoyo a la Administración de Justicia.
SPECTSingle Photon Emission Computed Tomography.
STCSentencia Tribunal Constitucional.
STSSentencia Tribunal Supremo.
TCTribunal Constitucional.
TEDHTribunal Europeo de Derechos Humanos.
TICsTecnologías de la Información y la Comunicación.
TRAP-18Terrorist Radicalization Assessment Protocol.
TSTribunal Supremo.
TSJTribunal Superior de Justicia.
UEUnión Europea.
VERA-2RViolent Extremist Risk Assessment.
Vol.Volumen.
VPERValoración Policial de la Evolución del Riesgo.
VPRValoración Policial del Riesgo.