Guía Justicia Digital

Guía Justicia Digital

5. Aunque los algoritmos son capaces de procesar enormes cantidades de datos, es muy difícil operacionalizar todos los aspec- tos relevantes de una realidad social, es decir, convertirlos en variables medibles. En la operacionalización de los diferentes elementos que pueden considerarse re- levantes, las personas encargadas de la pro- gramación pueden obviar algunas variables, introducir sesgos en el sistema o escoger bases de datos que ofrecen una representa- ción parcial de la realidad. 162

pues les permite calcular sus opciones de éxito antes incluso de hacerse cargo de un caso. Hoy se plantea el debate sobre el empleo de máquinas de este tipo por parte del sistema público de justicia. Experimentos sobre un sis - tema predictivo se han llevado a cabo en Fran- cia, 165 Países Bajos 167 e incluso en el Tribunal Europeo de los Derechos Humanos. 168 Algunos sistemas judiciales han comenzado a ofrecer a los usuarios, especialmente a aquellos que no cuentan con representación, información sobre la probabilidad de estimación de su demanda. Cabe mencionar el Dutch Platform Rechtwijzer en Países Bajos, el CRT en la Columbia Britá- nica de Canadá, los tres Tribunales de Internet creados en China y la experiencia en Singapur. Esta información se ofrece con la finalidad de que las partes puedan llegar a un acuerdo con la información ofrecida por la máquina. Res- pecto del CRT, los informes anuales de activi- dad revelan la relación entre las consultas de diagnóstico de casos y el número de deman- das presentadas. 169 Todo apunta a que el marco actual va a ganar en certidumbre una vez que obtenga aproba- ción la propuesta de reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial (COM/2021/206 final). En el caso de que fuera posible disponer de máquinas capaces de cumplir con el estándar europeo, se planteará el debate en torno a si esta información podría o debería ser facilita- da a los usuarios de la justicia. En un trabajo publicado en 1949, Loevinger sostuvo que el

4.6.2. La justicia predictiva y la creación de perfiles de jueces

Bajo la expresión justicia predictiva se aglu- tinan las herramientas de IA cuya función es predecir la solución de un caso u ofrecer un cálculo sobre las posibilidades de éxito de una demanda. 163 Los algoritmos de aprendizaje automático pueden revisar gran cantidad de información electrónica e incluso seleccionar la más relevante para un litigio. 164 La utiliza- ción de sistemas conocidos indistintamente como TAR (Technology-Assisted Revision) o Predictive Coding permite clasificar los do - cumentos según su relevancia para el caso y dirigir la revisión hacia los considerados pertinentes. Entre los productos de predicción se encuentran Lex Machina, Ravel Law, Lex - Predict, Premonition, Ogayar Co y PROMETEA. En España destacan Jurimetría, vLex Analytics y Tirant Analytics. La utilidad de esta clase de herramientas para los profesionales es clara,

162. Véase A. Soriano Arranz, «Decisiones automatizadas: problemas y soluciones jurídicas. Más allá de la protección de datos», Revista de Derecho Público, Marcial Pons, doi: https://doi.org/10.37417/RPD/vol_3_2021_5352021. 163. C. Liccope y L. Dumolin (2019), «Le travail des juges et les algorithmes de traitement de la jurisprudence. Premières analyses d’une expérimentation de “justice prédictive” en France», Droit et Société, n.º 103, 2019/3, pp. 535-554. 164. J. I. Solar Cayón, «La codificación predictiva: inteligencia artificial en la averiguación procesal de los hechos relevantes», Anuario Facultad de Derecho- Universidad de Alcalá XI, 2018, pp. 75-105; p. 75 para la cita. 165. Los Tribunales de Apelación de Douai y Rennes realizaron un ensayo de tres meses en 2017 con un programa informático calificado de «predictivo» por un grupo de jueces. Véase CEPEJ, Apéndice I, para un estudio en profundidad sobre el uso de la IA en los sistemas judiciales, especialmente las aplicaciones de IA que procesan decisiones y datos judiciales. 166. La Autoridad Judicial de los Países Bajos (Rechtspraak) llevó a cabo un experimento en septiembre de 2017 en el que se presentaron dos casos reales para que el sistema los evaluara y pusiera a prueba la capacidad de su programa de inteligencia artificial, llamado LexIQ, para proponer soluciones a esos casos judiciales reales. Las decisiones tomadas por LexIQ se contrastaron con las tomadas por jueces humanos. Véase https://towardsdatascience.com/legal- certainty-and-the-possibility-of-computer-decision-making-in-the-courtroom-ac4b1a6c42d1 (fecha de consulta: 11 de febrero de 2021). 167. Se anuncia que el modelo construido puede predecir las decisiones del tribunal con una gran precisión (79 % de media). Véase N. Aletras, D. Tsarapatsanis, D. Preotjiuc-Pietro y V. Lampos, «Predicting judicial decisions of the European Court of Human Rights: A natural language processing perspective», PeerJ Comput . Sci. , 2:e93; doi: 10.7717/peerj-cs.93. 168. Véase F. Esteban de la Rosa y J. Zeleznikow, «Making intelligent online dispute resolution tools available to self-represented litigants in the public justice system: Towards an ethical use of the AI technology in the Administration of Justice», en Eighteenth International Conference for Artificial Intelligence and Law (ICAIL’21), June 21-25, 2021. https://doi.org/10.1145/3462757.3466077 . 169. Los informes anuales de actividad del CRT se encuentran disponibles en este enlace: https://civilresolutionbc.ca/about-the-crt/presentations/ .

81

Made with FlippingBook - Online Brochure Maker