Guía Justicia Digital

Guía Justicia Digital

a los usuarios ante posibles soluciones de su caso, sobre todo en entornos jurídicos especí- ficos. 146 Como limitaciones para la construc- ción de sistemas expertos se encuentran las siguientes: 1. No son adecuados para ámbitos jurídicos caracterizados por el protagonismo de la discrecionalidad. 147 No obstante, la posibili- dad técnica de modelar reglas y árboles de decisión en ámbitos caracterizados por un fuerte componente de discrecionalidad ha sido estudiada y afirmada. 148 2. Esta metodología no resulta satisfactoria si los árboles de decisión resultan excesiva - mente complejos. 3. El fallo en la programación puede deter - minar graves dificultades si la máquina se revela incapaz de dar respuesta a las cir- cunstancias de la realidad y sus resultados se obtienen de forma automática sin super- visión humana. 149 Un ejemplo de resultados devastadores se produjo en el Centrelink robodebt de Australia. 150 En su evolución los sistemas expertos están siendo utiliza - dos para codificar escenarios típicos que quedan asociados, mediante la navegación web, con alternativas de actuación o solu- ción. Para el desarrollo de estas máquinas se requiere la «extracción de conocimiento», normalmente mediante la realización de entrevistas a expertos, a lo que sigue su codificación e integración en un sistema informático. 151

146. R. Susskind, Expert Systems in Law, Oxford, Clarendon Press, 1987. 147. Véase E. Battelli, «La decisión robótica: algoritmos, interpretación y justicia predictiva», Revista de Derecho Privado, n.º 45 (2021), pp. 55-58. 148. Véase R. Kannai, U. J. Schild y J. Zeleznikow, «Modeling the evolution of legal discretion-an artificial intelligence approach», Ratio Juris, vol. 20, Issue 4 (2007), pp. 530-558. 149. Véase G. Governatori, J. Barnes, J. Zeleznikow, L. de Koker, M. Poblet, M. Hashmi y P. Casanovas Romeu, «‘Rules as code’ will let computers apply laws and regulations. But over-rigid interpretations would undermine our freedoms», The Conversation, 2020. https://theconversation.com/rules-as-code-will-let- computers-apply-laws-and-regulations-but-over-rigid-interpretations-would-undermine-our-freedoms-149992 . 150. En ese caso, los pagos de la asistencia social realizados sobre la base de los ingresos quincenales declarados por los propios beneficiarios se cruzaron con una estimación de los ingresos quincenales, tomada como media simple de los ingresos anuales declarados a la Oficina de Impuestos de Australia, y se utilizaron para generar automáticamente avisos de deuda sin ningún otro escrutinio o explicación humana. Esta suposición no concuerda con la forma en que se paga realmente a la mano de obra altamente eventual de Australia. Por ejemplo, a una diseñadora gráfica que no pudo encontrar trabajo durante nueve meses del año fiscal, pero que ganó 12.000 dólares australianos en los tres meses anteriores a junio, se le habría generado una deuda automática. Todo ello a pesar de que no se ha producido ningún fraude, y de que esta situación constituye exactamente el tipo de dificultad que Centrelink pretende resolver. Véase https:// tinyurl.com/y3dqe6mg . 151. D. Thompson, «Creating new pathways to justice using simple artificial intelligence and online dispute resolution», International Journal of Online Dispute Resolution , vol. 1, n.º 2 (2015), pp. 4-13.

78

Made with FlippingBook - Online Brochure Maker