Guía Justicia Digital
El debate sobre el uso de IA en el ámbito de la Administración de Justicia se inserta en el más general relativo a la gobernanza de la IA. A diferencia del modelo chino o norteamerica- no, la Unión Europea ha desarrollado un mar - co para la gobernanza de la IA centrado en el ser humano y sus necesidades. Este marco ha sido construido a través de varios hitos, entre los que destacan la Comunicación de la Comisión Inteligencia artificial para Europa (COM (2018) 237 final), el Libro blanco sobre IA y la Resolución del Parlamento Europeo (2020) relativa a un Marco de los aspectos éticos de la IA, la robótica y las tecnologías relacionadas (2020/2012 (INL). 184 El último paso ha venido dado por la propuesta de reglamento de armonización de las normas sobre inteligencia artificial (COM (2021) 206 final). La propuesta de reglamento sigue un enfoque basado en riesgos, lo que exige al legislador la determinación del umbral de riesgo que la so- ciedad está dispuesta a aceptar y qué precau - ciones se tomarán en el caso de aplicaciones cuyo riesgo es aceptado. Frente al enfoque de las directrices o guías éticas, que carecen de mecanismos de refuerzo, la propuesta de la Comisión va más allá y establece prohibicio- nes, crea procesos, diseña el modelo institu- cional de la IA e impone sanciones, dentro de un marco que ha de ser flexible y sujeto a la necesaria revisión y adaptación a la rápida evolución tecnológica. La estrategia trazada por la Comisión ofre- ce una ventaja competitiva para la industria europea de la IA, pues se contempla que las disposiciones del nuevo marco regulatorio sean aplicables a los proveedores, producto- res, importadores, distribuidores y usuarios de los sistemas de IA que se usen o produzcan esta tecnología en territorio europeo. El marco regulatorio, por tanto, se muestra exigente
con las empresas que hayan desarrollado los sistemas de IA en otra parte del mundo.
La propuesta de la Comisión distingue en- tre prácticas de IA prohibidas, consideradas de alto riesgo, y las no consideradas de alto riesgo. Muchos de los sistemas de utilidad en el ámbito de la Administración de Justicia civil-administrativa aparecen definidos como sistemas de alto riesgo. 185 El propio preámbu - lo explica que esta caracterización responde al impacto potencial de estos sistemas para la democracia, el Estado de derecho, las libertades individuales y el derecho a la tutela judicial efectiva y a un juez imparcial. En particular, a fin de evitar el riesgo de posibles sesgos, errores y opacidades, procede con- siderar de alto riesgo aquellos sistemas de IA cuyo objetivo es ayudar a las autoridades judiciales a investigar e interpretar los hechos y el derecho y a aplicar la ley a unos hechos concretos. La Tabla 18 recoge la clasificación propuesta por el reglamento sobre qué sistemas de IA pueden ser considerados de alto riesgo.
184. El texto puede consultarse aquí: https://www.europarl.europa.eu/doceo/document/TA-9-2020-0275_EN.html#title1 . 185. En la lista de la propuesta de Reglamento se incluyen los siguientes usos como de alto riesgo: a) aplicaciones biométricas; b) gestión y operación de infraestructuras críticas; c) acceso y evaluación en educación y formación profesional; d) empleo y acceso al autoempleo; e) acceso y disfrute de servicios esenciales privados, servicios públicos y beneficios sociales; f) aplicación de la ley, en concreto, evaluación de riesgos individuales y sistemas utilizados por las autoridades públicas, como el polígrafo; g) sistemas para comprobar la veracidad de pasaportes y otra documentación, o el examen de las solicitudes de asilo, visa o permiso de residencia; y h) sistemas de asistencia a las autoridades judiciales en la investigación e interpretación de los hechos y del derecho.
91
Made with FlippingBook - Online Brochure Maker