Guía Justicia Digital

Guía Justicia Digital

se consiguen datos válidos y adaptados a las necesidades de esta. Deberá tener en cuenta, además, cuáles son los parámetros principales de funcionamiento del algorit- mo. Este último criterio puede encuadrarse tanto en una interpretación actualizada (art. 3.1 CC) de la obligatoriedad de motivar las sentencias (art. 120.3 CE) como en el respeto al principio de transparencia en el tratamiento de los datos (art. 5.1.a RGPD), en la medida en que es el algoritmo el que ejecuta los criterios de dicho tratamiento de datos. 2. El modo en que el sistema se nutre de da - tos debe respetar las exigencias provenien - tes de la normativa de protección de datos, prestando especial atención al principio de limitación de la finalidad. Si son datos ex - traídos para otras finalidades, es necesario atender a la base de legitimación originaria y comprobar que el análisis predictivo que se va a realizar es un segundo uso compa- tible, ya que el hecho de que un dato sea de público acceso no significa per se que pueda utilizarse para cualquier finalidad. 158 Si los datos se recaban directamente del titular, se le deberá informar de forma clara, en cumplimiento de los principios de trans- parencia y limitación de finalidad (art. 5.1.a y b RGPD), amén de argumentar convenien -

temente la base de legitimación en que se apoya el tratamiento de datos.

3. Se afirma que los sistemas de machine learning proyectan su atención al tiempo pasado. Puesto que estos sistemas están basados en conjuntos relativamente fijos de datos del pasado, se osificaría el dere - cho y no habría lugar para el crecimiento o la creatividad. No obstante, hoy existe tecnología capaz de remediar este defecto. Con una gran cantidad de datos y distin- tas ponderaciones asignadas a cada uno, los algoritmos del aprendizaje automático pueden generar resultados que parecen creativos y nuevos. Además, mientras las máquinas sigan resolviendo casos difíciles, estos conjuntos de datos se actualizarían de manera habitual. 159 4. La IA basada en datos plantea dificultades para escapar de los sesgos inherentes a los datos procesados. Los sistemas basados en datos son tan buenos como los datos en que se basan y que el algoritmo procesa. Ello conlleva el riesgo de que ciertos algo - ritmos refuercen o consoliden prejuicios o situaciones de marginación de grupos vulnerables.

158. Un ejemplo reciente de usos ulteriores de datos incompatibles con la finalidad original para la que fueron recabados lo encontramos en la Resolución de la AEPD de 26 de abril de 2021, donde se multa a una entidad de análisis de solvencia patrimonial por utilizar datos de acceso público (BOE) para finalidades ulteriores no compatibles. En esta resolución, la AEPD recuerda que 1) cualquier uso secundario de datos debe ser compatible con la finalidad original con que fueron recabados (principio de limitación de finalidad del tratamiento de datos, artículo 5.1.b RGPD), 2) debe tener una base de legitimación propia (no es suficiente alegar que son datos de fuentes accesibles al público), y que 3) debe notificarse al interesado el uso secundario de sus datos. El texto íntegro de la resolución puede consultarse en https://www.aepd.es/es/documento/ps-00240-2019.pdf . 159. R. Susskind, Tribunales online y la justicia del futuro, op. cit., p. 333. 160. Puede consultarse el texto de la sentencia en https://uitspraken.rechtspraak.nl/inziendocument?id=ECLI:NL:RBDHA:2020:865 . Para un análisis de esta, véase G. Lazcoz Moratinos y J. A. Castillo Parrilla, «Valoración algorítmica ante los derechos humanos y el Reglamento General de Protección de Datos: El caso SyRI», Revista Chilena de Derecho y Tecnología, Universidad de Chile, doi: https://rchdt.uchile.cl/index.php/RCHDT/article/view/56843 . 161. P. Alston, «Brief by the United Nations Special Rapporteur on extreme poverty and human rights as amicus curiae before the District Court of the Hague on the case of NJCM c.s./De Staat der Nederlanden (SyRI), case No. C/09/550982/HA ZA 18/388», 2019, disponible en https://www.ohchr.org/Documents/Issues/ Poverty/Amicusfinalversionsigned.pdf . Esta situación ya fue puesta de manifiesto por el relator especial sobre la extrema pobreza y los derechos humanos de Naciones Unidas en relación con el algoritmo SyRI, con el que el Gobierno holandés preseleccionaba ciudadanos que con mayor probabilidad podrían cometer fraude a la Seguridad Social de acuerdo con ciertos parámetros automatizados. 160 Los ciudadanos preselecciona- dos sí eran ya objeto de una investigación humana, por lo que no podía hablarse en este caso de un incumplimiento de lo dispuesto en el art. 22 RGPD. Sin embargo, el caso fue llevado ante la Corte de Distrito de La Haya, que resolvió contra el mentado algoritmo alegando incumplimiento del art. 8 del Convenio Europeo de Derechos Humanos (derecho a la intimidad). En el contexto de este procedimiento, el relator especial Philip Alston emitió un informe 161 afirmando que tiene un efecto discriminatorio y estigmatizador debido, entre otras razones, a la autoridad que se confiere a los algoritmos.

80

Made with FlippingBook - Online Brochure Maker