Compromisos para la privacidad y ética digital

Compromisos para la Privacidad y Ética Digital

En el proceso de transformación digital, las organizaciones que se sitúen a la vanguardia de tecnologías, como la Inteligencia Artificial o las innovaciones en robótica, tendrán un abani- co inmenso de oportunidades, pero al mismo tiempo deberán afrontar ciertos riesgos en el ámbito de la privacidad de los datos. Es en ese momento, cuando la protección de la privacidad debe ser vista como una oportu- nidad para incrementar la ventaja competitiva respecto de las organizaciones que hayan optado por una actitud pasiva, así como para incrementar la confianza de los usuarios. Abordar este reto de forma proactiva, integran- do funciones de privacidad, de gobierno y de seguridad que ofrezcan productos y servicios diseñados para proteger los datos personales, es, por tanto, el gran reto al que se enfrentan actualmente las organizaciones para convertir este escenario en clave de oportunidad. 2.1 Riesgos que enfren- tamos en la gestión de la privacidad A la hora de identificar los principales riesgos que las nuevas tecnologías pueden conllevar en cuanto a la invasión de la privacidad, es necesario clasificarlos desde tres puntos de vista diferentes, atendiendo a si afectan al individuo, a las organizaciones o al conjunto de individuos como sociedad. También resulta im- prescindible jerarquizar los distintos desarro- llos tecnológicos en función de estos riesgos y aplicar medidas de control sobre aquellas que tengan mayores implicaciones: Deducción sin consentimiento de da- tos personales y comportamientos. El uso de las nuevas tecnologías en la captura, análisis y uso de esta información hoy en día permiten realizar valoraciones predictivas sobre ámbitos tan personales como inclinaciones psicológi- cas, personalidad, o aspectos íntimos de las personas. Esto supone que se puedan inferir valoraciones de una persona sin que ésta sea consciente, llegándose a producir situaciones de discriminación. Riesgos que afectan al individuo •

• Desconocimiento de las implicaciones de la falta de control en el uso de los datos. Como regla general existe desinformación respecto del significado de la privacidad y del valor e importancia de los datos y la informa- ción privada. Esto conlleva a que los datos sean expuestos y por ello vulnerables a posi- bles usos. En general, los usuarios desconocen cómo sus datos son tratados, gestionados e, incluso, intercambiados o vendidos. • Desconocimiento de las comunicacio- nes de datos realizadas a terceros que pue- den impactar, entre otras cosas, en la desac- tualización de los datos registrados y en una limitación del control de los datos por parte del usuario. • Riesgo de ser objeto de actividades ilícitas , asociadas al uso de fraudulento de los datos. Riesgos que afectan a las organizaciones • Sesgos implícitos y resultados sesga- dos. Existen sesgos que no son debidamente identificados y corregidos por las organizacio - nes durante las etapas clave del proceso del uso y desarrollo de algoritmos: bien durante la recolección de los datos (lo que supone que no son representativos de la realidad o que reflejan prejuicios existentes) o durante su tratamiento (afectando a la precisión de la predicción de los modelos). A ello se suma la falta de contexto social, que hace que no puedan aplicarse los mismos diseños en diferentes sociedades con formas de pensar distintas. • Black Box Effect: En el uso de determi- nadas técnicas de aprendizaje automático no es posible prever con exactitud en el proceso de desarrollo la manera en la que los algorit- mos tomarán decisiones, ni saber con certeza cómo las adoptan. Esto puede generar incerti- dumbre y riesgo para las organizaciones en la toma de decisiones. Sin embargo, se pueden acometer esfuerzos posteriores para conse- guir y analizar la trazabilidad, aplicabilidad y transparencia de los algoritmos que puedan llegar a afectar a la vida de las personas.

7

Made with FlippingBook - Online Brochure Maker