Anuario 2024 de Cotec

Anuario 2024 de Cotec

Innovación y Democracia

VO

OTA

Introducción Quince visiones

07 11 15 17 29 41 51 63 71 81 91 101 111 121 131 141

Presentación Concepto creativo Inteligencia Artificial Nuria Oliver Crisis climática Laurence Tubiana Educación Juan Manuel Moreno Neurotecnología Rafael Yuste Participación Astrid Barrio Futuro humanista Andrea Marcolongo Empleo Manuel Pimentel Siles Verdades compartidas Sara Degli-Esposti Demografía política José Ignacio Conde-Ruiz Futuro político Daniel Innerarity Genética Montse Esquerda Conocimiento Mikel Mancisidor Sector público Mariana Mazzucato

01

02

03

04

05

06

07

08

09

10

11

12

13

153 163 177 Observatorio

153 163 177 217 220 222 224 228 241 244 246 250 254 257 262 264 266 268 278 281 296

Ciudadanía Fernando Broncano Datos Kiko Llaneras Epílogo Ramón González Férriz Monitor NextGen Mapa del talento autonómico Empresas gacela Percepción social de la innovación educativa Mapa del empleo tecnológico Encuesta sobre innovación en las empresas Informe de economía circular Evolución de la I+D Mapa de complejidad económica Miembros Comités Equipo Los 100 de Cotec Patronato Memoria de actividades Créditos

14

15

220 222 224 228 241

244 246 250 254 Memoria

262 264 266 268 278 281 296

Presentación

P or mucho que adelantar tendencias sea una de las funciones de Cotec, cuando decidimos, hace más de un año, dedicar este Anuario 2024 a explorar el binomio innovación y democracia, no imaginá- bamos que el tema sería tan pertinente. No sabíamos que la publi- cación coincidiría con un año récord en procesos electorales en el mundo. Ni preveíamos – ¿quién podía hacerlo? – que el libro se presentaría pocos días después de que España encadenara, en solo dieciséis semanas, cuatro convocatorias a las urnas. Agradecemos que las circunstancias añadan a este libro actualidad, pero la inspi- ración llegó de otro lado. Creemos en la democracia, nos preocupa la democracia y creemos en la innovación como respuesta a todo lo que nos preocupa. ¿Por qué nos preocupa la democracia? La respuesta es múltiple. En el ámbito de la política, vemos amenazas en la polarización, el auge de los extremismos y del populismo, la desafección – alarmante entre los jóvenes –, el corto- placismo electoralista, la guerra... En el terreno económico y social, hay señales de peligro en la velocidad de los avances tecnológicos, el retroceso en competitividad y productividad, la crisis climática, las corrientes migratorias, la inversión de la pirámide demográfica, la pérdida de credibilidad de los medios de comunicación, la des- población, el aumento de las desigualdades… En su mayoría, son temas que Cotec ha abordado ya en los últimos años. Pero la perspectiva para este Anuario 2024 es nueva. Ahora analizamos el impacto que todas estas cuestiones tienen en particular en la democracia y buscamos respuestas en la innova- ción a los problemas que ese impacto genera. La complejidad del empeño explica la gran novedad de esta entrega. Desde la edición de 2021 dedicamos nuestro Anuario a un asunto monográfico y siempre hemos contado con la voz de exper- tos de la red de Los 100 de Cotec . Pero esta vez hemos dado un paso más. Hemos cedido el contenido principal de nuestro libro a quince expertos (ocho hombres y siete mujeres). Les pedimos dos cosas: una, que diagnosticaran amenazas a la democracia desde su respectiva área de conocimiento (economía, educación, medio ambiente, ciencia, tecnología, etc.); y dos, que prescribieran medidas innovadoras para neutralizarlas. El resultado está en las siguientes páginas y a nuestro entender confirma que acertamos con la propuesta. Las ideas que contiene este libro inspirarán nues- tra agenda en los próximos años. No obstante, quizá sea todavía necesario explicar por qué la Fundación Cotec para la innovación dedica un libro a la demo- cracia. La duda es razonable y merece unos párrafos. Hace diez años, cuando Cristina Garmendia asumió la pre- sidencia de Cotec, iniciamos un proceso de cambio que no todos los que seguían a la Fundación desde sus inicios entendieron ense- guida. Desde entonces hemos repetido como un mantra nuestra definición de innovación: todo cambio (no solo tecnológico), basado en conocimiento (no solo científico), que aporta valor (no solo eco- nómico). ¿Podemos predicar este mensaje sin dar ejemplo?

Por supuesto que no, la innovación es nuestro fin y nuestro medio. No se puede, no ya en 2024, relacionar la innovación úni- camente con la investigación científica y el desarrollo tecnológico, principalmente en el ámbito empresarial. Ni tampoco se puede comunicar el conocimiento, en la era digital, como se hacía tres décadas atrás, sin necesidad de diálogo y escucha activa, sin crear tu propia audiencia y crecer con ella. “La innovación es de todos y para todos”, ha defendido todo este tiempo nuestra presidenta cada vez que ha tenido ocasión. ¿Es posible que demos la espalda a la sociedad y concibamos la innovación hoy igual que hace 30 años? Claro que no. En el último decenio Cotec ha sido una orga- nización al servicio de la sociedad, abierta a todos los públicos, participativa y colaborativa, que concibe la innovación, de la mano de sus Patronos y Miembros, como un motor de desarrollo econó- mico y social para España. Somos sensibles a los problemas de nuestro país y a las preocupaciones de nuestros ciudadanos, nos ocupa todo lo que el conocimiento, la influencia y la facilitación puedan ayudar a solucionar. El conocimiento es además cada día menos enciclopédico y más global, interdisciplinar y participativo. Si queremos analizar e impulsar la transición hacia un modelo económico más digital, cir- cular e intangible, debemos observar y atender al mismo tiempo las consecuencias (positivas o no) de esa evolución sobre el conjunto de la sociedad. Porque la innovación es de todos y para todos, o de lo contrario, al menos para Cotec, no es innovación. La historia reciente de Cotec podría haber sido distinta, sí, – y no necesariamente peor –, pero hubiera tenido que ser con otro equipo y con otra presidenta. Porque no sabemos – ni queremos – hacer las cosas de otra manera. Nos interesa el conocimiento que alimenta la innovación (la I+D, la estrategia y la cultura organiza- tiva, los datos), así como las herramientas para generar y transmitir dicho conocimiento, empezando por la educación. De igual modo, nos importa medir el valor y el impacto de las innovaciones que produce, incluidas las brechas que pueda crear o agrandar. Conviene aclarar que todo esto amplía mucho el radio de acción de Cotec, pero no significa que pretendamos analizar y emitir opinión sobre cualquier cosa. Cuando hacemos recomen- daciones sobre un asunto es porque antes se han cumplido dos condiciones: hemos generado conocimiento propio y hemos eva- luado que es posible provocar un cambio sistémico o estructural a partir de ese conocimiento. Es posible, claro, que nos equivoquemos, con nuestra manera de enfocar la innovación y con nuestra selección de obje- tivos. Pero si alguna vez hay que equivocarse, al menos que sea por defender nuestra democracia, a la que debemos tantas décadas de progreso, bienestar y convivencia. Que no se nos olvide.

Equipo Cotec

7

INNOVA DEMOC ANUARI

ACIÓN Y CRACIA. IO 2 ! 24

Concepto creativo

2024, un año en el que aproximadamente una cuarta parte de la población mundial está llamada a acudir a las urnas. Un año que transformará el curso de la historia. Un año en el que el Anuario de Cotec invita a considerar propuestas innovadoras para fortalecer la democracia. Un año en el que cada uno de nosotros hemos de ser conscientes de nuestro papel como agentes del cambio. Vota. El concepto creativo de este Anuario atraviesa los límites formales para hacer una llamada a la acción a través de la reflexión. Un imperativo que nos hace tan libres como conscientes a la hora de ejercer nuestro derecho universal. No vamos a hablar de democracia, vamos a leerla, vamos a tocarla, vamos a practicarla y a divulgarla. Vamos a convertir a cada uno de los lectores en protagonistas individuales dentro de un contexto colectivo, porque ellos y ellas son la auténtica palanca de cambio.

11

Quince visiones

Quince visiones Nuria Oliver La herramienta más potente al servicio de la democracia

Inteligencia artificial

Nuria Oliver

La democracia se ve afectada por la IA de forma compleja, en múltiples facetas y con implicaciones tanto positivas como negativas. Su impacto dependerá de cómo sea desarrollada, utilizada y

regulada en la sociedad. La consecución de un equilibrio entre los beneficios y los riesgos de la inteligencia artificial es un reto para los Gobiernos, las instituciones y las sociedades del siglo XXI.

17

Anuario 2024 de Cotec

Innovación y democracia

N uria Oliver es cofundadora y directora de ELLIS Alicante (Instituto de IA centrada en la humanidad), científica jefa de Datos en Data-Pop Alliance y cofundadora y vicepresidenta de ELLIS (The European Laboratory for Learning and Intelligent Systems). Es ingeniera superior de Telecomunicación por la UPM. Tiene un doctorado en Inteligencia Artificial por el Massachusetts Institute of Technology (MIT) y es doctora honoris causa por la Universidad Miguel Hernández. En diciembre de 2023 fue nombrada vocal independiente del Consejo Rector de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), y en febrero de 2024, la representante española del Panel Internacional de Expertos en Seguridad de la IA en la elaboración del Informe Internacional sobre Seguridad en la IA, promovido por el Gobierno británico. Con más de 25 años de experiencia en investigación en áreas de modelado y predicción del comportamiento humano a partir de datos e interacción humano-máquina, ha trabajado en Microsoft Research y fue la primera directora científica en Telefónica R&D y la primera directora de Investigación en Ciencia de Datos en Vodafone a nivel global. Desde marzo de 2020 hasta abril de 2022, fue Comisionada para el presidente de la Generalitat Valenciana en Estrategia de IA y Ciencia de Datos para combatir el covid-19, liderando ValenciaIA4COVID, el equipo ganador del XPRIZE Pandemic Response Challenge. Es reconocida internacionalmente por su trabajo en el modelado computacional del comportamiento humano utilizando técnicas de inteligencia artificial, la interacción persona-máquina, la informática móvil y análisis de big data , especialmente para el Bien Social. Además de su trabajo científico, dedica parte de su tiempo a la divulgación científico-tecnológica y a inspirar a los jóve- nes y, especialmente a las chicas, a estudiar carreras tecnológicas, colaborando regularmente con medios e impartiendo charlas sobre ciencia y tecnología para audiencias variadas, especialmente ado- lescentes y en particular, a niñas. Es autora del libro Inteligencia Artificial, naturalmente (Ministerio de Economía y Sociedad Digital, 2020) y autora de numerosos artículos para EL PAIS , The Guardian , y TechCrunch , entre otros.

Fotografía cedida por la autora

Cofundadora y directora de ELLIS Alicante (Instituto de IA centrada en la humanidad). Científica jefa de Datos en Data-Pop Alliance

18

Quince visiones

Inteligencia artificial

Nuria Oliver

“Cada vez va a ser más difícil —si no imposible— discernir la verdad de la falsedad en el mundo digital”.

L a inteligencia artificial (IA) ha irrumpido en nuestras vidas y nuestras sociedades. Con su capacidad para procesar datos masivos y aprender de ellos, las técnicas de inteli- gencia artificial basadas en el aprendizaje a partir de datos están transformando pro- fundamente todas las actividades, desde la medicina hasta la ciencia, la educación, el derecho, la comunicación o el transporte. De manera invisible, la IA ha penetrado también en nuestra vida cotidiana, dado que la inmensa mayoría de las aplicacio- nes y los servicios digitales que utilizamos están dotados de inteligencia artificial y dependen de ella: si podemos hablarle a nuestros móviles o altavoces inteligentes y nos entienden, detectar caras en las fotos, traducir de un idioma a otro, encontrar información relevante en internet o recibir recomendaciones de productos, amigos o noticias, es gracias a la inteligencia artificial. La democracia, como gobierno del pueblo, se ve afectada por la IA de forma compleja, en múltiples facetas y con impli- caciones tanto positivas como negativas.

Chatbots y asistentes virtuales pueden pro- porcionar información sobre candidatos/as, plataformas y programas políticos y fechas de votación, facilitando así la participación en el proceso electoral. Además, los siste- mas de IA pueden ayudar a los Gobiernos a administrar elecciones de manera más eficiente , desde el registro de los votan- tes hasta la tabulación de los resultados, lo que puede reducir errores y aumentar la confiabilidad de los procesos electorales. Finalmente, hay una inmensa oportunidad para utilizar la inteligencia artificial en la mejora de la definición, provisión y evalua- ción de las políticas y los servicios públicos , lo que contribuiría a consolidar la confianza de la ciudadanía en sus representantes. Sin embargo, no todo el impacto es positivo: el uso masivo y no regulado de técnicas de IA en la difusión y generación de contenido, y la potencial manipulación masiva de la población con técnicas de IA, pueden minar las bases de una sociedad democrática al menos desde tres perspec- tivas, descritas a continuación.

Su impacto dependerá de cómo sea desa- rrollada, utilizada y regulada en la sociedad. La consecución de un equilibrio entre los beneficios y los riesgos de la inteligencia artificial es un reto para los Gobiernos, insti- tuciones y, en conjunto, para las sociedades del siglo XXI. Requiere educación, vigilancia constante y una capacidad de adaptación y respuesta ágil para asegurarnos que esta poderosa disciplina contribuye positiva- mente a la democracia, y no se convierte en una amenaza. En este breve artículo, exploro la relación entre la democracia y algunos avances en la inteligencia artificial. La democracia se basa en la participación ciu- dadana informada y en la capacidad de la ciudadanía para tomar decisiones políticas de manera autónoma y, desde esa perspec- tiva, la IA tiene el potencial de influir tanto de manera positiva como negativa. Con respecto al impacto positivo, la IA puede ayudar a aumentar la partici- pación ciudadana , al hacer más accesible la información sobre cuestiones políticas.

19

Anuario 2024 de Cotec

Innovación y democracia

20

Quince visiones

Inteligencia artificial

Nuria Oliver

De la personalización a la polarización

L os algoritmos de personalización y recomendación de contenidos surgieron como respuesta a la ingente cantidad de información dis- ponible online . Frente a un océano de datos, este tipo de algoritmos analizan, seleccionan y presentan el contenido que se considera más relevante para cada persona a partir del análisis de los datos de navegación y de consumo de información o productos, interac- ciones previas, intereses declarados y datos demográficos, ofre- ciendo experiencias de usuario personalizadas a nuestros gustos, necesidades e intereses. Este tipo de algoritmos está en el corazón de los motores de búsqueda, las redes sociales, o las plataformas de compra y/o búsqueda de todo tipo de productos y contenidos, incluidos noticias, música, vídeos, películas o potenciales parejas. La personalización y las recomendaciones tienen benefi- cios evidentes. Nos permiten acceder rápidamente a contenido que nos interesa, optimizando nuestro tiempo y mejorando nues- tra experiencia en el mundo digital. Sin embargo, la comodidad y eficiencia de la personalización conllevan consecuencias menos visibles, pero con gran impacto social, fruto de la falta de diversidad en los algoritmos de personalización y recomendación, que genera las llamadas burbujas de filtro y cámaras de resonancia. De hecho, cada uno de nosotros vivimos en una burbuja digital, resultado del filtrado de la información que hacen los algoritmos de recomenda- ción para mostrarnos el contenido de mayor relevancia, creando en el proceso universos informativos paralelos para cada persona, de manera que ya no existe una visión compartida de la realidad. Las cámaras de resonancia son un fenómeno relacionado por el que las personas tendemos a interactuar y conectar con quienes com- parten nuestras mismas creencias, valores y opiniones; lo que se conoce como homofilia . En lugar de exponernos a una diversidad

de perspectivas, las cámaras de resonancia refuerzan y amplifican nuestras creencias al exponernos a contenidos y personas afines a nosotros. Este consumo de información alineada con nuestra manera de pensar, que incluye nuestros sesgos y prejuicios, limita nuestra exposición a perspectivas distintas de las nuestras, lo que puede llevarnos a una visión distorsionada de la realidad y una falta de entendimiento con quienes piensan de manera diferente. En lugar de fomentar el diálogo y el debate constructivo —elementos clave en una sociedad democrática—, una personalización extrema — hiperpersonalización — puede alimentar la polarización al exacer- bar las diferencias y reforzar las divisiones existentes. Cuando cada persona se encuentra atrapada en una burbuja que valida constan- temente sus puntos de vista, se reduce la oportunidad de encon- trar puntos en común o buscar soluciones compartidas. Además, al consumir principalmente información que confirma nuestras creencias, tendemos a volvernos más resistentes a cambiar de opinión o a considerar argumentos opuestos debido al llamado sesgo de confirmación . La polarización social, alimentada por las burbujas de filtro y las cámaras de resonancia, tiene profundas implicaciones para nuestras democracias y sociedades. En una sociedad polarizada, se dificulta la construcción de consensos, la cooperación entre dife- rentes grupos y la búsqueda de soluciones a problemas complejos. Además, la polarización puede llevar a un aumento de la desinfor- mación y las teorías de la conspiración. Cuando las personas se encuentran en extremos opuestos del espectro ideológico sin pun- tos de encuentro, se vuelven más susceptibles a creer en narrativas extremas y a rechazar información que contradiga sus creencias.

21

Anuario 2024 de Cotec

Innovación y democracia

De la generación automática a los deep fakes

L a veracidad, es decir, la cualidad de ser verdadero o exacto, es un pilar fundamental en cualquier sociedad democrática. La dispo- nibilidad de información veraz es esencial para que la ciudadanía pueda tomar decisiones informadas, participe en el proceso polí- tico y adquiera una visión precisa del mundo que nos rodea. Sin embargo, los avances recientes en inteligencia artificial generativa plantean desafíos significativos en lo que respecta a la veracidad de la información. La inteligencia artificial generativa es un área dentro de la IA que existe desde hace décadas, pero que ha progresado de manera exponencial en los últimos dos años. Tiene como objetivo el desarrollo de algoritmos de IA capaces de generar contenido de diversa naturaleza —texto, imágenes, videos, audio, código o incluso moléculas— de manera autónoma. Estos sistemas utilizan redes neuronales profundas generativas para producir contenido novedoso con un nivel de competencia similar o superior al de un humano. Vivimos, sin duda, una revolución de estas técnicas de inteligencia artificial que están en el corazón de aplicaciones utilizadas por cientos de millones de personas cada día, como ChatGPT, MidJourney, Anthropic, Stability AI o Bard, y que ya repre- sentan un mercado de más de 10.000 millones de dólares con un crecimiento compuesto anual anticipado de más de un 27 %. Estas técnicas de IA generativa pueden inventar texto, imá- genes, audio y vídeo sintéticos que carecen de una corresponden- cia con una realidad subyacente, pero que son indistinguibles del contenido que sí tiene dicha correspondencia, impactando de forma directa en la desinformación y la proliferación de las llamadas noti- cias falsas o fake news . Cada vez más, la IA generativa se utiliza para crear y difundir contenido falso y engañoso, en forma de noticias ficticias que parecen legítimas, o de imágenes/audio/vídeo mani- pulados o sintéticos que, de manera muy convincente, nos hacen creer que personas reales están diciendo o haciendo cosas que nunca hicieron o dijeron, o reflejan eventos que nunca sucedieron. Estos contenidos sintéticos no veraces pueden además ser publicados de manera masiva, sistemática y automática en las

redes sociales utilizando bots de inteligencia artificial que pueden programarse para parecer humanos y actuar como usuarios regu- lares o como figuras públicas, políticos o líderes de opinión. En este caso, la desinformación tendría aún más credibilidad, al ser compartida por personas influyentes y reputadas cuya identidad se ha suplantado. La prevalencia en el consumo de información no veraz depende de la temática y el país. En Estados Unidos, un 42 % de l@s usuari@s consumieron noticias falsas relativas a la política y el covid-19, y un 35 % referentes al cambio climático. ¹ Se estima que, en promedio, un 40 % del contenido compartido en las plataformas sociales es falso, y según un estudio de 2019 del Centro de Cultura Cívica de la Universidad de Loughborough, un 43 % de las personas admitieron compartir noticias falsas o impre- cisas en las redes sociales. En el contexto de España, un 82 % de los españoles considera que las noticias falsas representan un problema para la democracia. ² Además, los algoritmos de moderación de contenido de las redes sociales, que deciden qué contenido vemos cada uno de nosotros, cuál se promociona y cuál se desprioriza o censura, tienden a dar prioridad al contenido sorprendente, negativo y extre- mista, ya que tiene más probabilidad de suscitar una reacción por parte de los usuarios (genera más engagement , en la terminología de las plataformas) que el contenido de otra naturaleza, con las devastadoras consecuencias que eso conlleva a nivel social. Cada vez va a ser más difícil —si no imposible— discernir la verdad de la falsedad en el mundo digital.

22

Quince visiones

Inteligencia artificial

Nuria Oliver

De la captura de datos a la violación de derechos fundamentales

L as técnicas actuales de inteligencia artificial precisan de canti- dades ingentes de datos para entrenar enormes redes neuronales profundas. Esta necesidad de recopilar y procesar grandes can- tidades de datos plantea la preocupación de que la información personal de los individuos pueda ser explotada o comprometida. La recopilación y el uso de datos personales o la inferencia de atri- butos personales a partir de datos no personales suscitan cues- tiones fundamentales sobre quién controla estos datos y cómo se utilizan. La captura y explotación indiscriminada de datos sobre las personas también posibilita una vigilancia masiva de la población y la manipulación del comportamiento y las decisiones humanas a gran escala, incluida la manipulación en los procesos democrá- ticos. Además, los sistemas de IA utilizados para la moderación automática de contenido pueden limitar la libertad de expresión de las personas, decidiendo automáticamente qué contenido pro- mocionar, despriorizar o incluso censurar. En una democracia, el respeto por el Estado de derecho es fundamental, e incluye, entre otros, la protección de los derechos de autor y de la propiedad intelectual. Sin embargo, la propiedad intelectual y los derechos de autor también se ven afectados por las técnicas de IA generativa. A medida que generamos contenido creativo —música, arte, texto, etc.— con algoritmos de IA, y a medida que podemos incluso reemplazar a los humanos por sus gemelos digitales en la industria del entretenimiento, el arte dramático o la publicidad, surge la pregunta de quién tiene derecho a reclamar la autoría de estas obras. Esta pregunta es aún más acuciante en el caso de obras generadas por técnicas de inteligencia artificial. ¿Son estas creaciones verdaderamente únicas y autónomas, o sim- plemente están replicando la información y los datos con los que fueron entrenadas? ¿Qué consecuencias tienen para los artistas cuyos estilos son imitados a la perfección por algoritmos de IA, permitiendo a cualquier persona generar ilimitadas creaciones en el estilo de cualquier artista pasado o contemporáneo? Estas cuestiones desafían las concepciones tradicionales de la propiedad intelectual, los derechos de autor y la creatividad.

Para abordar dichos desafíos se requieren leyes y políticas que definan claramente quién es el propietario de las creaciones de la IA y cómo se deben gestionar los derechos de autor y de imagen. Un caso emblemático a este respecto es la huelga de casi cinco meses sostenida por los guionistas, los actores, las actrices y el personal del sector audiovisual de Hollywood como protesta ante la amenaza de que las productoras de Hollywood se apoyasen en técnicas de IA para escribir guiones automáticamente o incluso reemplazar a los actores y las actrices por sus dobles digitales. Finalmente y tras dolorosas semanas, los estudios acordaron no utilizar IA para esos propósitos, salvaguardando, al menos por el momento, el trabajo de los humanos en el sector. La potencial violación de los derechos de autor y de la pro- piedad intelectual por parte de la IA generativa tiene otras implica- ciones negativas: en primer lugar, desincentiva la creatividad y la innovación al limitar la probabilidad de que los creadores obtengan reconocimiento y recompensa por su trabajo. Si se pueden crear de manera gratuita obras en el estilo de dichos creadores, ¿por qué pagar por ellas? En segundo lugar, puede distorsionar el mercado y afectar a la competitividad, la inversión y el desarrollo económico relacionado con la cadena de valor de las industrias creativas y del entretenimiento. En tercer lugar, puede limitar el acceso a obras culturales, artísticas, educativas o científicas, debido al temor de sus creadores de que sean utilizadas sin permiso para entrenar algoritmos de IA generativa, impactando por tanto en el acceso al conocimiento y la información de calidad, pilares fundamentales en una sociedad democrática. Por otro lado, la IA también puede ser una herramienta valiosa para proteger la propiedad intelectual. Se pueden utilizar algoritmos de IA para rastrear y detectar infracciones de derechos de autor, identificar patentes y marcas registradas o para distin- guir contenido creado algorítmicamente del contenido creado por humanos, lo que facilita la defensa de los derechos de propiedad intelectual en un mundo digital en constante cambio.

23

Anuario 2024 de Cotec

Innovación y democracia

Soluciones y perspectivas futuras

Detección automática de la desinformación mediante técnicas de IA . Los algoritmos de IA se pueden utilizar para detectar y combatir la desinformación —tanto la generada por IA como por humanos— a través del análisis automático de patrones de texto y de contenido audiovisual para identificar noticias falsas o engañosas. De hecho, las plataformas de redes sociales están invirtiendo en tecnologías de verificación de hechos impulsadas por IA para etiquetar infor- mación falsa. Además, los sistemas de generación de contenido con técnicas de IA tendrán que indicar de manera clara —a través de marcas de agua o algún otro distintivo— que dicho contenido ha sido creado sintéticamente y, por tanto, no se corresponde necesa- riamente con una realidad subyacente, para que haya transparencia en relación a la naturaleza del contenido digital. Gobernanza . Es necesario establecer regulaciones y marcos lega- les sólidos que garanticen el alineamiento de los algoritmos de IA con los derechos fundamentales y los valores sobre los que se sustenta la sociedad en la que se despliegan dichos algoritmos de IA. Estas regulaciones deberían aplicarse de manera efectiva en todas las industrias donde se utilice la IA, exigiendo transparencia y la preservación de la privacidad. Deberían fomentar la diversi- dad y la sostenibilidad; ofrecer garantías de fiabilidad, seguridad, y reproducibilidad; y prohibir la manipulación subliminal del com- portamiento humano y la discriminación algorítmica, tanto la discri- minación directa como la indirecta. Además, es esencial garantizar que las personas tengan acceso a mecanismos de apelación y recursos legales en caso de discriminación por parte de sistemas de IA. En Europa, dos regulaciones recientemente aprobadas son de especial relevancia: el Reglamento de Servicios Digitales ( Digital Services Act o DSA) y el Reglamento de Inteligencia Artificial (AI Act). Ambos representan un paso notable en esta dirección. Según el AI Act, los sistemas de manipulación del comportamiento humano de manera subliminal estarán prohibidos en la Unión Europea, y habrá exigencias ex ante de transparencia, preserva- ción de privacidad, no discriminación y protección de los derechos de autor en los sistemas de IA considerados de alto riesgo, entre los que se encuentran las aplicaciones para el apoyo de la toma de

C ombatir los desafíos que plantea la IA respecto a la democracia y la formación de la opinión pública requiere una combinación de esfuerzos, que incluyen la diversidad, la detección automática de contenido falso, la gobernanza para prevenir el abuso de la IA en este contexto y una ambiciosa inversión en educación para ayu- darnos a identificar la información errónea, desarrollar el espíritu crítico y protegernos contra la manipulación. Diversidad . Desde un punto de vista técnico, la diversidad en los algoritmos se refiere a la capacidad de que ofrezcan sugerencias variadas y amplias, evitando la hiperpersonalización y, por tanto, reduciendo la probabilidad de la creación de burbujas de filtro y cámaras de resonancia. Las técnicas de diversificación algo- rítmica incluyen la introducción de elementos aleatorios en las recomendaciones, la utilización de algoritmos que optimicen la variedad en lugar de la similitud, o la combinación de diferentes fuentes de información para generar sugerencias más variadas. Evidentemente, es crucial encontrar un equilibrio adecuado entre la personalización —para mejorar la relevancia de las recomendacio- nes— y la diversidad —para ampliar los horizontes de las personas—. Además de los aspectos técnicos, también existen con- sideraciones éticas y de recursos humanos relacionadas con la diversidad en los algoritmos de recomendación. Desde un punto de vista ético, es fundamental garantizar que las recomendaciones no perpetúen sesgos y patrones de discriminación, y promuevan la equidad en la exposición a diferentes contenidos o productos. Desde un punto de vista de los recursos humanos, es importante que los equipos que desarrollan los algoritmos de inteligencia arti- ficial sean multidisciplinares y diversos, para contribuir así a que los algoritmos desarrollados sean inclusivos, no perpetúen estereoti- pos y consideren todas las posibles implicaciones derivadas de su uso. No podemos olvidar que tan solo un 20 % de los expertos en inteligencia artificial somos mujeres, y esta cifra es un 12 % en el contexto de la investigación en inteligencia artificial. Es por tanto prioritario invertir en programas de atracción del talento femenino a esta estratégica disciplina de inmenso valor económico e impacto social.

24

Nuria Oliver

Quince visiones

La herramienta más potente al servicio de la democracia

25

Anuario 2024 de Cotec

Innovación y democracia

“Estos desafíos requieren un enfoque multidisciplinar que involucre a Gobiernos, empresas, la academia y la ciudadanía, para garantizar que la IA se utilice de manera responsable”.

decisiones laborales, judiciales, policiales, educativas, médicas o de asignación de recursos públicos. El DSA, por su parte, exige a las plataformas sociales transparencia sobre cómo se selecciona y presenta el contenido, además de mecanismos de apelación ante las decisiones algorítmicas y garantías de no discriminación y pre- servación de la privacidad. Como siempre, el reto está en el detalle de estas regula- ciones, en velar por su cumplimento y en definir las sanciones pro- porcionadas y pertinentes en caso de incumplimiento. Respecto a la inteligencia artificial, el AI Act prevé que cada Estado miembro disponga de una agencia supervisora para el cumplimiento del mismo que, en el caso de España, es la AESIA (Agencia Española de Supervisión de la Inteligencia Artificial), con sede en La Coruña y de cuyo Consejo Rector formo parte como vocal independiente. Educación. La educación y la sensibilización son clave para con- tribuir a mitigar las posibles consecuencias negativas de la IA en la sociedad en general y en el contexto democrático en particular. Empresas, desarrolladores y usuarios deben ser conscientes de los riesgos asociados a la IA y estar capacitados para identificar y abordar las limitaciones de los algoritmos de IA, como son la falta de diversidad, la veracidad o la discriminación y estereotipación. Los equipos multidisciplinares y la formación en ética, diversidad y, ampliamente hablando, en disciplinas humanísticas en el desa- rrollo de IA, son esenciales para promover una cultura de no dis- criminación. Además, la educación a la ciudadanía debería ser una prio- ridad. Educación sobre cómo identificar la desinformación, con- trastar las fuentes y evaluar críticamente el contenido que consu-

mimos en entornos digitales. La alfabetización digital y el desarrollo del pensamiento crítico empoderan a las personas para ser con- sumidores/as más informados del contenido en el mundo digital y ciudadanos/as responsables en una democracia. Entidades confiables. Cada vez más, será necesario recurrir a enti- dades confiables en el mundo digital que sean reconocidas como vigilantes del poder y garantes de la calidad de la información que comparten y divulgan. En ese sentido, los medios de comunicación tienen una valiosa oportunidad para reclamar de nuevo este papel que habían jugado históricamente, pero que se vio relegado a un segundo plano con la llegada de las redes sociales y otras plata- formas de generación, compartición y divulgación de la contenido a escala. Los medios de comunicación están sujetos a la ética del periodismo, a rigurosos estándares periodísticos que incluyen la verificación de los hechos y la separación entre noticias y opinio- nes. Por tanto, tienen la oportunidad de actuar como entidades confiables que proporcionan información de calidad y análisis fun- damentados, que promueven la transparencia y fomentan el debate público informado, desempeñando así un papel crucial en la pre- servación de una sociedad democrática robusta, libre y pluralista. En una sociedad sin garantías de que lo que leemos, vemos o escuchamos en el mundo digital es verdad, necesitamos entida- des confiables para preservar la integridad de la democracia, per- mitir la participación informada y responsable de la ciudadanía en el proceso democrático y evitar la erosión de la confianza pública en las instituciones por el deterioro, e incluso la desaparición, del debate informado.

26

Quince visiones

Inteligencia artificial

Nuria Oliver

Conclusión

V ivimos en un momento clave en nuestra historia, ya que nunca antes habíamos contado con herramientas tan potentes como la inteligencia artificial. Sabemos que necesitamos la inteligen- cia artificial para abordar los grandes retos del siglo XXI y ofrecer soluciones potenciales y oportunidades para crear un mundo más igualitario, inclusivo y participativo. Al mismo tiempo, la IA puede representar una amenaza para la democracia, entre otros motivos, por la falta de diversidad y veracidad en los algoritmos de IA, por la capacidad para generar y difundir masi- vamente desinformación, por la potencial manipulación a gran escala del comportamiento humano y la violación de derechos fundamentales. Es absolutamente necesario asegurarnos de que el des- pliegue masivo de la IA en nuestra sociedad no amenace nuestros valores democráticos. La compleja relación entre la IA y la demo- cracia nos desafía a reimaginar y mejorar la forma en que la política y la participación ciudadana funcionan. Nos insta a estar más informados y ser más críticos, a educarnos sobre los avances tecnológicos y a exigir rendición de cuentas a nuestros líderes y a las empresas que desarrollan la IA. Abordar estos desafíos requiere un enfoque multidisciplinar que involucre a Gobiernos, empresas, la academia y la ciudadanía para garantizar que la IA se utilice de manera responsable y en beneficio de la sociedad. Un ejemplo de iniciativa innovadora a este respecto es la fundación ELLIS Alicante ³ que dirijo. Es una fundación de nueva creación, fruto de un movimiento de la socie- dad civil que cuenta con el apoyo e impulso de una Administración pública (la Generalitat Valenciana) y con un modelo de financiación público-privado para investigar en inteligencia artificial ética, res- ponsable y para el bien social.

La inteligencia artificial también puede ser una fuerza posi- tiva que fortalezca nuestros sistemas democráticos al permitir una mayor participación ciudadana, fomentar la transparencia, posibi- litar una gestión más eficiente en las Administraciones públicas y permitir el diseño, despliegue y evaluación de políticas públicas alineadas con las necesidades reales de la sociedad. Churchill afirmó que “la democracia es la peor forma de gobierno, exceptuando todas las demás”. Dado que el futuro de la IA depende de nosotros, también está en nuestras manos el futuro de la democracia. Como señaló Albert Einstein, la verdadera sabi- duría radica en utilizar la tecnología para beneficiar a la humanidad y no al revés. Con una inteligencia artificial utilizada sabiamente podremos incluso abordar algunas de las imperfecciones de nues- tra querida democracia.

27

Anuario 2024 de Cotec

Innovación y democracia

1 2 3

Statista, 2023. Statista, 2022.

ELLIS Alicante, <https://ellisalicante.org>.

28

Quince visiones Laurence Tubiana Políticas climáticas en democracias precarias

Crisis climática

Laurence Tubiana

Para ser socialmente justa, la transición hacia el cero neto debe encarar los desiguales efectos distributivos que provoca la progresiva eliminación de los combustibles fósiles. Mientras no se aborden las desigualdades en el carbono

y la riqueza, los responsables de las políticas climáticas se encontrarán con un obstáculo constante y recurrente: la sensación real de que se están cometiendo injusticias.

29

Anuario 2024 de Cotec

Innovación y democracia

L aurence Tubiana es directora general de la Fundación Europea para el Clima (ECF) y profesora en Sciences Po, en París. Previamente, fue presidenta del Consejo de Administración de la Agencia Francesa de Desarrollo, así como del Consejo de Expertise France (el organismo público francés de asistencia técnica interna- cional). Antes de incorporarse a la ECF, fue embajadora de Francia para el cambio climático y representante especial en la COP21 y, como tal, una de las principales artífices del histórico Acuerdo de París. Entre esta conferencia y la COP22, fue nombrada defensora de alto nivel de la acción por el clima de la ONU. Laurence cuenta con décadas de conocimiento y experien- cia en cambio climático, energía, agricultura y desarrollo sosteni- ble, y ha trabajado con Gobiernos, “think tanks”, ONG y el mundo académico. Empezó su carrera como directora de Investigación del Instituto Nacional de Investigación Agronómica francés. En los años ochenta y principios de los noventa fundó, y luego diri- gió, Solagral, una ONG dedicada a la seguridad alimentaria y el medioambiente mundial. En 2002, fundó el Instituto de Desarrollo Sostenible y Relaciones Internacionales, con sede en París, que dirigió hasta 2014. Entre 1997 y 2002, fue asesora principal sobre medioambiente del primer ministro francés Lionel Jospin. Entre 2009 y 2010 creó, y luego dirigió, la Dirección de Bienes Públicos Mundiales del Ministerio de Asuntos Exteriores francés. En 2013, presidió el debate nacional francés sobre la transición energética. En 2018, el presidente Macron la nombró miembro del Alto Consejo para el Cambio Climático de Francia. A lo largo de los años, Laurence ha desempeñado varios cargos académicos, entre ellos el de profesora y directora cien- tífica de los másteres de Desarrollo Internacional y Estudios Medioambientales de Sciences Po; y el de profesora de Asuntos Internacionales en la Universidad de Columbia, en Nueva York. Ha sido miembro de numerosos consejos y comités científicos, como el Comité sobre Medioambiente y Desarrollo Internacional de China, y en la actualidad forma parte de consejos asesores como el de Iberdrola.

Fotografía cedida por la autora

Directora general de la Fundación Europea para el Clima (ECF) y profesora en Sciences Po

30

Quince visiones

Crisis climática

Laurence Tubiana

“En EE. UU. y la UE, el decil más rico emite entre tres y cinco veces más carbono que el individuo mediano, y unas dieciséis veces más que el decil más pobre”.

E l año 2024 va a ser trascendental para la democracia en el mundo. Según estimaciones conservadoras, al menos 2000 millones de personas podrán acudir a las urnas en cincuenta países, entre ellos Estados Unidos, toda Europa en las elecciones al Parlamento Europeo, India, Indonesia, Reino Unido y Sudáfrica. Nunca ha votado una cifra semejante de gente en el planeta en un solo año. Hay mucho en juego en numerosos frentes, pero quizá sobre todo en el del cambio climático. Sus graves consecuencias son cada vez más evidentes y la necesidad de actuar con urgencia es ineludible. 2023 fue el año más cálido registrado por un margen considerable, ¹ y existe la posibilidad de que en 2024 las temperatu- ras globales superen en 1,5 ºC los niveles preindustriales (uno de los

objetivos del Acuerdo de París). Las emisiones globales de gases de efecto invernadero, que en 2025 deberían haberse reducido, han reanudado su tendencia al alza tras la pandemia de covid-19. En la COP28, celebrada en Dubái en diciembre de 2023, quedó claro que la evolución de la reducción de emisiones ha sido insuficiente y que es necesario corregir esa trayectoria de manera rápida y deci- siva. En buena medida, la consecución de estos avances dependerá de lo que suceda en las elecciones de este año, incluidas las que se celebrarán en tres de los cuatro mayores emisores del mundo: Estados Unidos, la Unión Europea e India. Los mandatos transmiti- dos en estas elecciones definirán las políticas climáticas que estos países desarrollarán en la segunda mitad de esta década crucial.

31

Anuario 2024 de Cotec

Innovación y democracia

El backlash

L os votantes son muy conscientes de la urgencia de la situación. En las economías avanzadas, las encuestas muestran sistemáti- camente un alto nivel de preocupación por el cambio climático. Según el Eurobarómetro de 2023, el 77 % de los europeos cree que el cambio climático es un problema muy grave. ² Pero la pregunta clave —¿cómo responder?— está plagada de dificultades. El panorama político es muy complejo, al igual que lo son las medidas políticas, que suelen estar sesgadas por pode- rosos lobbies empresariales con intereses particulares en impedir un cambio importante. En los últimos años, el término “ backlash climático” ha pasado a formar parte del léxico político. Las políticas climáticas no son las principales impulsoras del reciente resurgi- miento de partidos populistas de extrema derecha en algunos paí- ses europeos; prevalecen en ellos las preocupaciones relacionadas con la inmigración y el coste de la vida. ³ Pero, cada vez más, los populistas tratan de obtener ventaja electoral avivando el temor a que la transición hacia el “cero neto” provoque nuevos aumentos del precio de la energía (a pesar de que las energías renovables están haciendo que este sea más bajo y estable), plantee una ame- naza existencial para los medios de subsistencia y las comunida- des que dependen de industrias que emiten mucho carbono, e implique restricciones draconianas en las elecciones de estilo de vida. Según encuestas recientes, parece que estos argumentos están teniendo repercusión. ⁴ Los populistas comparan los costes y los sacrificios (los cuales suelen exagerar) que se piden a la mayoría de la gente con el estilo de vida de las élites —incluidos los responsables políticos—, que genera mucho carbono. Esto encaja bien en su relato general: las élites gobernantes no son de fiar, desprecian a los ciudadanos “corrientes” y están dispuestas a imponer a los demás sacrificios que ellas no están dispuestas a hacer. El debate está adquiriendo progresivamente una dimensión cultural, y ganan terreno las afir- maciones que aseguran que la transición hacia el cero neto trata de socavar los estilos de vida suburbanos y rurales (más dependientes de la agricultura y el automóvil) de manera deliberada. Ya hay ejemplos, sobre todo en Europa, de cómo este backlash influye en las políticas y los resultados electorales. En Alemania, en 2023, el fracaso de la propuesta de prohibir las cal- deras de gas se debió a que hubo actores políticos que supieron explotar y avivar la creciente sensación de que las élites impo- nen políticas de transición sin tener suficientemente en cuenta su impacto distributivo. En marzo de 2023, el populista Movimiento

Campesino-Ciudadano (BBB) obtuvo el mayor número de esca- ños en las elecciones provinciales de los Países Bajos, gracias en buena medida a su campaña contra las propuestas del Gobierno para reducir las emisiones de nitrógeno mediante una reducción de la cabaña ganadera y la producción agrícola. En 2024, existe el riesgo de que el backlash climático se manifieste electoralmente de otras maneras. Antes de las elec- ciones al Parlamento Europeo, que se celebrarán en junio, el futuro del trascendental Pacto Verde de la Unión Europea ya pende de un hilo. En 2023 se produjeron grietas evidentes en el consenso político que lo sustenta. Figuras importantes de la familia política de centroderecha del Partido Popular Europeo (PPE), preocupa- das por perder votos que podrían irse a su flanco derecho, han pedido que se ralenticen las nuevas leyes y reglamentos, alegando, de distintas formas, la necesidad de preservar la competitividad económica europea y de minimizar el coste para los ciudadanos. En el Parlamento Europeo, se opusieron notablemente a la Ley de Restauración de la Naturaleza de la Unión Europea, con el argu- mento de que impondría costes inaceptables a los agricultores (aunque, al final, sus esfuerzos para bloquearla fracasaron). Si el Parlamento Europeo que sale de las elecciones de junio es más reacio a aceptar la agenda del Pacto Verde, eso tendrá consecuencias inevitables en el mandato de la próxima Comisión y la viabilidad de las políticas “Objetivo 55”, cuyo fin es reducir un 55 % las emisiones de la Unión Europea en 2030. Poco se podrá avan- zar sin el compromiso de los Estados miembros, cuyos Gobiernos se enfrentan a dinámicas electorales similares. En las elecciones presidenciales estadounidenses que se celebrarán en noviembre, es probable que los votantes se enfrenten a una elección particularmente dura sobre la implicación de su país en la lucha contra el cambio climático (y sobre muchas otras cues- tiones). Desde que en 2021 abandonó el despacho oval, la postura de Donald Trump, si acaso, se ha endurecido. Si sale elegido, se espera que vuelva a retirar a Estados Unidos del Acuerdo de París y que revierta la importante agenda climática de la Administración Biden, en concreto la Ley de Reducción de la Inflación. Si Biden se ha centrado en las oportunidades que ofrece la reindustrialización verde, Trump ha hecho hincapié en los riesgos que eso supone para el empleo en el sector de los combustibles fósiles. Un segundo mandato de Trump supondría un gran retroceso en la descarbo- nización del segundo mayor emisor del mundo y tendría graves repercusiones en la agenda climática internacional.

32

Page 1 Page 2 Page 3 Page 4 Page 5 Page 6 Page 7 Page 8 Page 9 Page 10 Page 11 Page 12 Page 13 Page 14 Page 15 Page 16 Page 17 Page 18 Page 19 Page 20 Page 21 Page 22 Page 23 Page 24 Page 25 Page 26 Page 27 Page 28 Page 29 Page 30 Page 31 Page 32 Page 33 Page 34 Page 35 Page 36 Page 37 Page 38 Page 39 Page 40 Page 41 Page 42 Page 43 Page 44 Page 45 Page 46 Page 47 Page 48 Page 49 Page 50 Page 51 Page 52 Page 53 Page 54 Page 55 Page 56 Page 57 Page 58 Page 59 Page 60 Page 61 Page 62 Page 63 Page 64 Page 65 Page 66 Page 67 Page 68 Page 69 Page 70 Page 71 Page 72 Page 73 Page 74 Page 75 Page 76 Page 77 Page 78 Page 79 Page 80 Page 81 Page 82 Page 83 Page 84 Page 85 Page 86 Page 87 Page 88 Page 89 Page 90 Page 91 Page 92 Page 93 Page 94 Page 95 Page 96 Page 97 Page 98 Page 99 Page 100 Page 101 Page 102 Page 103 Page 104 Page 105 Page 106 Page 107 Page 108 Page 109 Page 110 Page 111 Page 112 Page 113 Page 114 Page 115 Page 116 Page 117 Page 118 Page 119 Page 120 Page 121 Page 122 Page 123 Page 124 Page 125 Page 126 Page 127 Page 128 Page 129 Page 130 Page 131 Page 132 Page 133 Page 134 Page 135 Page 136 Page 137 Page 138 Page 139 Page 140 Page 141 Page 142 Page 143 Page 144 Page 145 Page 146 Page 147 Page 148 Page 149 Page 150 Page 151 Page 152 Page 153 Page 154 Page 155 Page 156 Page 157 Page 158 Page 159 Page 160 Page 161 Page 162 Page 163 Page 164 Page 165 Page 166 Page 167 Page 168 Page 169 Page 170 Page 171 Page 172 Page 173 Page 174 Page 175 Page 176 Page 177 Page 178 Page 179 Page 180 Page 181 Page 182 Page 183 Page 184 Page 185 Page 186 Page 187 Page 188 Page 189 Page 190 Page 191 Page 192 Page 193 Page 194 Page 195 Page 196 Page 197 Page 198 Page 199 Page 200

Made with FlippingBook - Online Brochure Maker