Uso responsable de la IA Generativa

Uso responsable de la IA generativa

¿Cuáles son los riesgos derivados de esta falta de precisión?

Alucinaciones (información arrojada por el sistema que, aunque esté escri - to de forma coherente, contiene algún dato incorrecto). Dificultad de lograr y mantener la calidad de la información. Falta de precisión suficiente para misiones críticas. Ajustar el rendimiento y combinar las salidas de los modelos con otras herramientas para evitar respuestas alucinatorias. Enriquecer las instrucciones con técnicas avanzadas para mejorar la preci - sión de las respuestas. Adaptación de los modelos al contexto específico de cada caso.

¿Qué medidas podemos tomar para mitigarlos?

7.2. Seguridad en la herramienta

La seguridad de la herramienta es su capaci - dad para garantizar la integridad, confidencia - lidad y disponibilidad de los datos y procesos relacionados con la generación de contenido.

En estos casos podría producirse un acceso a la herramienta por parte de terceros no autorizados, lo que podría abocar a situaciones de desinforma - ción de los usuarios de esta (por los resultados que la herramienta pudiera generar), así como, en general, en la existencia de un fraude.

¿Cuáles son los riesgos derivados de una eventual falta de seguri- dad? ¿Qué medidas podemos tomar para mitigarlos?

Valorar los datos y las solicitudes para evitar entradas malintencionadas y fugas de datos. Realizar pruebas para filtrar respuestas cuestionables. Desplegar filtros para proteger y mejorar la seguridad de los datos. Reforzar las políticas de ciberseguridad existentes y su aplicación a la IAG.

40

Made with FlippingBook - Online Brochure Maker