La ciudad de Madrid ha dado un paso significativo en la implementación de técnicas de verificación con el objetivo de mejorar la seguridad en el uso de la Inteligencia Artificial. Esta iniciativa surge en un momento crucial donde la incorporación de la IA en diversos ámbitos ha generado interrogantes sobre la protección de la información y la toma de decisiones automatizadas. Con la adopción de estas medidas, Madrid busca asegurar que los sistemas basados en Inteligencia Artificial operen de manera segura y eficiente, evitando posibles vulnerabilidades y riesgos. Este avance demuestra el compromiso de la ciudad en promover el uso responsable de la tecnología, garantizando la protección de datos y la transparencia en los procesos donde la IA juega un papel fundamental.
Madrid fortalece seguridad en uso de Inteligencia Artificial con innovadoras técnicas de verificación
La Comunidad de Madrid está llevando a cabo un importante avance en el ámbito de la Inteligencia Artificial (IA) con el desarrollo de técnicas innovadoras de verificación destinadas a incrementar la seguridad en el procesamiento de imágenes y datos. Este estudio, liderado por el Instituto Madrileño de Estudios Avanzados (IMDEA) Software en colaboración con la Universidad Carlos III de Madrid y NEC Laboratories Europe, ha dado lugar a la creación de una herramienta revolucionaria que mejora la computación verificable con el propósito de detectar contenidos editados de forma eficiente y confiable.
Este sistema se fundamenta en una familia de técnicas criptográficas que posibilitan obtener una garantía irrefutable de que un tercero, como una empresa o un servidor en la nube, ha realizado un procesamiento correcto de los datos de un usuario. De esta manera, se puede verificar si una imagen o un vídeo ha sido manipulado, confirmar que una predicción generada por IA se origina en un modelo auditado, o asegurar que en una decisión relacionada con la solvencia crediticia se ha empleado únicamente la información proporcionada por el cliente. Todo ello se lleva a cabo con total compatibilidad con la privacidad para asegurar la confidencialidad de los datos.
Los investigadores han introducido un protocolo que puede ser fácilmente integrado en una cadena de procesamiento de datos con el fin de permitir la verificación completa de, por ejemplo, las predicciones realizadas por redes neuronales, que constituyen la base de la mayoría de los modelos de IA. El equipo ha desarrollado un prototipo de aplicación de sus sistemas de comprobación que representa una notoria mejora con respecto a las técnicas existentes, especialmente en términos de rapidez y eficacia.
Estos resultados, obtenidos en el marco del proyecto PICOCRYPT con el respaldo de una beca del Consejo Europeo de Investigación, no solo optimizan la eficiencia y la escalabilidad de los sistemas de pruebas criptográficas, sino que también abren nuevas posibilidades para garantizar la integridad, la equidad y la privacidad en las labores de procesamiento de datos.
Deja una respuesta