El modelo de Inteligencia Artificial (IA) imperante es el dirigido por datos, es decir, se usan ingentes cantidades de los mismos anotados para poder predecir el significado o la categoría a la que pertenecen datos nuevos. Esto que puede parecer inocuo, no lo es cuando un sistema de IA se aplica a actividades que afectan a los seres humanos, como pueden ser decisiones automáticas en el dominio de la medicina, las finanzas o conversaciones con sistemas conversacionales. Los sistemas de IA de este tipo de aplicaciones están entrenados con datos personales y su protección es fundamental para salvaguardar la privacidad de las personas cuyos datos se están usando, y para fomentar la confianza en una IA colaborativa y respetuosa con las personas.
Este es el fin del proyecto ‘FedDAP: Aprendizaje Federado para Preservar la Privacidad de los Datos’, que lidera la Universidad de Jaén (UJA) a través del Grupo de Investigación SINAI (Sistemas Inteligentes de Acceso a la Información).
“En un momento en el que la IA está despertando más preocupación que entusiasmo en la población en general, debido a la revolución que puede suponer en el mercado laboral, al uso intensivo de datos personales y a la aparente incapacidad de conocer el nivel de protección de los datos que usan los sistemas de IA, es trascendental avanzar en modelos de IA que salvaguarden la privacidad de los datos, y sobre todo en aquellos casos en los que se tratan datos personales”, asegura el profesor titular de la UJA Eugenio Martínez Cámara, investigador principal del proyecto. Esta es la razón que ha llevado al grupo SINAI de la Universidad de Jaén a adentrarse en el estudio del paradigma de aprendizaje automático conocido como ‘Aprendizaje Federado’, el cual evita que los datos tengan que transferirse a un servidor central, pudiéndose éstos mantener en los dispositivos de sus propietarios, y por tanto evitando desvelarlos a usuarios ajenos a su creación.
En este sentido, el investigador principal del proyecto resalta la relevancia de avanzar en el desarrollo e implantación del ‘Aprendizaje Federado’. “Debemos trabajar en una IA confiable y respetuosa con las personas, y esto pasa por la protección de la privacidad de los datos, siendo el aprendizaje federado una opción destacada al evitar que los datos tengan que abandonar los dispositivos de sus propietarios, y por tanto reduciendo que estos pierdan el poder sobre sus propios datos”, explica Eugenio Martínez.
El proyecto está permitiendo la integración del aprendizaje federado en otras líneas de investigación en las que el grupo SINAI de la Universidad de Jaén es líder, como es el caso del Procesamiento del Lenguaje Natural (PLN). Recientemente, se han obtenido resultados muy positivos en el uso del aprendizaje federado en tareas relevantes como el análisis de opiniones y la identificación del lenguaje de odio. Estos resultados se publicarán en la prestigiosa revista internacional Transactions of the Association for Computational Linguistics.
El equipo de investigación del proyecto FedDAP está formado por miembros del grupo SINAI, investigadores de la Universidad de Granada y de la Cardiff University de Reino Unido que están convencidos de que los resultados del proyecto contribuirán al avance de las técnicas y aplicaciones del aprendizaje federado, lo cual será una aportación clave por el desarrollo de una IA más confiable, segura y respetuosa con los derechos de las personas.