Investigadores de la UJA impulsan una IA más justa, explicable y fiable
Uno de los principales avances del proyecto ha sido demostrar que la explicabilidad y la equidad algorítmica no deben entenderse como elementos separados
Foto: UJA
Campus de Las Lagunillas
Investigadores de la Universidad de Jaén han alcanzado el objetivo de desarrollar sistemas de Inteligencia Artificial capaces de ofrecer recomendaciones más justas, transparentes y alineadas con los intereses reales de las personas, gracias al proyecto europeo FIDELITY, una prestigiosa Marie Skłodowska-Curie Postdoctoral Fellowship financiada por la Unión Europea, iniciativa liderada por el investigador Raciel Yera bajo la supervisión del catedrático Luis Martínez. Se trata de un proyecto que sitúa a la UJA en la vanguardia internacional de la investigación en IA responsable y sistemas de recomendación en grupo.
El proyecto FIDELITY aborda uno de los grandes desafíos actuales de la IA: cómo combinar equidad, explicabilidad y confianza en sistemas que influyen directamente en decisiones cotidianas, desde plataformas de comercio electrónico y turismo, hasta recomendaciones de noticias, contenidos multimedia o servicios digitales. Frente a modelos opacos, el proyecto ha desarrollado nuevos algoritmos y herramientas capaces no solo de generar recomendaciones de alta calidad, sino también de explicar por qué son adecuadas y cómo garantizan un tratamiento equilibrado para usuarios y proveedores.

Uno de los principales avances del proyecto ha sido demostrar que la explicabilidad y la equidad algorítmica no deben entenderse como elementos separados, sino como dimensiones complementarias para construir sistemas verdaderamente confiables. En este sentido, los investigadores han validado sus propuestas mediante experimentos offline, escenarios reales y estudios con usuarios, analizando cómo las personas perciben la transparencia, la satisfacción grupal y la equidad de las recomendaciones.
La relevancia internacional de estos resultados ha quedado respaldada por su difusión en foros científicos de máximo prestigio, entre ellos ACM UMAP, referencia mundial en modelado de usuario y personalización, donde los estudios derivados del proyecto han servido para validar empíricamente el impacto de las nuevas estrategias explicables y justas en recomendación en grupo. A ello se suman contribuciones recientes en congresos y revistas internacionales sobre explicación, equidad de proveedores y plataformas de apoyo a recomendaciones en grupo.
Más allá de la aportación científica, FIDELITY ofrece una hoja de ruta práctica para que desarrolladores y empresas tecnológicas integren principios de IA responsable en productos reales, favoreciendo ecosistemas digitales donde usuarios, grupos y pequeños proveedores reciban recomendaciones más equilibradas, comprensibles y confiables.
El proyecto, financiado por la Unión Europea dentro de Horizon Europe Marie Skłodowska-Curie Actions (Project ID: 101106164), consolida la posición de la Universidad de Jaén y del grupo SINBAD 2, al que pertenecen los investigadores, como referentes internacionales en sistemas de recomendación, inteligencia artificial explicable y fairness-aware AI, contribuyendo al desarrollo de una tecnología centrada en las personas y socialmente responsable.