SAFEXPLAIN: Safe and Explainable Critical Embedded Systems based on AI

SAFEXPLAIN es un proyecto que tiene como objetivo reducir la brecha fundamental actual entre los requisitos de seguridad funcional (FUSA) de los sistemas basados ​​en inteligencia artificial autónoma crítica (IA) y la naturaleza compleja de las soluciones de aprendizaje profundo (DL). La falta de transparencia (principalmente explicabilidad y trazabilidad) y la naturaleza estocástica y dependiente de los datos del software DL contrastan con la necesidad de soluciones de software deterministas, verificables y basadas en pruebas de aprobación/rechazo para sistemas críticos.

IKERLAN participa en el proyecto con un equipo multidisciplinar de ingenieros de seguridad funcional, especialistas en Analítica de Datos e Inteligencia Artificial e ingenieros de software con alta experiencia en el ámbito ferroviario.

Descubre más sobre SAFEXPLAIN aquí.

Fecha de publicación

10/08/2023

Tópicos:

  • Inteligencia Artificial

Comunidad:

  • Inteligencia Artificial