SAFEXPLAIN: Safe and Explainable Critical Embedded Systems based on AI

SAFEXPLAIN es un proyecto que tiene como objetivo reducir la brecha fundamental actual entre los requisitos de seguridad funcional (FUSA) de los sistemas basados ​​en inteligencia artificial autónoma crítica (IA) y la naturaleza compleja de las soluciones de aprendizaje profundo (DL). La falta de transparencia (principalmente explicabilidad y trazabilidad) y la naturaleza estocástica y dependiente de los datos del software DL contrastan con la necesidad de soluciones de software deterministas, verificables y basadas en pruebas de aprobación/rechazo para sistemas críticos.

IKERLAN participa en el proyecto con un equipo multidisciplinar de ingenieros de seguridad funcional, especialistas en Analítica de Datos e Inteligencia Artificial e ingenieros de software con alta experiencia en el ámbito ferroviario.

Descubre más sobre SAFEXPLAIN aquí.

Fecha de publicación

10/08/2023

Tópicos:

  • Inteligencia Artificial

Comunidad:

  • Inteligencia Artificial y Analítica de Datos

Tal vez te pueda interesar...

Inscríbete

¡Estás a un paso de formar parte de Shaking HUB! Queremos conocerte para poder compartir contigo las oportunidades y contenidos que mejor encajan con tu perfil.

"*" señala los campos obligatorios

Este campo está oculto cuando se visualiza el formulario
A qué campaña pertenece este campo?
Este campo está oculto cuando se visualiza el formulario
Este campo está oculto cuando se visualiza el formulario
Este campo está oculto cuando se visualiza el formulario
Nombre completo*
¿Qué comunidad te interesa? Puedes marcar más de 1.*
Debes elegir entre 1 y 4 opciones.