¿Cómo evitar interpretaciones erróneas en la IA y cómo aplicar rigor metodológico para tener herramientas fiables, útiles y justas?
Con los expertos Santi Seguí, Oriol Pujol y Jordi Vitrià de la Universidad de Barcelona

En este Breakfast & Learn hemos hablado de Inteligencia Artificial y Salud Mental.
Uno de los puntos clave de la sesión ha sido la importancia de desarrollar herramientas de IA justas y fiables implica trabajar para identificar y mitigar interpretaciones erróneas. Las interpretaciones erróneas no son inevitables, pueden corregirse en primer lugar asegurando una recogida de datos diversos y representativos y, en segundo lugar, con un diseño de funciones que realmente responda a las necesidades sanitarias planteadas. Hay que tener en cuenta que mitigar sesgos es un proceso continuo: requiere seguir auditando y validando el sistema también cuando ya está en funcionamiento, y hacerlo a menudo y de forma sistemática.
Los ponentes han subrayado el papel fundamental del rigor metodológico para evitar conclusiones erróneas y garantizar que las herramientas de IA sean realmente útiles en la toma de decisiones. En este sentido, han puesto énfasis en la importancia de diferenciar entre correlación y causalidad para evitar interpretaciones sesgadas que podrían comprometer la eficacia y la seguridad de estos sistemas.
Los tres ponentes han puesto de manifiesto la necesidad de una vigilancia constante en el desarrollo de la IA para asegurar su equidad y minimizar riesgos en ámbitos críticos como la salud mental.
Aquí puedes ver el vídeo de la sesión.