El uso de machine learning para la detección precoz del TEA tiene un gran potencial, especialmente en la reducción del tiempo de diagnóstico y en la identificación temprana de patrones que podrían pasar desapercibidos. Sin embargo, es clave equilibrar la tecnología con un enfoque humano: el diagnóstico no puede depender solo de algoritmos, sino que debe integrarse con la evaluación clínica y el acompañamiento familiar.
Desde un punto de vista ético, surgen cuestiones como la privacidad de los datos, el sesgo en los modelos y el riesgo de sobrediagnóstico o dependencia excesiva en herramientas automatizadas. Además, aunque el mapeo de redes neuronales podría mejorar la precisión, es crucial garantizar su interpretabilidad para evitar diagnósticos opacos.
La inteligencia artificial debe ser un apoyo, no un sustituto del criterio clínico y la relación empática con el paciente. ¿Qué opináis sobre cómo podríamos mitigar estos desafíos éticos en su implementación?