De cara al futuro: tendencias de IA en FP&A
El siguiente paso en la evolución de la IA en FP&A no es solo una cuestión de eficiencia y escala, se trata de conseguir sistemas más inteligentes y autónomos que mejoren la previsión, la toma de decisiones y la estrategia financiera. A medida que crecen las capacidades de la IA, los equipos financieros tendrán que afrontar nuevos retos, desde garantizar que los conocimientos de IA sean transparentes hasta integrar una planificación financiera personalizada en tiempo real. Las siguientes tendencias perfilarán el futuro.
1. Sistemas de previsión autónomos
La previsión con IA se está volviendo más autónoma. Los sistemas de previsiones con IA ya no requieren una recalibración manual regular, porque aprenden de datos nuevos, ajustan supuestos dinámicamente e integran indicadores económicos externos para producir pronósticos financieros casi instantáneos.
Esto está generando un cambio profundo en la forma en que los equipos financieros elaboran sus previsiones. En lugar de realizar análisis frecuentes (y que consumen mucho tiempo), los equipos pueden simplemente supervisar modelos autoajustables que detectan automáticamente cambios importantes, a menudo antes de que se materialicen en el mercado. A su vez, las empresas pueden ajustar proactivamente las estrategias para aprovechar las oportunidades, mejorar la gestión de riesgos y reducir los errores humanos.
2. IA explicable (XAI) para ser transparentes
A medida que aumenta la popularidad de los modelos autónomos, los equipos de planificación y análisis financieros deben tener en cuenta la posible naturaleza "hermética" de los modelos de IA que no cuentan con procesos de toma de decisiones claros y explicables, por lo que plantean riesgos de cumplimiento normativo y seguridad.
"Los marcos legales y reglamentarios tradicionales, creados en torno a la toma de decisiones humanas, afrontan retos al vérselas con la naturaleza hermética de la IA", según explica el experto en derecho internacional Joshua Dupuy en un análisis reciente para Reuters.
"El dilema de una IA cuyas decisiones se basan en una lógica que no es transparente ni fácilmente comprensible complica la asignación de responsabilidades, especialmente cuando dichas decisiones conducen a resultados adversos o riesgos sistémicos".
Los marcos de IA explicable (XAI) combaten este reto, garantizando la transparencia y auditabilidad de las predicciones generadas por IA. XAI proporciona visibilidad sobre cómo llegan a sus conclusiones los modelos de IA para que los equipos puedan comprender, validar y confiar en el razonamiento en el que se basan los insights de la IA.
Las empresas que no demuestren cómo generan insights sus modelos de IA corren el riesgo de recibir penalizaciones reglamentarias, incurrir en responsabilidades jurídicas o ver dañada su reputación. Si los modelos de IA desarrollan sesgos no deseados (como favorecer la rentabilidad a corto plazo, en lugar de la sostenibilidad a largo plazo), las empresas también podrían tomar decisiones financieras que merman la confianza de los accionistas.
Para mitigar estos riesgos, los responsables financieros deben priorizar la XAI para crear modelos de IA que proporcionen justificaciones claras y auditables para sus recomendaciones. Al adoptar la IA en FP&A, las empresas también deberían invertir en marcos de ética de IA para mantener sus sistemas de IA de FP&A alineados con sus valores corporativos, los requisitos legales y las expectativas de las partes interesadas.