La historia de hace dos décadas está a punto de repetirse. Si se va a adoptar la IA de una empresa y sus agentes, es muy importante poder confiar en ese proveedor, respetarlo y saber que la empresa tiene integridad y actúa conforme a unos principios bien definidos. Gracias a nuestros veinte años de trayectoria como partner fiable y de confianza para nuestros maravillosos clientes, contamos con una ventaja real y significativa.
P: A principios de este año, Workday anunció que había obtenido dos de las principales certificaciones en IA por su compromiso con una IA responsable. ¿Hay ejemplos prácticos de cómo aplica Workday sus principios éticos a la IA responsable y a los agentes de IA?
Sauer: Tenemos un excelente conjunto de principios que guían el desarrollo y la implementación de nuestra IA, pero los principios son la parte más fácil. Todo el mundo los tiene y son bastante similares. Lo difícil es saber cómo implementarlos y ponerlos en práctica.
Cuando llegué a esta empresa, hace seis años y medio, empezamos a crear un equipo de IA responsable. Ahora contamos con un equipo formado por científicos de datos y científicos sociales, y eso ha sido fundamental. Hemos creado un proceso de evaluación en el que clasificamos por niveles de riesgo las funcionalidades que está desarrollando Workday. Nos aseguramos de comprender en qué consisten y prestamos mucha atención a todo lo que implique la toma de decisiones trascendentales que puedan afectar a las personas. Supervisamos el proceso de desarrollo, realizamos pruebas y hacemos todo lo posible para garantizar que los resultados tengan una gran integridad y se ajusten a los objetivos previstos.
P: Hay personas que consideran que la integridad y la ética "frenan" la innovación. ¿Cómo puede una base ética robusta ayudar a las empresas a avanzar más rápido, especialmente con la IA?
Sauer: Es cierto que los equipos de innovación e ingeniería suelen considerar que el departamento jurídico les frena. Pero nuestro departamento de ingeniería no opina así. Entienden la importancia de lo que hacemos y ellos mismos quieren asegurarse de que el desarrollo sea ético y conforme a unos altos estándares.
Nuestros clientes esperan un alto nivel de innovación en los productos que lanzamos. O sea que, en cierto modo, se trata de una autoexigencia. Lo hacemos bien porque nos lo exigimos a nosotros mismos y debemos hacerlo bien porque es lo que exige el mercado.
P: ¿Cómo ve la cuestión del criterio humano, a medida que se automatizan más procesos con IA?
Sauer: Clasificamos el riesgo como bajo, medio, medio-alto o alto. Cuando algo entraña un riesgo entre medio y alto, y tenemos que tomar una decisión que nos parece trascendental, nos atenemos al principio de que las personas deben participar en esa decisión.