Ocho formas de garantizar que la inteligencia artificial de su empresa sea ética

Partiendo de nuestra experiencia, hemos elaborado ocho lecciones para las empresas tecnológicas que desean abogar en todos sus ámbitos por un compromiso con una IA (inteligencia artificial) ética.

Image placeholder

Estar al día en IA y privacidad de los datos puede resultar abrumador. Por muchas promesas y oportunidades que se ofrezcan, también existe una gran preocupación por el uso indebido de los datos y los riesgos a los que se expone la privacidad personal. Conforme evaluamos estas cuestiones y se va desarrollando la llamada Cuarta Revolución Industrial, surgen una serie de preguntas sobre las posibilidades y los peligros de la IA, y cómo las empresas pueden resituarse para comprender mejor el valor que aporta.

Los ingenieros y desarrolladores pueden considerar que la integración de la ética en los productos tecnológicos es un concepto más bien abstracto. Si bien es cierto que numerosas empresas tecnológicas emprenden por su cuenta iniciativas para materializarlo en aspectos concretos y tangibles, es fundamental que suprimamos el carácter aislado de estas acciones y compartamos las mejores prácticas respectivas. Si las empresas colaboran entre ellas y aprenden unas de otras, podemos poner el listón más alto para todo el sector en su conjunto. ¿Existe un buen punto de partida? Centrarnos en los aspectos que generan confianza.

La confianza ha sido una parte esencial de Workday desde el primer momento. Nuestros clientes saben que nos tomamos muy en serio su privacidad y seguridad, compromiso que hemos mantenido a lo largo de los años. Las medidas de protección de la privacidad son esenciales en los servicios que ofrece Workday y se manifiestan en nuestros principios sobre la privacidad, nuestro enfoque del RGPD y nuestro sólido programa de privacidad. Conforme evolucionamos hacia un futuro basado en el machine learning orientado a las personas, intentamos aprovechar al máximo nuestro enfoque que prioriza la privacidad y la seguridad para garantizar que diseñamos y ofrecemos un machine learning de manera ética.

Muchas empresas están aplicando principios de alto nivel en su enfoque para diseñar e implementar productos de IA. Ahora bien, los principios solo son válidos si se implementan de verdad. Recientemente, Workday publicó sus compromisos con una IA ética para mostrar cómo aplicamos unos principios que se integran directamente en nuestros valores fundamentales de servicio al cliente, integridad e innovación. A partir de nuestra experiencia, hemos elaborado ocho lecciones para las empresas tecnológicas que desean abogar por esos principios en todos los ámbitos:

1. Definir un marco común sobre lo que significa la ética en la IA. Esta definición debe ser concreta e interactiva para todas las partes interesadas de la empresa. Para Workday, la ética en la IA significa que nuestros sistemas de machine learning reflejan los compromisos de Workday en este ámbito: las personas son lo principal; nos preocupamos por la sociedad; actuamos de forma justa y respetamos las leyes; somos transparentes y responsables; protegemos los datos, y proporcionamos sistemas de machine learning para uso empresarial.

2. Integrar una IA ética en el desarrollo de los productos y la estructura de los lanzamientos. No pueden ser procesos independientes que aumenten el trabajo y la complejidad para los equipos de desarrolladores y de productos. En Workday hemos integrado nuestros principios en el desarrollo de nuestros productos y hemos creado procesos que garantizan su cumplimiento en todo momento. Como medida de cumplimiento adicional de nuestros principios éticos relacionados con el machine learning, se han incorporado controles nuevos de machine learning en la estructura formal de controles de Workday. Nuestros equipos de desarrollo examinan cada producto de machine learning desde una perspectiva ética, formulando preguntas sobre la recopilación y la minimización de los datos, la transparencia y los valores. En este sentido, contamos con una dilatada trayectoria en el ámbito de la privacidad, que se refleja, por ejemplo, en procesos que incorporan la privacidad desde el diseño y auditorías de nuestros controles y estándares realizadas por terceros. Workday ha adoptado un conjunto de controles para el machine learning diseñado desde la perspectiva de la ética. Además, ha implantado una serie de mecanismos avanzados de revisión y aprobación del lanzamiento de tecnologías nuevas y de nuevas modalidades de uso de los datos. Mantenemos el compromiso de efectuar revisiones continuas de nuestros procesos y de evolucionar para incorporar las mejores prácticas del sector y las normativas reguladoras que vayan surgiendo.

3. Crear grupos transversales de expertos para orientar todas las decisiones sobre el diseño, el desarrollo y la implementación del machine learning y la inteligencia artificial responsables. En una etapa anterior, Workday estableció unos grupos de trabajo de machine learning formados por expertos dentro de Workday que abarcaban distintos departamentos (Product y Engineering, Legal, Public Policy y Privacy, y Ethics y Compliance). Dichos grupos examinan los usos actuales y futuros del machine learning en nuestros productos. Integrar estos diferentes conjuntos de skills y puntos de vista para considerar los usos actuales y futuros del machine learning en nuestros productos ha resultado tremendamente beneficioso: nos permite identificar posibles problemas al principio del ciclo de vida de los productos.

4. Integrar la colaboración con el cliente en el diseño, el desarrollo y la implementación de una inteligencia artificial responsable. El consejo de asesores de Workday se forma a partir de una muestra representativa de nuestra base de clientes durante el ciclo de vida de desarrollo de los productos. El objetivo es obtener feedback sobre temas de desarrollo relacionados con inteligencia artificial y machine learning. Y con nuestro programa de adopción temprana, colaboramos estrechamente con una serie de clientes que ejercen de partners de diseño para probar las funciones y los modelos nuevos de machine learning a través de Innovation Services. Esto nos permite conocer las ideas y las preocupaciones de nuestros clientes sobre inteligencia artificial y machine learning en las fases iniciales, cuando desarrollamos conjuntamente soluciones de machine learning orientadas a las personas.

5. Adoptar un "enfoque basado en el ciclo de vida" para evitar prejuicios en el machine learning. Las herramientas de machine learning representan una oportunidad increíble para ayudar a nuestros clientes a aprovechar al máximo los datos y mejorar el componente humano de la toma de decisiones. Esta oportunidad conlleva la responsabilidad de crear herramientas para uso empresarial dignas de la enorme confianza que nuestros clientes depositan en nosotros. Por ello precisamente uno de los puntos centrales del compromiso de Workday con una inteligencia artificial ética es mitigar los prejuicios nocivos en el machine learning. Workday centra sus iniciativas en un modelo basado en el ciclo de vida, que contiene puntos de control en los que realizamos una serie de revisiones y evaluaciones de los prejuicios que van desde el concepto inicial de un producto hasta a la fase posterior a su lanzamiento.

6. Ser transparentes. El uso ético del machine learning requiere transparencia. Los algoritmos de machine learning pueden ser sumamente complejos; por eso, es aconsejable que las empresas hagan cuanto sea necesario para explicar qué datos se utilizan, con qué finalidad y de qué forma. Explicamos a los clientes el funcionamiento y los beneficios de nuestras tecnologías de machine learning, y los datos que necesitan las soluciones de machine learning que ofrecemos. Demostramos a los clientes que nuestras soluciones de machine learning se basan en el sentido de la responsabilidad.

7. Empoderar a los empleados para diseñar productos responsables. Nos atenemos a este principio mediante módulos de formación obligatorios, herramientas, seminarios, incorporación de empleados y talleres para asegurarnos de que los empleados de Workday reciban formación sobre cómo respetar nuestros compromisos éticos relacionados con la IA. Por ejemplo, un taller en el que se plantean diseños centrados en las personas utiliza diferentes situaciones hipotéticas para que los empleados de Workday comprendan correctamente nuestro compromiso con la creación de tecnologías de machine learning basadas en criterios éticos.

8. Compartir conocimientos y experiencias. Aprender de otras empresas del sector. Participamos en grupos y reuniones del sector como el World Economic Forum Steering Committee for Ethical Design and Deployment of Technology para contribuir al desarrollo de un marco ético para el sector tecnológico. Además, para Workday es prioritario supervisar los estándares y los planes, y contribuir a su innovación. En Estados Unidos, Workday se implica activamente con legisladores e instituciones oficiales en materia de IA ética, por ejemplo, desarrollando y participando en una sesión informativa del personal del Comité sobre IA del Congreso sobre "Enfoques del sector relacionados con la IA ética". También colaboramos en la organización de eventos que reúnen a legisladores y partes interesadas del sector. Además, proporcionamos soporte a la actualización de la National Science Foundation respecto al Plan estratégico nacional de investigación y desarrollo de inteligencia artificial del National Institute of Standards and Technology y de su informe "Artificial Intelligence Standards and Tools Development". Asimismo, seguimos abogando por un rol más amplio del NIST en el desarrollo de herramientas éticas de IA. En cuanto a Europa, Workday ha participado en un programa piloto para evaluar los principios éticos de los grupos de expertos de alto nivel de la Trustworthy Artificial Intelligence Assessment List.

Según vayamos avanzando por el cambiante mundo de la inteligencia artificial ética, cada vez será más importante compartir prácticas e identificar lo que vamos aprendiendo. Nos interesa mucho saber si las estrategias de otras empresas se han escalado e implementado de manera eficaz. Y, por supuesto, nos encanta intercambiar impresiones. De hecho, la finalidad de la colaboración con el Foro Económico Mundial por parte de Workday es animar a otras empresas y personas a que compartan sus mejores prácticas para fomentar una tecnología responsable y ética. Aspirar a una tecnología y una inteligencia artificial responsables y éticas es muy importante y mucho más trascendente de lo que pueden llegar a ser una empresa o una organización.

Sería deseable que las medidas de todos se basaran en la buena voluntad y la confianza mutua, y que nos permitieran aprovechar todas las ventajas que aportan estas tecnologías increíbles y novedosas.

Más lectura