Proteger la privacidad al innovar con IA en Workday

Barbara Cosgrove, Chief Privacy Officer de Workday, trata el tema candente de la convergencia entre la privacidad de los datos y la inteligencia artificial (IA). Vea cómo Workday concilia la privacidad con la necesidad de maximizar el valor de la tecnología de IA.

El 25 de mayo es el quinto aniversario de la entrada en vigor del Reglamento General de Protección de Datos (RGPD). El RGPD dio lugar a una nueva ola de requisitos de transparencia y adjudicación de responsabilidades en el tratamiento de los datos. Y decretó el uso de marcos de privacidad desde el diseño en las empresas. En mis interacciones con clientes y organismos reguladores, las conversaciones se centran cada vez más en la convergencia de la privacidad de los datos con la inteligencia artificial (IA) y el machine learning (ML). Según el interlocutor, el futuro de la IA y el ML puede parecer prometedor, angustioso o ambas cosas. Es algo que no me sorprende, porque la innovación siempre ha desatado ese tipo de reacciones. 

La privacidad de los datos es crucial en la tecnología de IA y ML. Los modelos dependen en gran medida de la calidad y la cantidad de los datos que reciben. Pero las empresas se enfrentan al reto de tener que maximizar el valor de las soluciones de IA y ML sin afectar a la privacidad. Los líderes empresariales quieren progresos en la seguridad que contribuyan a mantener la protección de la información de sus empresas y también quieren automatizar tareas rutinarias para que los empleados puedan centrarse en trabajo más importante. 

Afortunadamente, la innovación responsable y la protección de los derechos de las personas no tienen por qué ser mutuamente excluyentes. En Workday utilizamos un enfoque equilibrado que nos permite aprovechar los últimos avances de las tecnologías de IA y ML, y a la vez podemos mantener nuestro compromiso con los principios de la ética en la IA y la privacidad.

Innovaciones de IA en Workday

Las medidas adecuadas de privacidad de los datos pueden contribuir a crear confianza en la IA y el ML. A su vez, eso fomentará la adopción y el uso de esas tecnologías. Al intentar innovar con nuestros productos y servicios, encontramos formas innovadoras de integrar de modo nativo la privacidad en el desarrollo de nuestras soluciones de IA y ML.

Por definición, la innovación es la introducción de algo nuevo. Cabe la posibilidad de que los estándares de cumplimiento normativo tradicionales no sean fáciles de aplicar o no sean totalmente adecuados para una nueva idea, un nuevo producto o una nueva forma de hacer las cosas. En Workday preferimos no tener que esperar a que nos proporcionen los estándares. Creamos de manera proactiva estándares internos, y contribuimos externamente para ofrecer apoyo a estándares que nos ayudan a satisfacer nuestros objetivos de cumplimiento normativo. También ayudamos a nuestros clientes a evaluar lo que entendemos por cumplimiento normativo. Para ello hacemos cosas como las detalladas a continuación:

Anticipamos las necesidades de los clientes. Al entrar en vigor el reglamento RGPD, no se había aprobado ninguna auditoría o certificación de cumplimiento. Workday agregó rápidamente a nuestro informe SOC 2 información para ayudar a los clientes a entender nuestro cumplimiento normativo. Luego colaboramos con Scope Europe en la creación del Código de conducta en la nube de la UE, que demuestra la conformidad con el RGPD. Fuimos la primera empresa en certificar la adhesión.

Basándonos en nuestra experiencia con el RGPD, llegamos a la conclusión de que los clientes necesitarían información sobre nuestras capacidades de ML para tener la certeza de que actuamos según nuestros principios. Para ofrecerles transparencia, proporcionamos fichas informativas que describen el funcionamiento de nuestras soluciones de IA. Este nivel de transparencia ayuda a los clientes a evaluar los efectos de los posibles riesgos asociados a la IA y el ML.

Apoyamos el desarrollo de estándares, marcos y mejores prácticas. Workday es una empresa líder en el desarrollo de IA fiable y responsable. Desde sus comienzos, Workday ha respaldado y contribuido al National Institute of Standards and Technology’s AI Risk Management Framework (NIST AI RMF). Colaboramos con organismos reguladores y legisladores en todo el mundo para ayudar a establecer estándares nacionales e internacionales destinados al desarrollo de una IA fiable y responsable.

Al intentar innovar con nuestros productos y servicios, encontramos formas innovadoras de integrar de modo nativo la privacidad en el desarrollo de nuestras soluciones de IA y ML.

Además, a título personal, nuestro copresidente Sayan Chakraborty es miembro del National AI Advisory Committee (NAIAC), integrado por expertos de alto nivel en IA y sus diversas disciplinas, y designado por el Congreso estadounidense para asesorar al presidente Biden en materia de IA. Por mi parte, copresido el Responsible AI Institute's HR Working Group, un organismo sin ánimo de lucro cuyo propósito es ofrecer herramientas con las que comprar, vender o crear sistemas de IA seguros y fiables. También soy integrante del consejo de la International Association of Privacy Professionals, cuyo nuevo AI Governance Center acaba de anunciarse. Aunque aún hay mucho por hacer, a medida que se desarrollan los estándares, los marcos y las mejores prácticas, trabajamos con los reguladores, los legisladores y los líderes de los sectores para crear soluciones viables y sostenibles.

No reinventamos la rueda, nos basamos en sólidos principios fundamentales. Nuestro equipo ML Trust aplica el largo historial de principios de privacidad desde el diseño de Workday al desarrollo y la gestión de nuestro programa de gobierno de ML. ML Trust colabora estrechamente conmigo y con el equipo de privacidad en lo relativo a aspectos de ese programa, como sus principios, políticas, estándares y directrices. Estos equipos operan conjuntamente para que nadie trabaje de modo aislado.

Un ejemplo podría ser el trabajo para minimizar los datos. Un grupo multifuncional colabora para evaluar e incluso cuestionar la necesidad de ciertos datos para una funcionalidad o un producto, para determinar si son absolutamente imprescindibles. Ese examen continúa incluso después de iniciarse la recopilación de los datos y los que no se consideren necesarios se quitarán cuanto antes.

Ofrecemos asesoramiento, formación y educación para que los empleados puedan innovar de forma responsable. Entre las principales prioridades de Workday está la de formar y educar debidamente a nuestros compañeros que trabajan con tecnología de IA y ML, para prepararles en lo relativo a posibles riesgos y consideraciones éticas asociadas al uso de esa tecnología. Por eso establecemos claras directrices de uso de esas tecnologías, por ejemplo la de IA generativa. Las directrices incluyen casos de uso específicos y situaciones en las que debería usarse o evitarse. Eso nos ayuda a mitigar los riesgos potenciales y a garantizar que el uso de tecnología de IA y ML se alinea con los principios y la ética de nuestra empresa. Queremos empoderar a nuestros desarrolladores para progresar de manera rápida y responsable, y para crear los productos más innovadores y fiables para nuestros clientes, conforme a nuestro compromiso de privacidad.

Compromiso inquebrantable con la privacidad

El ritmo de la innovación es vertiginoso y, con tecnologías como la IA, la privacidad siempre será una de nuestras prioridades. Workday sigue promoviendo enfoques reglamentarios basados en riesgos que concilian la privacidad con la innovación. Y seguimos supervisando las cuestiones de privacidad y los entornos de IA y ML, para prever cambios que podrían afectar a las tecnologías de Workday o a las de nuestros clientes. En última instancia, nuestro propósito es que nuestros cliente sigan beneficiándose de la productividad, los insights y el aumento del potencial humano que ofrecen los productos de Workday.

Más lectura