La Ley de inteligencia artificial de la UE: todo lo que deben saber los líderes empresariales

La Ley de inteligencia artificial de la UE establece un nuevo estándar de IA responsable, y Workday se propone liderar esa iniciativa. Vea cómo nuestro enfoque innovador para el desarrollo y la implementación de la IA se alinea con los requisitos del reglamento y además empodera a los clientes para generar confianza e impulsar la adopción de una IA ética.

Hombre trabajando con un ordenador frente a una ventana

El Reglamento de inteligencia artificial de la Unión Europea (Reglamento de IA de la UE) tiene visos de convertirse en el estándar global para regular el uso de la inteligencia artificial (IA). Esta legislación pionera pretende fomentar la innovación y también mitigar los riesgos potenciales asociados a los sistemas de IA. Al adoptar un enfoque basado en el riesgo y priorizar las consideraciones éticas, el Reglamento de IA de la UE sienta un precedente para el desarrollo y la implementación de la IA responsable en todo el mundo. 

Las implicaciones de esta legislación son importantes y muchos de nuestros clientes nos preguntan cómo aborda Workday el Reglamento de IA de la UE y cómo nos estamos preparando para sus requisitos. Somos conscientes de lo complejo que puede ser este panorama normativo, por eso queremos explicar nuestro enfoque, en aras de la transparencia y la colaboración. Al detallar nuestra estructura y los pasos que estamos dando, esperamos ofrecer insights y mejores prácticas que se puedan adaptar a las situaciones de otros usuarios.

En Workday, la IA responsable es un aspecto fundamental de nuestro enfoque de desarrollo que guía todo lo que hacemos. Llevamos mucho tiempo comprometidos con la IA responsable desde el diseño, y el Reglamento de IA de la UE constituye un valioso marco para reforzar y estructurar nuestros esfuerzos.

Qué es el Reglamento de inteligencia artificial de la UE

El Reglamento de IA de la UE es un hito jurídico para la legislación sobre IA, con implicaciones de gran alcance para cualquiera que desarrolle o aplique tecnología de IA en la UE. Este reglamento establece categorías de IA basadas en el nivel de riesgo. También establece los roles y las responsabilidades para desarrollar e implementar tecnología de IA basada en estas categorías.

El Reglamento de IA de la UE introduce cuatro categorías de IA basadas en el riesgo que exigen el cumplimiento de ciertos requisitos, dependiendo de la complejidad y la escala de sus efectos:

  • IA de riesgo inaceptable (PRAI): la ley prohíbe estos sistemas de IA. Podría tratarse de sistemas que manipulan las decisiones de las personas o predicen la probabilidad de cometer delitos.
  • IA de alto riesgo (HRAI): esta categoría incluye sistemas de IA que están estrictamente regulados, debido a sus posibles efectos sobre las personas. Entre los sistemas de alto riesgo se encuentran las herramientas que asisten en tareas de contratación o sistemas de atención sanitaria.
  • IA con riesgo de transparencia (TRAI): los sistemas TRAI son tecnologías que interactúan directamente con las personas y pueden generar texto, audio o vídeo, lo que ahora debe notificarse. Entre estos sistemas se encuentran los chatbots con IA y los contenidos generados por IA. 
  • IA de propósito general (GPAI): esta categoría incluye IA que puede utilizarse en una amplia gama de contenidos y tareas como, por ejemplo, en herramientas relacionadas con GPT.

La Ley de IA de la UE es un hito jurídico para la legislación sobre IA, con implicaciones de gran alcance para cualquiera que desarrolle o aplique tecnología de IA en la UE.

El enfoque de Workday respecto a los roles y las responsabilidades relativas a la tecnología de IA

La Ley de IA de la UE introduce un marco de rendición de cuentas, con la definición de distintos roles para proveedores, implementadores y proveedores posteriores dentro del ciclo de vida de la IA. Para operar eficazmente en esta estructura, antes que nada las empresas deben identificar claramente sus roles dentro de la cadena de valor de la IA. Puede que las empresas tengan que desempeñar múltiples roles y eso requeriría estrategias de cumplimiento normativo y estructuras de gobierno adaptables. 

En Workday sabemos que es importante comprender y cumplir con nuestras responsabilidades en los tres siguientes roles: 

  • Proveedor: desarrollamos tecnologías de IA para el mercado, incluidos nuestros propios modelos de machine learning (ML) y funcionalidades basadas en IA dentro de nuestros productos.
  • Implementador: implementamos y utilizamos sistemas de IA en nuestras propias operaciones, aprovechando esa tecnología para mejorar nuestros procesos y servicios internos.
  • Proveedor en fases posteriores: integramos en nuestras ofertas modelos de IA de terceros, como los de la categoría GPAI, para mejorar la funcionalidad y aportar más valor a nuestros clientes.

Para cumplir estrictamente las normas de IA responsable, hemos adoptado un enfoque integral. Como proveedor de IA, Workday parte de una base sólida con su propio marco de gobierno de IA responsable para cumplir los requisitos de la Ley de IA de la UE. Empezamos a crear nuestro avanzado enfoque en este ámbito en 2019

El programa de IA responsable de Workday ya presta servicios que superan los estándares del sector, por ejemplo, mediante nuestra alineación con la estructura de IA del NIST y el uso de pruebas y documentación en un grado mayor que el exigido por la ley para las funcionalidades de IA de menor riesgo. También aplicamos nuestra visión de futuro a garantizar la alineación con la Ley de IA de la UE.

Además, tenemos en marcha varios programas internos dedicados a reforzar nuestras ya robustas prácticas para alinearlas con la Ley de IA de la UE. Queremos aumentar la transparencia, ampliar los conocimientos de los usuarios sobre la IA de forma relevante para cada rol, actualizar las políticas de desarrollo e implementación de la IA, y mejorar la explicabilidad de nuestros sistemas de IA. 

Nuestro enfoque de desarrollo de la IA

Aunque acatamos los principios de la IA responsable en todas estas áreas, me gustaría centrar este artículo en nuestro enfoque del desarrollo y la gran responsabilidad que asumimos en la creación de la tecnología y la mitigación de los riesgos potenciales.

Desarrollar e implementar la IA de forma responsable requiere un enfoque estructurado y proactivo. Mediante consideraciones de IA responsable integradas en cada fase de nuestro ciclo de desarrollo, garantizamos que nuestros sistemas de IA no solo cumplen normativas como la Ley de IA de la UE, sino que además están alineados con nuestros valores fundamentales.

Para cumplir estrictamente las normas de IA responsable, hemos adoptado un enfoque integral.

Nuestro enfoque se basa en una metodología formalizada basada en el riesgo. Hemos actualizado nuestro proceso de evaluación de riesgos de IA para reflejar específicamente los requisitos de la Ley de IA de la UE y nuestros procedimientos de evaluación se alinean con las categorías y los principios de riesgo de la ley.

Aquí ofrecemos un esquema general de cómo integramos la IA responsable en nuestro proceso de desarrollo:

Cada nuevo caso de uso de IA se somete a una evaluación de riesgos durante la fase de concepción. La evaluación alinea las categorías de riesgo correspondientes según las características del caso y del uso previsto. A continuación se asignan protocolos, o prácticas, para hacer frente a los riesgos asociados.

Nuestras prácticas responsables de IA, resumidas a continuación, tienen por objeto garantizar que nuestros productos sean seguros y se amolden a todo tipo de necesidades.

Empoderar a los clientes en la era de la IA 

Creemos que una IA responsable requiere la colaboración con nuestros clientes. Por eso nos comprometemos a empoderarlos con las herramientas y los recursos que necesitan para tomar decisiones fundamentadas sobre cómo utilizar la IA y gestionar sus datos.

Ofrecemos una serie de capacidades que proporcionan a los clientes control y transparencia:

  • Habilitación de funcionalidades: nuestros clientes deciden qué funcionalidades utilizar (y cuáles no), incluidas las que se basan en la IA de Workday.
  • Control de la aportación de datos: los clientes controlan si sus datos se utilizan para mejorar los modelos de ML de Workday.
  • Transparencia: Workday proporciona recursos (como documentación o herramientas de entorno de cliente) que permiten a los clientes revisar los datos utilizados para mejorar los modelos de ML.
  • Controles de acceso y seguridad específicos: los clientes disponen de herramientas para configurar grupos de seguridad integrados por las partes interesadas que quieran, como equipos de gobierno de IA, seguridad, privacidad, asuntos legales o de cumplimiento normativo. Estos grupos pueden tomar decisiones sobre el uso de los datos en la IA de Workday. Workday proporciona herramientas para garantizar que las contribuciones de datos y las decisiones se ajusten a las necesidades de nuestros clientes.

Nuestro interés por la transparencia se refleja en la gama de recursos que ofrecemos para mantener a los clientes informados y empoderados. Entre esos están las detalladas hojas de datos de IA que describen nuestras funcionalidades de IA más habituales. Cada hoja incluye una descripción general de una funcionalidad de IA, las entradas y salidas del modelo, el entrenamiento del modelo y consideraciones sobre privacidad. Además, mejoramos periódicamente estas herramientas y recursos para ayudar a los clientes a controlar mejor su uso de la IA de Workday.

Creemos que una IA responsable requiere la colaboración con nuestros clientes.

Una colaboración continua

La alineación con la Ley de IA de la UE no solo garantiza el cumplimiento normativo, también fomenta la confianza entre nuestros clientes y las partes interesadas. Tenemos un compromiso con la innovación ética y la contribución a un futuro en el que la IA se utilice con fines positivos.

En Workday vemos la IA responsable como un esfuerzo continuo, que nos hace anticiparnos continuamente a los cambios en los estándares de IA, y evolucionar para satisfacer y superar las necesidades de los clientes. Aunque la Ley de IA de la UE es un hito en el ámbito de la IA ética, seguirán definiéndose nuevas normativas con repercusiones para la IA. Cuando lleguen los cambios, estaremos preparados.

Para conocer los principios clave, las mejores prácticas y ejemplos reales de IA responsable, descargue el whitepaper IA responsable: abrirse a la innovación con integridad.

Más lectura