La IA responsable es cosa de dos: los desarrolladores y los implementadores deben colaborar

Los desarrolladores de IA y las empresas que implementan y utilizan su tecnología deben colaborar para procurar que a la IA se le dé un buen uso. Todas las partes de la cadena de valor de la IA desempeñan un rol en el desarrollo y el uso responsables de la IA.

Grupo de empleados de oficina reunidos en un espacio de trabajo abierto.

Si queremos asegurarnos de que la IA tenga un efecto positivo en la sociedad, necesitamos que la responsabilidad y la rendición de cuentas sean compartidas entre quienes desarrollan la IA y quienes la utilizan en su actividad empresarial. La IA responsable es una actividad de equipo en la que cada agente de la cadena de valor de la IA desempeña un rol importante para crear el futuro que todos queremos ver.

Estas son algunas de las mejores prácticas para desarrolladores de tecnologías de IA, como Workday, y para quienes implementan esa tecnología, como es el caso de nuestros clientes.

Mejores prácticas para desarrollar una IA responsable

Los siguientes principios son la base de una IA responsable y constituyen las mejores prácticas que seguimos, y también animamos a otros desarrolladores a que los adopten. Además, este enfoque tiene múltiples vertientes y requiere la aceptación y el apoyo de todos los niveles de la empresa. La IA responsable no depende de una sola persona, un solo equipo o un solo comité ejecutivo, sino que es un imperativo para toda la empresa que los líderes deben reconocer y difundir por toda la organización.

Evaluar los riesgos de la IA de forma coherente. Cada nuevo producto de IA que creamos pasa por nuestra evaluación de riesgos escalable, desarrollada para alinearse con las categorías de riesgo definidas por la Ley de IA de la UE. Este análisis nos permite determinar de forma eficiente el nivel de riesgo del nuevo caso de uso en relación tanto con su contexto como con sus características, lo que incluye el diseño técnico y el del modelo, la posible repercusión sobre las oportunidades económicas de cada persona y el problema de la vigilancia.

Los casos de uso de "alto riesgo" y los "no permitidos" no son lo mismo. "Alto riesgo" significa que el caso de uso requiere más directrices y protecciones, y también que hay que meditarlo más y actuar con más cautela. Los casos de uso "no permitidos", como la supervisión intrusiva de la productividad y la vigilancia biométrica, son contrarios a nuestros valores, por lo que decidimos no crear soluciones que entren dentro de esa categoría.

Los desarrolladores avanzados dispondrán de programas, que incluirán equipos especializados centrados en el gobierno de la IA responsable.

Cumplir las directrices pertinentes de IA responsable. En los casos de uso permitidos, el resultado de la evaluación de riesgos especifica que estos se tienen que mitigar obligatoriamente en forma de directrices. Gracias a ellas, el equipo de desarrolladores puede comprender y documentar el cumplimiento de las directrices pertinentes a medida que va desarrollando la solución. Para las tecnologías de mayor riesgo, como es el caso de las que utilizarán nuestros clientes para facilitar la toma de decisiones trascendentales que puedan afectar a las oportunidades económicas de los empleados, exigimos una mayor cantidad de directrices de IA responsable que para las tecnologías de menor riesgo, como es el caso de las destinadas a facilitar la identificación de anomalías presupuestarias. Las directrices de IA responsable abarcan aspectos como la transparencia, la imparcialidad, la explicabilidad, la participación humana, la calidad de los datos y la solidez. El objetivo es doble: con el fin de ofrecer a nuestros clientes tecnologías de IA fiables y de calidad, debemos evitar que se produzcan consecuencias no deseadas como, por ejemplo, la introducción de sesgos, y cerciorarnos de cumplir unas normativas y unos marcos de mejores prácticas que evolucionan con rapidez.

Ofrecer transparencia a los clientes. En Workday proporcionamos a nuestros clientes documentos informativos sobre la IA de cada herramienta de IA que ofrecemos. Estos documentos les aportan transparencia sobre el desarrollo, las pruebas y el entrenamiento de nuestros productos de IA, así como sobre las limitaciones conocidas de su uso; y resumen cómo se han mitigado los riesgos de cada funcionalidad. Asimismo, también compartimos cómo guiamos e instruimos a nuestros empleados sobre la importancia del desarrollo de IA responsable.

Mejores prácticas para implementar la IA de forma responsable

Las siguientes mejores prácticas son fundamentales para implementar tecnologías de IA de forma responsable.

Comprender los distintos roles y responsabilidades en la cadena de valor de la IA. Las normativas y los marcos de mejores prácticas son útiles para identificar las responsabilidades de gestión de riesgos de la IA no solo para desarrolladores como Workday, sino también para quienes la implementan. Por ejemplo, el artículo 26 de la Ley de IA de la UE especifica las obligaciones de quienes implementen sistemas de IA de alto riesgo. Otro recurso que merece la pena revisar es el documento "Best Practices for AI and Workplace Assessment Technologies" (Mejores prácticas para las tecnologías de IA y de evaluación laboral) del Future of Privacy Forum.

Además, la legislación recientemente adoptada en Colorado incluye obligaciones tanto para los desarrolladores como para los implementadores, y refleja el marco emergente que en Workday hemos estado promoviendo a escala estatal. Los implementadores desempeñan un rol importante y disponen de recursos que les ayudan a aclarar sus responsabilidades en lo referente a la gestión de los riesgos de la IA.

Trabajar con desarrolladores de IA en los que se pueda confiar. Los desarrolladores de IA de confianza estarán familiarizados con las normativas y mejores prácticas existentes y, lo que es igual de importante en un ámbito que avanza con tanta rapidez, las que se están elaborando. Además, habrán creado de forma proactiva marcos de IA responsable por diseño y de mitigación de riesgos en sintonía con el dinámico entorno normativo.

A la hora de elegir un desarrollador de IA, pregúntele por sus conocimientos y su alineación con respecto a la Ley de IA de la UE, el marco de gestión de riesgos de la IA del NIST y otras directrices normativas y mejores prácticas. El desarrollador debe estar preparado para poder describirle sus prácticas de identificación y mitigación de riesgos. Los desarrolladores avanzados dispondrán de programas, incluidos equipos especializados en la IA responsable, y se centrarán en la IA responsable por diseño, lo que generará confianza directamente en sus productos y tecnologías de IA.

Los desarrolladores de IA de confianza estarán familiarizados con las normativas y mejores prácticas existentes y, lo que es igual de importante en un ámbito que avanza con tanta rapidez, las que se están elaborando.

Garantizar un uso responsable y una supervisión eficaz de los sistemas de IA. Los implementadores de sistemas de IA son vitales para la cadena de valor de la IA porque ocupan de forma más directa el espacio entre el sistema y el usuario final. En primer lugar, los implementadores deben determinar el reto empresarial que desean abordar y si una tecnología de IA suministrada por un proveedor en particular ofrece una solución eficaz. A continuación, tienen que plantearse cómo deberían ser las directrices de la IA responsable para el uso que ellos hacen de la IA. Por ejemplo, aunque los desarrolladores deben realizar pruebas de imparcialidad con muestras de datos agregados, los implementadores deben llevar a cabo este tipo de pruebas con sus propios datos locales.

Aunque los desarrolladores deben diseñar sistemas que permitan una supervisión humana eficaz, los implementadores deben encargarse de esta supervisión mientras estudian cómo encaja el sistema de la forma más eficaz en el proceso que desean optimizar. Los implementadores también deben configurar el sistema para que contribuya a optimizar este proceso, así como supervisar y controlar el funcionamiento del sistema dentro de este proceso.

Cómo avanzar juntos

Como proveedores de sistemas de IA responsable, en Workday entendemos y respetamos nuestra responsabilidad a la hora de desarrollar sistemas de IA fiables. También somos conscientes de que, como desarrolladores, nuestro rol ocupa un espacio específico en la cadena de valor general de la IA. Solo cuando todas las partes de esta cadena de valor se comprometen a colaborar podemos conseguir que estas tecnologías se utilicen para amplificar el potencial humano y repercutan positivamente en la sociedad.

Obtenga información más detallada sobre nuestro programa de gobierno de la IA responsable en el whitepaper "IA responsable: abrirse a la innovación con integridad", donde explicamos los principios, las prácticas, las personas y las posiciones de políticas públicas que impulsan nuestra filosofía.

Descubra cómo empoderamos a las empresas para transformar la forma en que gestionan su personal y su dinero, y cómo guiamos audazmente a marcas internacionales hacia un futuro potenciado por la IA basando todas nuestras decisiones en la confianza.

Más lectura