Risque inacceptable
Le Règlement liste les pratiques de l’IA associées à un risque inacceptable et les interdit (article 5).
Sont interdits par exemple les systèmes d’IA qui utilisent des techniques subliminales ou qui exploitent les vulnérabilités des personnes, et les systèmes d'identification biométrique à distance, en temps réel, dans des espaces publics.
Haut risque
Le Règlement traite très majoritairement des systèmes d’IA à haut risque (articles 6 à 49). Deux catégories de systèmes sont identifiés comme tels :
Les systèmes listés en Annexe III. Il s’agit des systèmes d’IA dans les domaines sensibles de l’éducation, de l’emploi, de la justice et des services publics, notamment. Les plateformes de recrutement, de gestion des talents et d'évaluation financière développées par des entreprises, pour des entreprises, sont concernées. Elles sont en effet directement visées par les quatrième et cinquième paragraphes de l’Annexe III.
Les entreprises qui développent ou qui utilisent ces plateformes de recrutement, de gestion des talents ou d'évaluation financière, identifiées comme des systèmes à haut risque au sens du Règlement IA, ont jusqu’au 02 août 2026 pour se mettre en conformité.
Par exemple, chez Workday : nous reconnaissons l'importance de comprendre et d'assumer nos responsabilités en tant que fournisseur et déployeur de système d’IA. Pour nous assurer que nous respectons les normes les plus élevées en matière d'IA responsable, nous avons adopté une approche globale de la conformité : Workday s'appuie sur un cadre de gouvernance de l'IA responsable pour répondre aux exigences de conformité du Règlement européen sur l'IA. Notre approche en la matière est tournée vers l'avenir et nous la développons depuis 2019.
Risque limité
Les systèmes à risque limité au sens du Règlement IA visent principalement les chatbots et les deepfakes. Les développeurs desdits systèmes ne sont soumis qu’à une obligation de transparence, qui consiste à informer les utilisateurs finaux qu’ils interagissent avec une IA et non avec un humain (article 50).
Risque minimal
Le niveau de risque minimal, ou nul, n’est pas réglementé. Les correcteurs orthographiques et les applications de retouche photo, par exemple, ne présentent pas de risque.
Quel niveau de risque pour les modèles d’IA à usage général (GPAI) ?
Le Règlement IA distingue les modèles d’IA à usage général, et les systèmes d’IA. Seuls les systèmes d’IA, qui sont les applications finales, sont concernés par la classification du Règlement. Les modèles d’IA à usage général suivent un régime spécifique, qui impose principalement des obligations de documentation technique.
Prenons l’exemple d’un agent conversationnel, qui fonctionne sur la base d’un modèle d’IA à usage général. L’entreprise qui développe cet agent conversationnel doit se mettre en conformité à l’AI Act à 2 niveaux :
Si l’entreprise développe elle-même son modèle d’IA à usage général, elle est soumise à des obligations de documentation technique. Si l’entreprise s’adosse à un GPAI existant tels que GPT-4 pour développer son agent conversationnel, elle n’est pas concernée.
En tant que fournisseur d’un agent conversationnel, considéré comme un système d’IA, l’entreprise doit identifier le niveau de risque. Si le risque est “limité”, l’entreprise n’est concernée que par une obligation de transparence et d’information à l’égard des utilisateurs. Si le risque est “haut”, l’entreprise se soumet aux obligations plus contraignantes de l’article 16 de l’AI Act (marquage CE, supervision humaine…).