‹ Retours aux articles

Glossaire AI Act : Définitions des termes clés de la régulation européenne de l’IA

Temps de lecture : 14 min

Date de modification : 26 août 2025
Notre glossaire a été conçu pour vous familiariser avec le langage propre à l’intelligence artificielle (IA). Cette sélection rigoureuse rassemble les termes issus du règlement européen sur l’intelligence artificielle (IA Act), enrichie d’un vocabulaire complémentaire indispensable à une compréhension fine de l’IA. En tant qu’acteur de référence dans l’évaluation des systèmes d’intelligence artificielle, Vaultinum mesure l’importance d’une lecture claire et maîtrisée de ce domaine en constante évolution. Ce glossaire s’adresse aussi bien aux professionnels qu’aux parties prenantes, avec l’objectif de fournir des définitions précises et accessibles des notions structurantes du texte européen de l’IA Act. Que vous soyez expert confirmé ou en phase de découverte des enjeux liés à la régulation de l’IA, ce glossaire constitue un outil de référence, pensé pour vous accompagner dans vos réflexions autour de l’éthique, de la gouvernance et de la conformité en matière d’intelligence artificielle.
Glossario della Legge sull'IA: Termini e Definizioni Essenziali
Glossario della Legge sull'IA: Termini e Definizioni Essenziali
Sommaire

Qu’est-ce qu’un « système d’IA » ?

Un système d’intelligence artificielle est un dispositif opéré par une machine, conçu pour fonctionner avec différents niveaux d’autonomie et susceptible de s’adapter après son déploiement. Il déduit, à partir des données qu’il reçoit, comment produire des résultats, tels que des prédictions, des contenus, des recommandations ou des décisions, susceptibles d’influencer des environnements physiques ou virtuels, dans le cadre d’objectifs explicites ou implicites.

Qu’est-ce que l’« Office de l’intelligence artificielle » ?

L’« Office de l’intelligence artificielle » désigne la fonction exercée par la Commission en matière de mise en œuvre, de suivi et de supervision des systèmes d’intelligence artificielle, des modèles d’IA à usage général ainsi que de la gouvernance de l’IA. Toute mention de l’Office de l’intelligence artificielle dans le règlement sur l’intelligence artificielle doit être interprétée comme visant la Commission elle-même.

Que signifie « culture de l’IA » (AI literacy) ?

La culture de l’intelligence artificielle, ou AI literacy, désigne l’ensemble des compétences, connaissances et capacités de compréhension permettant aux fournisseurs, utilisateurs et personnes concernées de déployer des systèmes d’IA en connaissance de cause, dans le respect des droits et obligations définis par l’AI Act. Elle contribue également à sensibiliser aux opportunités offertes par l’IA, aux risques qu’elle comporte et aux préjudices qu’elle peut engendrer.

Qu’est-ce qu’une « sandbox réglementaire IA » ?

Une sandbox (bac à sable en français) réglementaire IA désigne un cadre structuré et encadré mis en place par une autorité compétente. Il offre à des fournisseurs actuels ou potentiels la possibilité de développer, entraîner, valider et tester un système d’intelligence artificielle innovant, le cas échéant en conditions réelles. Ces activités sont menées pendant une période déterminée, conformément à un plan de sandbox et sous supervision réglementaire.

Qu’est-ce qu’un « plan de sandbox » ?

Le plan de sandbox est un document convenu entre le fournisseur participant et l’autorité compétente. Il décrit les objectifs, les conditions, le calendrier, la méthodologie et les exigences applicables aux activités menées dans le cadre de la sandbox.

Qu’est-ce qu’un « mandataire autorisé » ?

Le mandataire autorisé est une personne physique ou morale établie dans l’Union, ayant reçu et accepté un mandat écrit de la part d’un fournisseur de système d’intelligence artificielle ou de modèle d’IA à usage général. Ce mandat l’autorise à exécuter, pour le compte de ce fournisseur, les obligations et procédures prévues par l’AI Act.

Qu’est-ce qu’un « outil d’IA basique » ?

Un outil d’IA basique est un système fondé sur des règles explicites, codées par des humains, qui produit des résultats prédéfinis. Ce type de système convient aux projets et aux cas d’usage nécessitant peu de données et reposant sur des logiques simples et directes.

Qu’est-ce qu’un « système de catégorisation biométrique » ?

Un système de catégorisation biométrique est un système d’intelligence artificielle conçu pour affecter des personnes physiques à des catégories spécifiques sur la base de leurs données biométriques, sauf lorsque cette fonction est accessoire à un autre service commercial et strictement nécessaire pour des raisons techniques objectives.

Que sont les « données biométriques » ?

Les données biométriques sont des données à caractère personnel issues d’un traitement technique spécifique, relatif aux caractéristiques physiques, physiologiques ou comportementales d’une personne physique, telles que les images faciales ou les empreintes digitales.

Qu’est-ce que l’« identification biométrique » ?

L’identification biométrique désigne la reconnaissance automatisée de caractéristiques humaines physiques, physiologiques, comportementales ou psychologiques, dans le but d’établir l’identité d’une personne en comparant ses données biométriques à celles enregistrées dans une base de données.

Qu’est-ce que la « vérification biométrique » ?

La vérification biométrique est un processus automatisé consistant à vérifier l’identité d’une personne physique en comparant ses données biométriques à celles qu’elle a préalablement fournies. Il s’agit d’une vérification une-à-une, utilisée notamment à des fins d’authentification.

Qu’est-ce qu’un « système d’identification biométrique à distance » ?

Un système d’identification biométrique à distance est un système d’intelligence artificielle conçu pour identifier des personnes physiques sans leur participation active, généralement à distance, en comparant leurs données biométriques à celles contenues dans une base de données de référence.

Qu’entend-on par « système d’identification biométrique à distance en temps réel » ?

Un système d’identification biométrique à distance en temps réel est un système dans lequel la capture des données biométriques, leur comparaison et l’identification s’effectuent sans délai significatif. Cela inclut l’identification instantanée ainsi que de courts délais techniquement nécessaires pour prévenir toute tentative de contournement.

Qu’est-ce qu’un « système d’identification biométrique à distance a posteriori » ?

Il s’agit d’un système d’identification biométrique à distance qui ne fonctionne pas en temps réel. Il réalise l’identification après la collecte des données, selon un traitement différé.

Que signifie le « marquage CE de conformité » ?

Le marquage CE de conformité est l’indication apposée par un fournisseur pour signaler qu’un système d’intelligence artificielle respecte les exigences prévues au Titre III, Chapitre 2 de l’AI Act, ainsi que les autres législations de l’Union européenne harmonisant les conditions de mise sur le marché des produits.

Que signifie « spécification commune » ?

Une spécification commune désigne un ensemble de spécifications techniques, au sens du point 4 de l’article 2 du règlement (UE) n° 1025/2012, servant de référence pour démontrer la conformité à certaines exigences prévues par l’AI Act.

Qu’est-ce qu’une « évaluation de conformité » ?

L’évaluation de conformité est le processus visant à démontrer que les exigences prévues au Titre III, Chapitre 2 de l’IA Act, applicables à un système d’intelligence artificielle à haut risque, ont bien été respectées.

Qu’est-ce qu’un « organisme d’évaluation de la conformité » ?

Un organisme d’évaluation de la conformité est une entité tierce chargée de réaliser des activités d’évaluation, telles que les tests, les certifications ou les inspections, visant à vérifier la conformité d’un système d’intelligence artificielle.

Qu’est-ce que la « gestion du contexte » ?

La gestion du contexte consiste à intégrer les évolutions de l’environnement dans lequel un modèle d’intelligence artificielle opère, afin de maintenir ses performances dans des conditions réelles en constante évolution. À l’inverse, le mécanisme de mise en cache consiste à réutiliser des données stockées pour limiter l’usage des ressources. Ces deux approches sont essentielles pour assurer l’amélioration continue des modèles d’IA.

Qu’est-ce qu’une « infrastructure critique » ?

Une infrastructure critique désigne un actif, une installation, un équipement, un réseau ou un système, ou une partie de ceux-ci, indispensables à la fourniture d’un service essentiel au sens de l’article 2, paragraphe 4, de la directive (UE) 2022/2557.

Qu’est-ce que l’« augmentation de données » ?

L’augmentation de données est une technique qui permet d’enrichir et de diversifier artificiellement les ensembles de données d’apprentissage. Elle vise à améliorer la qualité et le volume des données disponibles sans mobiliser de ressources supplémentaires. Cette approche est particulièrement importante en apprentissage profond, où un volume insuffisant de données peut entraîner un surapprentissage.

Qu’est-ce que la « visualisation des données » ?

La visualisation des données joue un rôle central en matière de transparence, car elle permet de rapprocher les décisions prises par un système d’intelligence artificielle des utilisateurs. Elle traduit des résultats complexes en représentations visuelles claires et accessibles, rendant compréhensibles les logiques souvent abstraites ou techniques des algorithmes d’IA.

Qu’est-ce qu’un « deep fake » ?

Un deep fake désigne un contenu visuel ou sonore généré ou modifié par un système d’intelligence artificielle de manière à imiter des personnes, objets, lieux ou événements existants, donnant à tort l’apparence d’un contenu authentique.

Qu’est-ce que le « deep learning » ?

Le deep learning, ou apprentissage profond, est une méthode d’intelligence artificielle et d’apprentissage automatique reposant sur des réseaux de neurones à plusieurs couches. Ces modèles s’inspirent du fonctionnement du cerveau humain pour traiter des données complexes.

Qu’est-ce qu’un « déployeur » ?

Le déployeur est une personne physique ou morale, une autorité publique, une agence ou un autre organisme utilisant un système d’IA sous sa responsabilité, à l’exclusion des usages personnels et non professionnels.

Qu’est-ce qu’un « disrupteur » dans le contexte des modèles d’IA ?

Dans un contexte économique, un disrupteur désigne un acteur ou un processus qui remet en cause les modèles traditionnels, transforme en profondeur un secteur d’activité ou provoque des ruptures économiques significatives.

Qu’est-ce qu’un « distributeur » ?

Un distributeur est une personne physique ou morale qui intervient dans la chaîne d’approvisionnement, à l’exception du fournisseur et de l’importateur, et qui met un système d’intelligence artificielle à disposition sur le marché de l’Union Européenne.

Qu’est-ce qu’un « fournisseur en aval » ?

Un fournisseur en aval est un acteur qui propose un système d’intelligence artificielle, y compris un système à usage général, intégrant un modèle d’IA. Ce modèle peut avoir été développé en interne ou fourni par une autre entité dans le cadre d’un accord contractuel.

Qu’est-ce qu’un « système de reconnaissance des émotions » ?

Un système de reconnaissance des émotions est un système d’intelligence artificielle conçu pour identifier ou déduire les émotions ou les intentions de personnes physiques à partir de leurs données biométriques.

Qu’est-ce qu’un « facilitateur » dans le contexte des modèles d’IA ?

Un facilitateur désigne un levier social et économique permettant d’accroître la productivité et d’augmenter les capacités humaines. Il aide à exécuter des tâches plus rapidement, avec plus de précision, à analyser de grands volumes de données en un temps réduit et à prendre des décisions mieux informées. Il contribue également à répondre à des enjeux sociétaux tels que le changement climatique, la croissance démographique ou les problématiques de santé, tout en favorisant le progrès technologique.

Que signifie « expérimentations » ?

Les expérimentations englobent différentes séries de tests, dont le suivi est essentiel pour améliorer l’efficacité et la performance. Elles peuvent porter sur l’usage de jeux de données d’apprentissage et de test, l’ajustement des hyperparamètres, l’exécution de versions de code distinctes ou l’analyse de comportements en fonction de différents environnements.

Qu’est-ce que l’« IA explicable » (XAI) ?

L’IA explicable regroupe les techniques et méthodes destinées à rendre les décisions et les résultats des modèles d’intelligence artificielle compréhensibles pour les utilisateurs. Elle vise à instaurer un climat de confiance et à garantir la transparence en expliquant les mécanismes à l’origine des prédictions, dans un objectif de conformité et de responsabilisation.

Qu’est-ce qu’une « boucle de rétroaction » ?

Une boucle de rétroaction permet à un modèle d’IA de valider ou de corriger ses décisions. Elle sert à ajuster les paramètres pour améliorer les performances, en intégrant des informations externes et impartiales.

Qu’est-ce qu’une « opération en virgule flottante » ?

Une opération en virgule flottante est une opération mathématique impliquant des nombres à virgule flottante. Il s’agit de nombres réels représentés en informatique par une mantisse de précision fixe associée à un exposant dans une base donnée.

Qu’est-ce qu’un « modèle d’IA à usage général » ?

Un modèle d’IA à usage général est un modèle entraîné à grande échelle, souvent par auto-supervision, capable d’accomplir de manière compétente un large éventail de tâches distinctes. Il peut être intégré dans divers systèmes ou applications. Les modèles exclusivement utilisés à des fins de recherche, de développement ou de prototypage avant leur commercialisation ne sont pas couverts par cette définition.

Qu’est-ce qu’un « système d’IA à usage général » ?

Un système d’IA à usage général est un système fondé sur un modèle d’IA à usage général (cf définition précédente). Il peut être utilisé directement à des fins multiples ou intégré dans d’autres systèmes d’intelligence artificielle.

Qu’est-ce que l’« IA générative » ?

L’intelligence artificielle générative utilise des techniques d’apprentissage automatique (Machine Learning) et d’apprentissage profond (Deep Learning), comme les réseaux antagonistes génératifs (GAN) ou les autoencodeurs variationnels (VAE), pour produire du contenu nouveau et unique, tel que des images, des vidéos ou des textes.

Que signifie « norme harmonisée » ?

Une norme harmonisée est une norme européenne telle que définie à l’article 2, point 1, sous c), du règlement (UE) n° 1025/2012.

Que sont les « capacités à fort impact » ?

Les capacités à fort impact sont les fonctionnalités d’un modèle d’IA à usage général dont les performances sont équivalentes ou supérieures à celles des modèles les plus avancés disponibles sur le marché.

Qu’est-ce qu’un « importateur » ?

Un importateur est une personne physique ou morale, établie dans l’Union, qui met sur le marché un système d’intelligence artificielle portant le nom ou la marque d’un opérateur établi en dehors de l’Union.

Le consentement éclairé désigne la manifestation libre, spécifique, non équivoque et volontaire d’une personne souhaitant participer à un test en conditions réelles, après avoir été informée de tous les éléments pertinents à sa décision de participer.

Que sont les « données d’entrée » ?

Les données d’entrée sont les données fournies à un système d’IA ou qu’il acquiert directement, sur la base desquelles il génère un résultat.

Que signifie « notice d’utilisation » ?

La notice d’utilisation est l’ensemble des informations fournies par le fabricant pour informer l’utilisateur, notamment sur la finalité du système d’IA et ses conditions d’utilisation.

Que signifie « finalité prévue » ?

La finalité prévue correspond à l’usage auquel un système d’intelligence artificielle est destiné par son fournisseur. Elle comprend le contexte spécifique et les conditions d’utilisation, tels que précisés dans la notice, la documentation technique ou les supports promotionnels.

Qu’est-ce que l’« invariance » ?

L’invariance est la propriété d’un système selon laquelle le résultat reste inchangé malgré des transformations appliquées aux données d’entrée. En traitement d’image, par exemple, cela signifie que le contenu reste pertinent et reconnaissable, qu’il soit agrandi ou pivoté. Identifier ces invariances est essentiel pour garantir la fiabilité et la stabilité des modèles d’IA.

Qu’entend-on par « autorité chargée de l’application de la loi » ?

Cela désigne :

a) toute autorité publique compétente pour la prévention, l’enquête, la détection ou la poursuite des infractions pénales, ou pour l’exécution des peines, y compris la protection et la prévention contre les menaces pesant sur la sécurité publique ;

b) tout autre organisme habilité par le droit d’un État membre à exercer des missions de puissance publique dans les mêmes domaines.

Qu’entend-on par « application de la loi » ?

L’application de la loi regroupe les activités menées par ou pour le compte d’autorités chargées de l’ordre public, dans le cadre de la prévention, de l’enquête, de la détection ou de la poursuite des infractions pénales, ainsi que de l’exécution des peines. Elle inclut également les actions visant à prévenir les menaces à la sécurité publique.

Qu’est-ce que l’« apprentissage automatique » (machine learning) ?

L’apprentissage automatique est une forme d’intelligence artificielle reposant sur des algorithmes capables d’apprendre à partir de données d’entraînement et d’améliorer leurs performances sans être explicitement programmés pour chaque tâche.

Que signifie « mise à disposition sur le marché » ?

La mise à disposition sur le marché désigne toute opération consistant à fournir un système d’intelligence artificielle ou un modèle d’IA à usage général, à des fins de distribution ou d’utilisation sur le marché de l’Union, dans le cadre d’une activité commerciale, que ce soit à titre onéreux ou gratuit.

Qu’est-ce que l’« autorité de surveillance du marché » ?

L’autorité de surveillance du marché est l’autorité nationale chargée des activités et mesures prévues par le règlement (UE) 2019/1020.

Que sont les « MLOps » ?

Les MLOps désignent un ensemble de bonnes pratiques visant à automatiser et à standardiser les différentes étapes du cycle de vie d’un modèle de Machine Learning (apprentissage automatique), depuis la collecte des données jusqu’au déploiement et au suivi postérieur.

Que signifie « autorité notifiante » ?

L’autorité notifiante est l’autorité nationale responsable de la mise en œuvre des procédures nécessaires à l’évaluation, à la désignation et à la notification des organismes d’évaluation de la conformité, ainsi qu’à leur suivi.

Qu’est-ce qu’un « organisme notifié » ?

Un organisme notifié est un organisme d’évaluation de la conformité ayant fait l’objet d’une notification officielle conformément à l’IA Act et à d’autres textes d’harmonisation de l’Union Européenne.

Que signifie « autorité nationale compétente » ?

L’autorité nationale compétente désigne l’autorité notifiante ou l’autorité de surveillance du marché. S’agissant des systèmes d’IA mis en service ou utilisés par les institutions, agences, offices et organes de l’Union européenne, toute référence à une autorité nationale compétente ou de surveillance du marché s’entend comme visant le Contrôleur européen de la protection des données.

Que signifie la « performance d’un système d’IA » ?

La performance d’un système d’intelligence artificielle correspond à sa capacité à atteindre la finalité prévue par son fournisseur.

Que sont les « données à caractère personnel » ?

Les données à caractère personnel sont définies à l’article 4, point 1, du règlement (UE) 2016/679. Il s’agit de toute information se rapportant à une personne physique identifiée ou identifiable.

Que sont les « données non personnelles » ?

Les données non personnelles sont les données qui ne relèvent pas de la définition des données à caractère personnel au sens de l’article 4, point 1, du règlement (UE) 2016/679.

Qu’est-ce que le « profilage » ?

Le profilage désigne toute forme de traitement automatisé de données à caractère personnel tel que défini à l’article 4, point 4, du règlement (UE) 2016/679. Dans le cas des autorités répressives, la définition applicable est celle de l’article 3, point 4, de la directive (UE) 2016/680. Pour les institutions et organes de l’Union, il convient de se référer à l’article 3, point 5, du règlement (UE) 2018/1725.

Que signifie « mise sur le marché » ?

La mise sur le marché correspond à la première mise à disposition d’un système d’intelligence artificielle ou d’un modèle d’IA à usage général sur le marché de l’Union.

Qu’est-ce qu’un « système de surveillance après mise sur le marché » ?

Il s’agit de l’ensemble des activités menées par les fournisseurs de systèmes d’IA afin de collecter et d’analyser les retours d’expérience liés à leur utilisation, dans le but d’identifier la nécessité d’appliquer sans délai des mesures correctives ou préventives.

Que signifie « prédiction » en apprentissage automatique ?

La prédiction désigne la capacité d’un modèle d’intelligence artificielle à anticiper des résultats à partir de données historiques. Le modèle s’appuie sur des données d’apprentissage pour identifier des schémas et produire des décisions ou des prévisions.

Qu’est-ce qu’un « fournisseur » ?

Un fournisseur est une personne physique ou morale, une autorité publique, une agence ou un autre organisme qui développe un système d’IA ou un modèle d’IA à usage général, ou qui en fait développer un, et qui le met sur le marché ou le met en service sous son propre nom ou sa propre marque, que ce soit à titre onéreux ou gratuit.

Qu’est-ce qu’un « espace accessible au public » ?

Il s’agit de tout lieu physique, public ou privé, accessible à un nombre indéterminé de personnes physiques, indépendamment de l’existence de conditions d’accès ou de restrictions de capacité.

Que signifie « mise en service » ?

La mise en service correspond à la fourniture d’un système d’IA pour sa première utilisation par le déployeur ou pour son usage propre dans l’Union Européenne, conformément à sa finalité prévue.

Qu’est-ce qu’un « opérateur » ?

L’opérateur peut être le fournisseur, le fabricant du produit, le déployeur, le mandataire autorisé, l’importateur ou le distributeur.

Qu’est-ce qu’un « plan d’essai en conditions réelles » ?

Un plan d’essai en conditions réelles est un document décrivant les objectifs, la méthodologie, la portée géographique, démographique et temporelle, ainsi que l’organisation, la surveillance et le déroulement des tests réalisés en conditions réelles.

Que signifie « usage abusif raisonnablement prévisible » ?

Il s’agit de l’utilisation d’un système d’IA non conforme à sa finalité prévue, mais pouvant résulter de comportements humains prévisibles ou d’interactions avec d’autres systèmes, y compris d’autres systèmes d’IA.

Que signifie « rappel d’un système d’IA » ?

Mesure visant à obtenir le retour d’un système d’IA au fournisseur, à le retirer du service ou à désactiver son utilisation lorsqu’il a été mis à disposition des déployeurs.

Qu’est-ce que la « reproductibilité » ?

En intelligence artificielle, notamment en Machine Learning, la reproductibilité désigne la capacité à obtenir des résultats identiques ou similaires en relançant un algorithme sur des ensembles de données spécifiques au sein d’un même projet. Elle permet de garantir la cohérence des analyses et des conclusions.

Qu’est-ce que le « risque » ?

Le risque correspond à la combinaison de la probabilité qu’un dommage survienne et de la gravité de ce dommage.

Que signifie « composant de sécurité d’un produit ou d’un système » ?

Il s’agit d’un composant assurant une fonction de sécurité au sein d’un produit ou d’un système, dont la défaillance ou le dysfonctionnement peut mettre en danger la santé ou la sécurité des personnes ou des biens.

Que sont les « catégories particulières de données à caractère personnel » ?

Ce sont les catégories de données visées à l’article 9, paragraphe 1, du règlement (UE) 2016/679, à l’article 10 de la directive (UE) 2016/680 et à l’article 10, paragraphe 1, du règlement (UE) 2018/1725.

Que sont les « données opérationnelles sensibles » ?

Données relatives aux activités de prévention, de détection, d’enquête et de poursuite des infractions pénales, dont la divulgation pourrait compromettre l’intégrité des procédures judiciaires.

Qu’est-ce qu’un « incident grave » ?

Un incident grave désigne tout événement ou dysfonctionnement d’un système d’intelligence artificielle ayant conduit, directement ou indirectement, à l’un des cas suivants :
a) le décès d’une personne ou une atteinte grave à sa santé
b) une perturbation grave et irréversible de la gestion ou du fonctionnement d’une infrastructure critique
ba) une violation d’obligations prévues par le droit de l’Union visant à protéger les droits fondamentaux
bb) un dommage important aux biens ou à l’environnement

Qu’est-ce qu’un « sujet » ?

Dans le cadre des tests en conditions réelles, le sujet est une personne physique participant à l’expérimentation.

Qu’est-ce qu’une « modification substantielle » ?

Une modification substantielle est une modification apportée à un système d’intelligence artificielle après sa mise sur le marché ou sa mise en service, qui n’avait pas été prévue dans l’évaluation de conformité initiale effectuée par le fournisseur, et qui affecte sa conformité ou modifie sa finalité d’usage.

Qu’est-ce que le « risque systémique à l’échelle de l’Union » ?

Un risque systémique à l’échelle de l’Union est un risque propre aux capacités à fort impact des modèles d’IA à usage général, ayant un impact significatif sur le marché intérieur en raison de leur portée, et pouvant entraîner des effets négatifs réels ou raisonnablement prévisibles sur la santé publique, la sécurité, les droits fondamentaux ou la société dans son ensemble. Ce type de risque peut se propager à grande échelle dans la chaîne de valeur.

Que sont les « données de test » ?

Les données de test sont des données utilisées pour évaluer de manière indépendante les performances attendues d’un système d’IA avant sa mise sur le marché ou sa mise en service.

Que signifie « test en conditions réelles » ?

Un test en conditions réelles correspond à un essai temporaire d’un système d’IA dans un environnement réel, en dehors d’un laboratoire ou d’un cadre simulé, afin de recueillir des données fiables et d’évaluer sa conformité aux exigences de l’AI Act. Ce test ne constitue pas une mise sur le marché ou une mise en service au sens du règlement, à condition que toutes les conditions des articles 53 ou 54a soient remplies.

Que sont les « données d’apprentissage » ?

Les données d’apprentissage sont utilisées pour entraîner un système d’intelligence artificielle en ajustant ses paramètres apprenables.

Que sont les « données de validation » ?

Les données de validation servent à évaluer un système d’IA déjà entraîné et à ajuster ses paramètres non apprenables ainsi que son processus d’apprentissage, afin notamment d’éviter le sous-apprentissage ou le surapprentissage. L’ensemble de validation est distinct ou issu d’un fractionnement de l’ensemble d’apprentissage.

Que signifie « infraction généralisée » ?

Une infraction généralisée désigne un acte ou une omission contraire au droit de l’Union portant atteinte aux intérêts des individus :
a) ayant causé ou susceptible de causer un préjudice aux intérêts collectifs de personnes résidant dans au moins deux États membres autres que celui :
i) où l’acte ou l’omission a eu lieu
ii) où le fournisseur concerné ou, le cas échéant, son mandataire est établi
iii) où le déployeur est établi, si celui-ci est à l’origine de l’infraction
b) présentant des caractéristiques communes, telles que la même pratique illicite, la même atteinte aux intérêts des personnes, et survenant simultanément dans au moins trois États membres, commises par un même opérateur

Que signifie « retrait d’un système d’IA » ?

Le retrait d’un système d’IA désigne toute mesure visant à empêcher qu’un système soit mis à disposition sur le marché dans la chaîne d’approvisionnement.

Références :

1 https://data.consilium.europa.eu/doc/document/ST-5662-2024-INIT/en/pdf

A propos de l'auteur, Kristin A.
  • Kristin Avon Senior Legal Officer Vaultinum

    Kristin est une avocate américaine agréée, spécialisée dans les domaines de la propriété intellectuelle et du droit des technologies. Elle est membre des commissions stratégique et juridique de Vaultinum, chargées de superviser et de mettre en œuvre les politiques et processus liés à la protection des actifs numériques.