Centre de certification de l'IA

Le Centre de certification de l'IA contribue à l'avancement des technologies de l'IA et à leur utilisation responsable. Le centre mène des recherches fondamentales sur le lignage des données, l'équité, l'interprétabilité et la robustesse des modèles d'IA. Le centre soutient le déploiement responsable et sécurisé de technologies d'IA et contribue par son leadership et son expertise technique à l'évolution des normes et des réglementations en matière d'IA. Le règlement général sur la protection des données (RGPD) et la loi sur l'intelligence artificielle (loi sur l'IA) soulignent également l'importance de la conformité des modèles d'IA.

Les activités du centre englobent l'analyse des lois et des normes, la formalisation des mesures, le développement de logiciels, la création de boîtes à outils et la collecte de données. Le centre jouera un rôle clé dans la fourniture de services de validation et de certification pour les technologies d'IA qui deviennent partie intégrante de divers secteurs, et la demande de modèles d'IA sûrs et certifiés est donc en hausse.

L'expertise et la réputation de l'Idiap dans des domaines clés tels que la sécurité, l'interaction humaine, la santé et la robotique, ainsi que l'alignement du centre sur les normes internationales, y compris ISO/IEC JTC 1/SC 42 Artificial Intelligence, positionne le centre comme un leader en matière de tests et de certification dans le domaine de l'intelligence artificielle. L'engagement en faveur des normes internationales et la collaboration entre tous les groupes de recherche permettront au centre de rester à la pointe du développement et de la certification des technologies de l'IA.

 

Projets choisis

  • SAFER - reSponsible fAir FacE Recognition

Dans ce projet, les chercheurs abordent les questions d'équité et d'éthique en lien avec les données scientifiques sur la reconnaissance des visages. Ils étudient des stratégies pour évaluer et combler le manque d'équité en travaillant sur le temps de formation et de notation. Pour combler les lacunes en matière d'éthique, ils recherchent des mécanismes permettant de générer des ensembles de données synthétiques diversifiés et à grande échelle.

  • SOTERIA - uSer-friendly digiTal sEcured peRsonal data and prIvacy plAtform

Ce projet vise à créer un changement de paradigme en matière de protection des données et à permettre la participation active des citoyens à leur propre sécurité, à leur vie privée et à la protection de leurs données personnelles. Il développera et testera, dans trois cas d'utilisation réels à grande échelle, un service rentable et commercialisable, piloté et centré sur les citoyens, qui leur permettra de contrôler leurs données personnelles privées facilement et en toute sécurité.

  • FairMl - Machine Learning Fairness with Application to Medical Images

Ce projet aborde trois défis importants dans le domaine de l'équité de l'apprentissage automatique pour l'imagerie médicale. Créer de nouvelles façons d'entraîner les modèles d'apprentissage automatique pour les tâches d'imagerie médicale, qui peuvent être automatiquement ajustées pour devenir plus utiles (maximiser les performances), équitables au niveau du groupe ou de l'individu. Quantifier les limites de l'équité des modèles d'apprentissage automatique et des données de développement associées. Construire des systèmes dont la performance conjointe avec les humains dans la boucle de décision est équitable envers divers individus et groupes démographiques.

  • AI4EU - A European Excellence Centre for Media, Society and Democracy

Le projet construit une plateforme européenne complète d'IA à la demande pour abaisser les barrières à l'innovation, stimuler le transfert de technologie et catalyser la croissance des start-ups et des PME dans tous les secteurs par le biais d'appels ouverts et d'autres actions. La plateforme agira comme un intermédiaire, un développeur et un guichet unique fournissant et présentant des services, de l'expertise, des algorithmes, des cadres logiciels, des outils de développement, des composants, des modules, des données, des ressources informatiques, des fonctions de prototypage et l'accès au financement.

  • BEAT - Biometrics Evaluation and Testing

La fiabilité des technologies biométriques reste difficile à comparer. Il n'existe pas de normes européennes pour évaluer leur précision, leur résistance aux attaques ou leur capacité à préserver la vie privée. Une plateforme dédiée, en ligne et ouverte, comble cette lacune en évaluant de manière transparente les systèmes biométriques, en concevant des protocoles et des outils pour l'analyse des vulnérabilités et en élaborant des documents de normalisation pour les évaluations des critères communs.

 

L'expertise de ce centre vous intéresse? Discutons en:

Contact