Skip to main content

Développement des systèmes

Image

Public concerné

Cette ligne directrice est destinée aux responsables et au personnel informatiques, aux ingénieurs logiciels, aux scientifiques spécialisés dans les données et aux gestionnaires de projets techniques impliqués dans la conception, le déploiement et la maintenance des systèmes d'IA dans les parlements. 

À propos de cette ligne directrice

Cette ligne directrice traite du développement des systèmes d'IA dans des contextes parlementaires, notamment en rapprochant les deux domaines cruciaux de la technologie et de la gouvernance. Elle aborde des aspects essentiels comme le cycle de vie des systèmes d'IA, les cadres de développement externes, les stratégies de déploiement et les questions de planification. En mettant l'accent sur les principes éthiques, l'atténuation des risques et les meilleures pratiques, cette ligne directrice vise à aider les parlements à mettre en œuvre des solutions d'IA améliorant l'efficacité, la transparence et la prise de décision, tout en préservant l'intégrité et la confiance du public dans le processus législatif.

Pourquoi le développement de systèmes d'IA est-il important ?

Dans le contexte de la gouvernance de l'IA, un processus de développement de systèmes d'IA est un ensemble de pratiques visant à garantir que tous les projets d'IA résolvent les problèmes auxquels ils doivent répondre et respectent les principes éthiques de l'IA. En tant que processus intrinsèquement opérationnel, le développement de systèmes d'IA doit se conformer à la politique du parlement en matière d'IA et suivre les procédures de l'institution en matière de gestion et de sécurité des données.

Dans un contexte parlementaire, un processus de développement de systèmes d'IA est pertinent pour la gouvernance de l'IA en tant que moyen de réduire les risques éthiques et opérationnels. Ci-dessous se trouvent des détails sur la manière dont il procède.

Préserver la confidentialité pour les personnes concernées par les données

Les données à caractère personnel doivent être protégées non seulement dans les phases de développement, mais aussi dans les éléments produits par le système d'IA.

Assurer la transparence tout au long des phases de développement et de maintenance 

Les systèmes d'IA sont souvent complexes, ce qui rend leurs processus décisionnels internes opaques. C'est pourquoi les pratiques doivent être examinées de près afin d'améliorer la transparence tout au long du cycle de vie du système d'IA, depuis la planification initiale du projet jusqu'à la mise hors service du système. Cette approche doit permettre d'expliquer plus facilement les éléments produits par le système d'IA et de s'assurer que les phases de développement respectent les règles du parlement et sont conformes à la réglementation. 

Réduire les biais et les discriminations

Des techniques permettant d'identifier les groupes à protéger des biais doivent être appliquées tout au long du processus, de la planification au déploiement. Lorsque les systèmes d'IA sont opérationnels, un suivi continu contribue à limiter les nouveaux biais qui n'ont pas été observés lors de la phase de développement. 

Instaurer la redevabilité

Grâce à des étapes systématiques de planification, de mise en œuvre, de test et d'amélioration, les pratiques sont déléguées et approuvées par les principales parties prenantes, les fonctions et responsabilités de chacun étant clairement définies. La fonctionnalité du système d'IA doit être documentée de manière à pouvoir être auditée. 

Améliorer la robustesse et la sécurité

Le processus de développement des systèmes doit se concentrer sur l'amélioration de la robustesse et de la sécurité, grâce à une architecture de système privilégiant la cybersécurité et à des tests approfondis.

Conserver l'autonomie humaine

Les humains doivent jouer un rôle permanent de vérification afin de s'assurer que les éléments produits par le système d'IA sont fiables, à la fois pendant le développement et après le déploiement en environnement réel. Cette surveillance humaine garantit que le système continue d'adhérer aux principes éthiques pris en compte lors de la phase projet et elle permet d'identifier de nouveaux risques éthiques. 

Garantir la conformité par rapport à la réglementation

Les systèmes d'IA doivent se conformer à diverses exigences légales et réglementaires, établies à la fois en interne et dans le pays ou la région du parlement.

Cycle de vie des systèmes et cadres de développement

Le cycle de vie des systèmes d'IA est une liste séquentielle d'étapes, de pratiques et de décisions qui conduisent au développement et au déploiement de solutions basées sur l'IA. Un cycle de vie bien défini est essentiel pour les parlements développant leurs propres systèmes et outils basés sur l'IA, car il permet une approche structurée et systématique de la mise au point, du déploiement et de la maintenance de technologies d'IA éthiques.

Dans ce contexte, il existe un nombre croissant de cadres externes de développement de l'IA que les parlements peuvent appliquer. Il s'agit de modules et de bibliothèques logicielles intégrées facilitant le développement, l'entraînement, la validation et le déploiement de solutions d'IA par le biais d'une interface de programmation de haut niveau.

Pour une réflexion plus approfondie sur le cycle de vie des systèmes et les cadres de développement, se reporter à la sous-ligne directrice Développement des systèmes : Cycle de vie des systèmes et cadres de développement.

Déploiement et mise en œuvre

Lors du déploiement et de la mise en œuvre de systèmes et d'outils d'IA, les parlements doivent comprendre des aspects clés tels que les stratégies de déploiement, les scénarios courants de déploiement et les recommandations critiques en matière de planification, notamment des sujets comme la participation des parties prenantes, le lancement de projets pilotes et l'application de méthodes agiles. Le contexte doit également être pris en compte, notamment les flux des travaux parlementaires, l'expertise interne et les possibilités de tirer parti d'outils d'IA responsables.

Pour plus de détails sur le déploiement et la mise en œuvre des systèmes d'IA, voir la sous-ligne directrice Développement des systèmes : Déploiement et mise en œuvre.

Pour une réflexion plus approfondie sur les modes de déploiement des logiciels, voir la sous-ligne directrice Développement des systèmes : Modes de déploiement.

Pour en savoir plus


Les Lignes directrices pour l’IA dans les parlements ont été produites par l’UIP en collaboration avec le Pôle parlementaire sur la science des données du Centre pour l'innovation au parlement de l'UIP. Ce document est soumis à une licence Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International. Il peut être librement partagé et réutilisé en mentionnant l'UIP. Pour plus d'informations sur les travaux de l'UIP en matière d'intelligence artificielle, veuillez consulter le site www.ipu.org/fr/impact/democratie-et-parlements-forts/lintelligence-artificielle ou contacter [email protected].

Sous-lignes directrices

Développement des systèmes : Cycle de vie et cadres de développement des systèmes

Développement des systèmes : Déploiement et mise en œuvre