L'UIP facilite la diplomatie parlementaire et donne aux parlements et aux parlementaires les moyens de promouvoir la paix, la démocratie et le développement durable dans le monde.
Presque tous les pays du monde ont un parlement. Les systèmes parlementaires se divisent en deux catégories : bicaméraux et monocaméraux. Sur 190 parlements nationaux dans le monde, 78 sont bicaméraux (156 chambres) et 112 sont monocaméraux, soit un total de 268 chambres parlementaires comprenant environ 46 000 membres. L'UIP compte 181 membres. Vous trouverez ici toutes les informations sur
La deuxième Conférence parlementaire sur le dialogue interconfessionnel, placée sous le thème Renforcer la confiance et susciter l’espoir pour bâtir notre avenir commun, se déroulera du 19 au 21 juin 2025 à Rome (Italie).
Tout au long de l'année, l'UIP et ses Membres organisent de nombreux événements pour permettre aux parlementaires d'échanger leurs bonnes pratiques, d'obtenir les informations les plus récentes et de définir des moyens d'action.
L'UIP recueille des données sur les parlements depuis sa création en 1889, notamment sur la participation des femmes à la vie politique depuis 1945. Dans cette section, découvrez la base de connaissances de l'UIP sur les parlements et à leur sujet.
Principes éthiques : Autonomie et contrôle humains
Image
À propos de cette sous-ligne directrice
Cette sous-ligne directrice fait partie de la ligne directrice Principes éthiques. Se reporter à la ligne directrice principale pour le contexte et une vue d'ensemble.
Cette sous-ligne directrice examine le principe d'autonomie et contrôle humains dans la gouvernance de l'IA pour les parlements. Il s'agit du mode d'interaction entre les systèmes d'IA et les humains, ainsi que de la manière dont les informations sont stockées, transmises et sécurisées. Elle souligne que les parlements, en tant que catalyseurs d'une société démocratique, florissante et équitable, doivent accompagner l'action de l'utilisateur et défendre les droits fondamentaux, et que, dans un contexte d'IA, cela nécessite un contrôle humain.
Dans cette sous-ligne directrice, une attention particulière est accordée aux défis posés par l'IA générative, en soulignant la nécessité de disposer de robustes canaux de retour d'information et de contrôles humains fréquents.
Dans l'ensemble, cette sous-ligne directrice propose un cadre permettant aux parlements de développer et de maintenir des systèmes d'IA encourageant l'autonomie humaine et permettant un contrôle humain.
Autonomie humaine et protection des droits des citoyens
Les êtres humains doivent être libres d'exprimer leurs opinions et de prendre des décisions concernant leur vie sans interférence, coercition ou manipulation. Pour garantir que les systèmes d'IA n'influent pas négativement sur les droits des citoyens, il est essentiel que les parlements comprennent comment ces systèmes interagissent avec les personnes et comment les informations sont stockées, transmises et sécurisées.
Le respect de l'autonomie humaine est particulièrement difficile dans certains domaines, notamment les recherches sur le web, la curation de contenus, la modération de contenus, les activités de navigation et le stockage sur le cloud de courriels et de communications textuelles. Lorsque les parlements s'appuient sur des systèmes d'IA pour exécuter des fonctions publiques essentielles, ils doivent veiller à ce que la conception et le fonctionnement de ces systèmes soient conformes aux normes internationales en matière de droits de l'homme, dans le cadre de leur devoir de promotion de la liberté d'expression.
En outre, pour préserver l'action humaine, les interactions directes entre les utilisateurs finaux humains et le système d'IA doivent être établies de manière à éviter de simuler des relations sociales ou d'encourager des comportements potentiellement négatifs ou addictifs.
Contrôle humain
Dans la gestion quotidienne des organisations, le contrôle humain s'exerce par la supervision humaine des éléments produits par un système d'IA. Les utilisateurs et les responsables des systèmes d'IA analysent ces éléments pour déterminer si des comportements indésirables se sont produits, si les règles établies lors de la phase de développement doivent être modifiées ou s'il existe des biais dans les données qui sont passés inaperçus lors du développement du système.
La nature du contrôle humain dépend du type d'application de l'IA. Une supervision peut se faire pendant le développement, sur une base continue, ou une fois que le système est en production, afin d'avoir un retour d'information sur les éléments produits par le système.
Trois types de supervision humaine peuvent être appliqués aux systèmes d'IA :
L'humain intervient dans le processus : dans ce modèle, un humain agit en médiateur de toutes les décisions prises par le système d'IA. Bien que cette approche offre le plus haut niveau de contrôle humain, elle n'est pas toujours souhaitable ou réalisable, en particulier avec les systèmes conçus pour une prise de décision rapide ou le traitement de gros volumes de données.
L'humain supervise le processus : cette approche permet une intervention humaine pendant la phase de développement du projet. Une fois que le système est opérationnel, le rôle humain consiste à surveiller le fonctionnement et les décisions du système. Cette approche concilie l'automatisation et le contrôle humain, ce qui permet d'intervenir en cas de besoin.
L'humain reste aux commandes : il s'agit de la forme de contrôle la plus complète, qui va au-delà du fonctionnement immédiat du système d'IA pour prendre en compte les incidences globales économiques, sociales, juridiques et éthiques. Dans le cadre de ce modèle, le contrôle peut même s'étendre à la société dans son ensemble, l'opinion des citoyens sur le comportement du système d'IA permettant d'avoir une vue d'ensemble sur ses effets et ses implications.
La distinction entre ces trois approches – l'humain intervient dans le processus, l'humain supervise le processus et l'humain reste aux commandes – réside principalement dans le niveau d'autonomie accordé au système d'IA et dans la portée du contrôle humain. Ces concepts sont synthétisés au tableau 1 ci-dessous :
Tableau 1 : modèles d'interaction humain-IA
En mettant en œuvre ces approches de contrôle, les parlements peuvent exploiter les avantages de l'IA tout en conservant les aspects essentiels de contrôle humain et de redevabilité, préservant ainsi les principes démocratiques et la confiance des citoyens.
Autonomie et contrôle humains dans la pratique
Pour préserver l'autonomie humaine et conserver un contrôle adéquat sur les systèmes d'IA, les parlements doivent adopter une approche globale. Les composantes de cette approche sont détaillées ci-dessous :
Évaluation des risques : procéder à une évaluation approfondie des risques de chaque système d'IA, en accordant une attention particulière à ceux qui interagissent directement avec les utilisateurs finaux humains. Pour ces systèmes, identifier tout risque de confusion quant à la personne ou au dispositif participant à l'interaction.
Règles : définir des règles claires pour les interactions IA-humain afin d'éviter toute manipulation ou la création de relations sociales inappropriées. Le type de contrôle requis pour chaque système d'IA doit être déterminé en fonction de son profil de risque spécifique.
Normes et tests : élaborer un ensemble de critères clairs et mesurables pour les comportements acceptables et inacceptables de l'IA, et établir un plan de test complet pour étudier toute la gamme de comportements du système. La politique du parlement en matière d'IA doit désigner un poste spécifique ou un service chargé de l'organisation ayant le pouvoir de retirer un système d'IA de l'exploitation s'il ne peut pas répondre à ces normes de comportement.
Formation : proposer au personnel technique et aux responsables une formation complète sur le processus d'évaluation, notamment sur l'utilisation d'outils ou de fonctionnalités spécifiques intégrés dans le système d'IA lui-même.
Remontée des informations : produire régulièrement des rapports de contrôle, adaptés au personnel technique et aux responsables.
Analyse : mettre en place une procédure rapide et efficace d'analyse des rapports sur le contrôle humain afin de s'assurer que tout problème ou difficulté est traité rapidement, ce qui permet de préserver l'intégrité et la fiabilité des systèmes d'IA utilisés.
En mettant en œuvre ces pratiques, les parlements peuvent tirer parti des capacités des systèmes d'IA tout en veillant à ce qu'ils restent sous un contrôle humain approprié et respectent l'autonomie humaine.
Contrôle humain de l'IA générative
Les parlements doivent mettre en place des mécanismes de contrôle robustes pour l'IA générative :
Créer un canal numérique pour le retour d'information des utilisateurs sur les éléments produits par l'IA.
Investir dans la formation du personnel pour un contrôle efficace de l'IA.
Effectuer des contrôles humains plus fréquents sur les contenus générés par l'IA, compte tenu des progrès rapides de cette technologie.
Sélectionner avec soin les outils d'IA générative et s'assurer que tous les utilisateurs comprennent leurs limitations spécifiques.
Ces mesures permettent aux parlements de tirer parti de l'IA générative tout en maintenant un contrôle humain essentiel et des normes éthiques.