Skip to content

Intelligence artificielle responsable – Principes 3 et 4

Nous publions un extrait de l’ouvrage intitulé Responsible AI: A Global Policy Framework exposant les huit principes clés qui sont à la base de l’énoncé de politique global en quatre billets hebdomadaires. Les principes 3 et 4 font l’objet du présent billet.
Intelligence artificielle responsable

Énoncé de politique global

  1. But éthique et bénéfice social
  2. Responsabilité
  3. Transparence et explicabilité
  4. Équité et non-discrimination
  5. Sécurité et fiabilité
  6. Données ouvertes et concurrence loyale
  7. Confidentialité
  8. L’intelligence artificielle et la propriété intellectuelle

Principe 3
Transparence et explicabilité

Les organisations qui développent, déploient ou utilisent des systèmes d’intelligence artificielle (IA) et toute législation nationale réglementant une telle utilisation doivent s’assurer que, dans la mesure du raisonnable compte tenu des circonstances et de la technologie de pointe, cette utilisation est transparente et que les décisions prises en la matière sont explicables.

1 Définitions

1.1 La transparence est une obligation pour les organisations qui utilisent l’IA dans le processus de prise de décision visant à fournir des informations concernant : a) le fait qu’une organisation utilise un système d’IA dans un processus de prise de décision ; b) les objectifs prévus du système d’IA et la façon dont le système d’IA sera et peut être utilisé ; (c) les types d’ensembles de données utilisés par le système d’IA ; et (d) des informations utiles sur la logique visée.

1.2 L’explicabilité est une obligation pour les organisations qui utilisent l’IA dans les processus de prise de décision visant à fournir des informations précises dans des termes compréhensibles par l’homme, expliquant comment une décision ou un résultat a été atteint par un système d’IA.

2 But

2.1 La transparence et l’explicabilité ont pour objectif de préserver la confiance du public dans les systèmes d’IA et de fournir suffisamment d’informations pour aider à garantir la responsabilité réelle des développeurs, des sociétés déployant un système d’IA et des utilisateurs de ce système, et pour démontrer si les décisions prises par un système d’IA sont justes et impartiales.

2.2 Les principes de transparence et d’explicabilité soutiennent le principe de responsabilité, le principe d’équité et de non-discrimination, le principe de sécurité et de fiabilité et les principes de confidentialité, d’utilisation licite et de consentement.

3 Approche progressive et contextuelle

3.1 L’intensité des obligations de transparence et d’explicabilité dépendra du contexte de la décision et de ses conséquences pour la personne qui en fait l’objet. La portée et l’intensité des obligations de transparence et d’explicabilité augmenteront à mesure que la sensibilité des ensembles de données utilisés par un système d’IA augmente et que le résultat décisionnel d’un système d’IA augmente en importance.

3.2 La détermination de l’intensité des obligations de transparence et d’explicabilité doit concilier les intérêts de la personne faisant l’objet de la décision et ceux de l’organisation prenant ladite décision. Le critère ultime doit être l’attente raisonnable d’une personne soumise à ce type de décision.

4 Transparence et explicabilité par définition

4.1Les organisations qui développent des systèmes d’IA doivent s’assurer que la logique et l’architecture du système facilitent les exigences de transparence et d’explicabilité. Dans la mesure du possible et compte tenu de la technologie de pointe du moment, ces systèmes doivent avoir pour objectif d’être conçus à partir du niveau le plus fondamental vers le haut, afin de promouvoir la transparence et l’explicabilité par définition. Lorsqu’il existe un choix entre des architectures système plus ou moins opaques, l’option la plus transparente doit être privilégiée.

4.2Les utilisateurs de systèmes d’IA et les personnes soumises à leurs décisions doivent disposer d’un moyen efficace de demander réparation si les organisations qui développent, déploient ou utilisent des systèmes d’IA ne font pas preuve de transparence quant à leur utilisation.

5 Neutralité technologique

5.1L’utilisation d’un système d’IA par une organisation publique ou privée ne réduit pas les exigences de procédure et de contenu normalement attachées à une décision lorsque le processus de prise de décision est entièrement contrôlé par un humain.

Principe 4
Équité et non-discrimination

Les organisations qui développent, déploient ou utilisent des systèmes d’intelligence artificielle (IA) et toute législation nationale réglementant une telle utilisation doivent garantir la non-discrimination des résultats de l’IA et promouvoir des mesures appropriées et efficaces pour garantir l’équité dans l’utilisation de l’IA.

1 Sensibilisation et éducation

1.1La sensibilisation et l’éducation sur les possibilités et les limites des systèmes d’IA sont des conditions préalables pour obtenir des résultats plus justes.

1.2 Les organisations qui développent, déploient ou utilisent des systèmes d’IA doivent prendre des mesures pour que les utilisateurs sachent que ces derniers reflètent les objectifs, les connaissances et l’expérience de leurs créateurs, ainsi que les limites des ensembles de données utilisés pour les former.

2 Technologie et équité

2.1 Les décisions fondées sur les systèmes d’IA doivent être équitables et non discriminatoires, au regard des mêmes normes que les processus décisionnels dont l’humain est entièrement responsable.

2.2 L’utilisation de systèmes d’IA par les organisations qui développent, déploient ou utilisent des systèmes d’IA et les gouvernements ne doit pas servir à exempter ni à atténuer le besoin d’équité, même si cela peut signifier de recentrer les concepts, les normes et les règles applicables pour tenir compte de l’IA.

2.3 Les utilisateurs de systèmes d’IA et les personnes soumises à leurs décisions doivent avoir un moyen efficace de remédier à la situation dans des situations discriminatoires ou injustes générées par des systèmes d’IA biaisés ou erronés, qu’ils soient utilisés par des organisations développant, déployant ou utilisant des systèmes d’IA ou des gouvernements, et d’obtenir réparation pour tout dommage.

3 Développement et surveillance des systèmes d’IA

3.1 Le développement de l’IA doit être conçu de manière à privilégier l’équité. Cela signifie d’aborder les algorithmes et les biais de données dès le début afin de garantir l’équité et la non-discrimination.

3.2 Les organisations qui développent, déploient ou utilisent des systèmes d’IA doivent rester vigilantes face aux dangers des biais. Cet objectif pourrait être atteint en mettant sur pied des comités d’éthique, en créant des codes de conduite, et en adoptant des normes sectorielles et des sceaux de qualité reconnus à l’échelle internationale.

3.3 Les systèmes d’IA ayant un impact social important pourraient nécessiter un examen et des tests indépendants sur une base périodique.

3.4Lors du développement et du suivi des systèmes d’IA, une attention particulière doit être accordée aux groupes défavorisés qui peuvent être mal représentés dans les données de formation.

4 Une approche globale de l’équité

4.1 Les systèmes d’IA peuvent perpétuer et exacerber les biais, et avoir un impact social et économique général dans la société. Aborder l’équité dans l’utilisation de l’IA nécessite une approche globale. En particulier, cela nécessite :

  1. l’engagement étroit d’experts techniques de domaines liés à l’IA avec des statisticiens et des chercheurs en sciences sociales ;
  2. un engagement combiné entre les gouvernements, les organisations développant, déployant ou utilisant les systèmes d’IA et le grand public.

4.2Le principe d’équité et de non-discrimination est appuyé par les principes de transparence et de responsabilité. L’utilisation équitable des systèmes d’IA exige la mise en œuvre de mesures liées à ces deux principes.


Responsible AI: A Global Policy Framework se veut un appel à l’action avec le lancement d’une première période de consultation publique ouverte à tous les intervenants à l’échelle mondiale désireux de fournir des commentaires et des idées sur des façons de renforcer ces principes stratégiques fondamentaux.

Pour soumettre vos commentaires : https://www.itechlaw.org/responsibleai

You May Also Like
© Thomson Reuters Canada Limitée. Tous droits réservés. Mise en garde et avis d’exonération de responsabilité.