Énoncé de politique global
-
But éthique et bénéfice social
- Responsabilité
- Transparence et explicabilité
- Équité et non-discrimination
- Sécurité et fiabilité
- Données ouvertes et concurrence loyale
- Confidentialité
- L’intelligence artificielle et la propriété intellectuelle
Principe 1
But éthique et bénéfice sociétal
Les organisations qui développent, déploient ou utilisent des systèmes d’intelligence artificielle (IA), et toute législation nationale réglementant une telle utilisation doivent exiger que les objectifs de cette mise en œuvre soient identifiés et veiller à ce que ces objectifs soient compatibles avec les objectifs éthiques généraux de bienfaisance et de non-malfaisance, ainsi qu’avec les autres principes de l’énoncé de politique pour une IA responsable.
1 Principes généraux
1.1 Les organisations qui développent, déploient ou utilisent des systèmes d’IA doivent le faire d’une manière compatible avec le facteur humain et dans le respect des droits fondamentaux de la personne (y compris le droit à la non-discrimination).
1.2 Les organisations qui développent, déploient ou utilisent des systèmes d’IA doivent surveiller la mise en œuvre de ces systèmes et agir pour atténuer les conséquences (intentionnelles ou non) de ces systèmes d’IA qui sont incompatibles avec les objectifs éthiques de bienfaisance et de non-malfaisance, tout comme avec les autres principes de l’énoncé de politique pour une IA responsable.
1.3 Les organisations qui développent, déploient ou utilisent des systèmes d’IA doivent évaluer les implications sociales, politiques et environnementales de ce développement, de ce déploiement et de cette utilisation dans le contexte d’une évaluation structurée de l’impact de l’IA responsable qui tient compte du risque de préjudice et propose, le cas échéant, des stratégies d’atténuation relatives à ces risques.
2 Travail et automatisation
2.1 Les organisations qui mettent en œuvre des systèmes d’IA sur le lieu de travail doivent offrir aux employés concernés la possibilité de participer au processus décisionnel lié à cette mise en œuvre.
2.2 Il convient de déterminer s’il est possible, d’un point de vue technologique, de garantir que tous les événements possibles soient prédéterminés au sein d’un système d’IA afin de garantir un comportement cohérent. Si une telle détermination n’est pas réalisable, les organisations qui développent, déploient ou utilisent des systèmes d’IA doivent au moins déterminer dans quelle mesure elles peuvent limiter les résultats décisionnels d’un système d’IA à une gamme de réponses raisonnables et non aberrantes, en tenant compte des éléments suivants : le contexte plus général, l’impact de la décision et la pertinence morale de comparer l’incomparable comme la vie par rapport à la vie.
2.3 Les organisations qui développent, déploient ou utilisent des systèmes d’IA ayant un impact sur l’emploi doivent effectuer une évaluation de l’impact de l’IA responsable afin de déterminer les effets nets de cette mise en œuvre.
2.4 Les gouvernements doivent suivre de près les progrès de l’automatisation dirigée par l’IA afin de déterminer les secteurs de leur économie où les travailleurs sont les plus touchés. Les gouvernements doivent activement solliciter et surveiller les données et les commentaires de l’industrie, des employés et des autres intervenants concernant l’impact des systèmes d’IA sur le lieu de travail et doivent créer un forum ouvert pour le partage des expériences et des meilleures pratiques.
2.5 Les gouvernements doivent promouvoir des politiques éducatives dotant tous les enfants des compétences, des connaissances et des qualités requises par la nouvelle économie et favorisant l’apprentissage tout au long de la vie.
2.6 Les gouvernements doivent encourager la création d’occasions, pour les adultes, visant à acquérir de nouvelles compétences utiles, en particulier pour les personnes déplacées par l’automatisation.
2.7 Les gouvernements doivent étudier la viabilité et l’opportunité de nouveaux systèmes de sécurité sociale et de prestations pour contribuer à réduire, le cas échéant, les inégalités socio-économiques causées par l’introduction de systèmes d’IA et l’automatisation robotique.
3 Impact sur l’environnement
3.1 Les organisations qui développent, déploient ou utilisent des systèmes d’IA doivent évaluer l’impact environnemental global de ces systèmes tout au long de leur mise en œuvre, y compris la consommation de ressources, les coûts énergétiques liés au stockage et au traitement des données, ainsi que les économies d’énergie nettes ou les avantages environnementaux pouvant en résulter. Les organisations doivent chercher à promouvoir et à mettre en œuvre les utilisations des systèmes d’IA en vue de parvenir à la neutralité carbonique ou à la réduction de carbone.
3.2 Les gouvernements sont encouragés à adapter les régimes de réglementation et à promouvoir les régimes d’autoréglementation du secteur en ce qui concerne l’entrée sur le marché et l’adoption de systèmes d’IA de manière à ce que les expositions possibles (occasions par rapport aux risques) pouvant résulter du fonctionnement public de tels systèmes d’IA soient raisonnablement reflétées. Des régimes spéciaux pour les admissions intermédiaires et limitées permettant de tester et d’affiner le fonctionnement du système d’IA peuvent contribuer à accélérer l’achèvement du système d’IA, et à améliorer sa sécurité et sa fiabilité.
3.3 Afin de garantir et de maintenir la confiance du public dans le contrôle humain final, les gouvernements doivent envisager d’appliquer des règles garantissant un examen complet et transparent des conséquences négatives et imprévues des systèmes d’IA résultant de leur utilisation, en particulier si ces conséquences ont été mortelles ou préjudiciables pour les humains utilisant de tels systèmes. Ces examens doivent être utilisés pour envisager un ajustement du cadre réglementaire des systèmes d’IA, en particulier pour développer, lorsque cela est faisable et réalisable, une compréhension plus complète de la manière dont de tels systèmes doivent être transférés en douceur à leurs opérateurs humains en cas de défaillance.
3.4 L’IA présente un potentiel particulier de réduction du gaspillage et de l’inefficacité des ressources préjudiciables à l’environnement. La recherche de l’IA sur ces objectifs doit être encouragée. Pour ce faire, des politiques doivent être mises en place pour garantir que les données pertinentes sont accessibles et utilisables d’une manière compatible avec le respect des autres principes de l’énoncé de politique pour une IA responsable, comme l’équité et la non-discrimination, les données ouvertes ainsi que la concurrence loyale et la protection de la vie privée, l’accès légal et le consentement.
4 IA pouvant être utilisée à des fins militaires
4.1 L’utilisation de systèmes d’armes létales autonomes (SALA) doit respecter les principes et les normes du droit international humanitaire relatif à l’utilisation des armes et du droit international plus général des droits de la personne, et être compatible avec ceux-ci.
4.2 Les gouvernements doivent mettre en œuvre des mécanismes multilatéraux pour définir, mettre en œuvre et surveiller le respect des accords internationaux concernant le développement, l’utilisation et le commerce éthiques des SALA.
4.3 Les gouvernements et les organisations doivent s’abstenir de développer, de vendre et d’utiliser des SALA capables de sélectionner et d’attaquer des cibles sans contrôle ni surveillance de nature humaine dans tous les contextes.
4.4 Les organisations qui développent, déploient ou utilisent des systèmes d’IA doivent informer leurs employés lorsqu’ils sont affectés à des projets liés aux SALA.
5 La militarisation d’informations fausses ou trompeuses
5.1 Les organisations qui développent, déploient ou utilisent des systèmes d’IA pour filtrer ou promouvoir du contenu informatif partagé sur des plateformes Internet, ou vu par leurs utilisateurs, doivent prendre des mesures raisonnables, conformes à la législation en vigueur, afin de minimiser la propagation d’informations fausses ou trompeuses en cas de risque matériel qu’une telle information fausse ou trompeuse puisse causer un préjudice important à des individus, des groupes ou des institutions démocratiques.
5.2 L’IA a le potentiel d’aider efficacement, et de façon proactive, à déterminer (et, le cas échéant, à supprimer) les contenus illicites, comme les discours de haine ou les informations militarisées fausses ou trompeuses. La recherche de l’IA sur les moyens d’atteindre ces objectifs d’une manière compatible avec la liberté d’expression doit être encouragée.
5.3 Les organisations qui développent, déploient ou utilisent des systèmes d’IA sur des plateformes pour filtrer ou promouvoir du contenu informatif partagé, ou vu par les utilisateurs de ces plateformes, doivent fournir un mécanisme permettant aux utilisateurs de signaler rapidement le contenu potentiellement préjudiciable.
5.4 Les organisations qui développent, déploient ou utilisent des systèmes d’IA sur des plateformes pour filtrer ou promouvoir du contenu informatif partagé, ou vu par les utilisateurs de ces plateformes, doivent fournir un mécanisme permettant aux fournisseurs de contenu de contester la suppression de ce contenu, par ces organisations, de leur réseau ou de leur plateforme en temps opportun.
5.5 Les gouvernements doivent fournir des directives claires pour aider les organisations qui développent, déploient ou utilisent des systèmes d’IA sur des plateformes à déterminer le contenu interdit qui respecte à la fois les droits à la dignité et à l’égalité, et le droit à la liberté d’expression.
5.6 Les tribunaux doivent rester les arbitres ultimes du contenu licite.
Principe 2
Responsabilité
Les organisations qui développent, déploient ou utilisent des systèmes d’intelligence artificielle (IA) et toute législation nationale réglementant une telle utilisation doivent respecter et adopter les huit principes du présent énoncé de politique pour une IA responsable (ou d’autres principes de responsabilité analogues). Dans tous les cas, les humains doivent rester responsables des actes et des omissions des systèmes d’IA.
1 Responsabilité
1.1 Les organisations qui développent, déploient ou utilisent des systèmes d’IA doivent désigner une ou plusieurs personnes responsables de la conformité de l’organisation à ces principes.
1.2 L’identité des personnes désignées par l’organisation pour veiller au respect des principes par celle-ci est communiquée sur demande.
1.3 Les organisations qui développent, déploient ou utilisent des systèmes d’IA doivent mettre en œuvre des politiques et des pratiques pour appliquer les principes si l’énoncé de politique pour une IA responsable ou d’autres principes adoptés (y compris des principes analogues pouvant être développés pour un secteur spécifique), notamment :
- établit des processus pour déterminer si, quand et comment mettre en œuvre un processus « d’évaluation de l’impact de l’IA responsable » ;
- établit et met en œuvre les principes de « l’IA responsable par définition » ;
- établit des procédures pour recevoir les plaintes et les demandes de renseignements et y répondre;
- forme le personnel et lui communique des informations sur les politiques et les pratiques de l’organisation ;
- développe des informations pour expliquer les politiques et les procédures de l’organisation.
2 Gouvernement
2. Les gouvernements qui évaluent le potentiel de « lacunes en matière de responsabilité » dans les cadres légaux et réglementaires existants applicables aux systèmes d’IA doivent adopter une approche équilibrée qui encourage l’innovation tout en luttant contre le risque de préjudice individuel ou social important.
2.1 De tels cadres juridiques et réglementaires doivent promouvoir les huit principes de l’énoncé de politique pour une IA responsable ou englober des considérations similaires.
2.2 Les gouvernements ne doivent pas conférer aux systèmes d’IA une personnalité juridique distincte, car cela irait à l’encontre du principe fondamental selon lequel les êtres humains doivent en dernier ressort rester responsables des actes et des omissions des systèmes d’IA.
3 Approche contextuelle
3.1 L’intensité de l’obligation de rendre compte variera selon le degré d’autonomie et de criticité du système d’IA. Plus le niveau d’autonomie du système d’IA est grand et plus les résultats qu’il peut produire sont critiques, plus le degré de responsabilité qui sera appliqué à l’organisation qui développe, déploie ou utilise le système d’IA est élevé.
Responsible AI: A Global Policy Framework se veut un appel à l’action avec le lancement d’une première période de consultation publique ouverte à tous les intervenants à l’échelle mondiale désireux de fournir des commentaires et des idées sur des façons de renforcer ces principes stratégiques fondamentaux.
Pour soumettre vos commentaires : https://www.itechlaw.org/responsibleai