Le journal La Presse incluait hier un article traitant des défis liés à la morale qui s'imposent de plus en plus à nous, en cette ère de début de l'intelligence artificielle (l’« IA », ou « AI , selon l'acronyme en anglais). En l'occurrence, le contrôle que place l'IA dans les mains d'appareils tangibles ne peut faire autrement que de mener, au fil des situations factuelles dans lesquelles sont placés ces objets, à des dilemmes qu'on qualifierait de dilemmes moraux si des humains les rencontraient. Le temps venu, comme ces décisions seront le fruit de la programmation, au-delà de la morale, le droit pourrait en venir à remettre ces choix en question. Devrait-on réfléchir à ce qu’on apprend aux IA ou quant aux choix qu’on leur dit de faire ? À y réfléchir, difficile de penser le contraire, particulièrement en droit.
En gros, tout le problème dont on parle ici est le successeur du « dilemme du tramway », une question utilisée par les philosophes depuis quelques décennies pour réfléchir au concept des valeurs (éthiques) et de la morale. Ce dilemme est celui qui se présenterait à un conducteur de tramway et serait résumé comme suit par Wikipédia : « une personne peut effectuer un geste qui bénéficiera à un groupe de personnes A, mais, ce faisant, nuira à une personne B ; dans ces circonstances, est-il moral pour la personne d'effectuer ce geste ? » Bref, en cas de collision inévitable à gauche ou à droite, de quel côté doit-on aller, par exemple s’il y a un seul individu à droite, mais un groupe à gauche?
Selon plusieurs, le degré d'autonomie conféré à des systèmes et des appareils dotés d'IA implique une réflexion préalable à laquelle devraient s'adonner les créateurs et les promoteurs de ce genre de technologie. Selon plusieurs, on devrait anticiper l'interaction éventuelle inévitable entre la santé d'êtres humains et les gestes de machines pilotées par l'IA. L'exemple peut-être le plus frappant à ce sujet implique les véhicules autonomes qui, comme chacun le sait, font progressivement leur entrée sur nos routes. En somme, en cas de réalisation par un tel véhicule qu'un accident s'avère inévitable, comment devrait-on avoir programmé l'IA quant aux choix qu’il fera, par exemple, quant à qui se fera frapper par le véhicule? Si la voiture frappe quelqu’un ou quelque chose à coup sûr, doit-elle exercer un jugement sur qui elle choisira? C’est le genre de question qui se pose de façon prospective.
Bien que largement théorique pour l'instant, la question type revient à s’interroger sur qui devrait être épargné en cas d'accident qui ne peut être évité complètement. Dans une telle situation, si l'IA peut éviter un préjudice à certains, mais pas à tous les humains impliqués, existe(ra)-t-il un barème moral devant dicter à l'IA quels choix effectuer? Et si oui, lequel? L'IA doit-il, par exemple, privilégier (ou au contraire défavoriser) la protection de certains groupes d'âge comme les enfants ou les vieillards? Les femmes? Les gens plus en santé? Les minorités ethniques? Les animaux? Ceux qui violent la loi? etc. Bref, nos choix de programmation composeront une partie de la moralité que se trouvera à exprimer notre société, par le biais des appareils autonomes de demain. Il y a donc un argument à faire qu'une réflexion s'impose dès aujourd'hui, entre autres peut-être, afin de doter nos machines autonomes de certaines valeurs, lesquelles se manifesteront ensuite dans les choix qui seront faits, au fil du fonctionnement et de l'utilisation de ces appareils, dans diverses situations.
Puisque c'est l'humain qui programme l'IA ultimement, on en est donc à se demander si les constructeurs devraient munir leurs appareils (véhicules, etc.) d’une boussole morale en quelque sorte. Le développement de l’IA devrait-il chercher à doter l’IA d’une morale ou d’éthique? À force de réflexion, l’industrie réalise qu’une telle tournure de l’industrie de l’IA sera probablement en réalité inévitable, puisqu’on doit, par définition, dire à l’IA comment on veut qu’il se comporte. On apprend ainsi à une IA conductrice de véhicule à respecter les règles de sécurité routière quand tout se passe normalement. Par contre, en pratique on doit aussi « apprendre » à l’IA comment on désire qu’elle réagisse en cas de problème. Comme les imprévus sont une réalité inévitable de la conduite, on doit inévitablement encadrer ces « imprévus », ce que feront les constructeurs et développeurs en donnant un cadre de réflexion à leurs véhicules. Imbriquer nos valeurs dans l’IA constitue donc une démarche incontournable, notamment parce que l’IA se révèle une machine à faire des choix, choix qui impliqueront souvent de peser ou soupeser des valeurs concurrentes entre elles. Tout véhicule autonome sera tôt ou tard forcé de faire un choix entre la santé de X et celle d’Y, c’est inévitable.
Bien que l’exercice puisse sembler relever de la philosophie, on peut déjà anticiper que la réalité ramènera rapidement le débat au niveau des pâquerettes quand, par exemple, un accident se produira par suite de la décision d’un véhicule autonome de frapper telle victime plutôt que telle autre. Facile de comprendre pour tout juriste que l’une des premières questions qui seront posées alors est de savoir pourquoi ce choix a été fait dans ces circonstances exactes. En cas d’accident avec des morts ou des blessés et que l’IA aurait été en mesure d’éviter (s’il avait fait un choix autre), pourra-t-on alors tenir le manufacturier responsable? Tous les choix possibles d’un véhicule alors s'avèrent-ils valables au moment de la programmation? La question se pose et se posera de plus en plus, au fil du développement et de l'utilisation des véhicules autonomes. Impossible qu'il en soit autrement, en fait.
C’est donc là le genre de débat juridique vers lequel nous nous acheminons à 100 km/h, au fur et à mesure de l’entrée des véhicules autonomes sur nos routes.
Fait intéressant, selon l'article de La Presse, des chercheurs universitaires auraient mis un point un outil cherchant à poser les bases d'une éthique morale universelle qu'on pourrait éventuellement appliquer à l'IA. Un site Web aurait ainsi questionné des internautes de divers pays en posant des questions visant à connaitre les valeurs qu'ils ou elles appliqueraient dans telle ou telle situation, tirée de scénarios d'accidents projetés aux diverses victimes potentielles. Selon l'article, les résultats démontreraient de grandes disparités des résultats causées par des facteurs culturels et sociaux. En somme, la bonne réponse à tel ou tel scénario pourra varier, réfutant ainsi la thèse selon laquelle les êtres humains peuvent s'entendre parfaitement quant à ce que signifie avoir un comportement moral. Sans grande surprise, la réponse typique à tel ou tel scénario pourra varier d'un pays à l'autre. Les Canadiens, par exemple, sembleraient privilégier le fait d'épargner un plus grand nombre de vies humaines, ce qui ne serait pas une réponse qui va de soi pour tous les pays. La morale possède quelque chose de très culturel après tout.
Les quarante millions de réponses obtenues par l'entremise du site Web du projet de recherche universitaire mentionné ci-haut seront dorénavant mises à la disposition des entreprises oeuvrant en IA. On espère ainsi faire avancer le domaine, en permettant peut-être de jeter ainsi les bases d'un sous-domaine lié à l'IA et qui viserait doter ces choses autonomes d'un peu plus d'humanité sous le capot.
Malgré l'intérêt académique pour ce genre de question, l'article reconnaît que les sociétés innovantes dans ce domaine (dont Waymo et Uber) ne sont pas nécessairement aussi intéressées à ce genre de questions, que de développer et mettre en marché le plus rapidement possible des technologies comme des véhicules autonomes que pourront se procurer des acheteurs. Malheureusement, bien que l'exercice s'avère sans aucun doute intellectuellement valable, l'acheteur moyen potentiel n'y accorde pour l'instant que peu d'importance. La loi devait-elle tenter d'intervenir pour corriger le tir? Cette question-là, aussi, se pose.