Conseil d'éthique clinique

Conseil d'éthique clinique

L’intellignce artificielle peut-elle avoir une éthique ?

Un peu de "bioéthique"!

De nombreux fantasmes entourent cette nouvelle forme de logiciel qui permettrait à l’homme de construire des machines autonomes qui pourraient éventuellement se retourner contre l’humanité.

Certes, nous n’en sommes pas encore à ce niveau de fabrication, mais un certain nombre de problèmes éthiques et juridiques apparaissent.

De la même façon que la Cour de Justice avait posé le principe comme quoi le corps des êtres humains n’est pas brevetable, l’Office européen des Brevets a posé symétriquement qu’une invention n’est pas brevetable si son avènement ne résulte pas d’une action humaine.

« After hearing the arguments of the applicant in non-public oral proceedings on 25 November the EPO refused EP 18 275 163 and EP 18 275 174 on the grounds that they do not meet the requirement of the EPC that an inventor designated in the application has to be a human being, not a machine. A reasoned decision may be expected in January 2020. »

L’Europe demeure gardienne de la distinction fondamentale entre la « personne » (que tout être humain est) et les « choses » (que les algorithmes sont). Les choses n’inventent pas. Si l’on devait dire que les choses sont des personnes (ou les personnes sont des choses), alors l’on changerait de monde. Pour protéger les êtres humains, l’Europe le refuse.

« Les choses n’inventent pas », intuitivement cela paraît une évidence. Mais au siècle de l’intelligence artificielle peut-on encore écrire cela ?

On peut très bien imaginer qu’un tel système produise de nouvelles configurations de pensées ou des manières d’appréhender les choses qui dépassent largement les capacités humaines et donc fournissent des inventions.

En 2016, une machine a battu un grand champion de Go. Le fait qu’elle gagne grâce à des capacités de calcul largement supérieures à l’homme est déjà un élément important. Elle peut ainsi évaluer très rapidement de multiples configurations de jeu. Mais ce qui est surtout remarquable c’est que pour ce faire le logiciel a su développer des tactiques tout à fait inédites et a construit des stratégies de jeu qu’aucun humain n’avait imaginé jusqu’alors.

 

Revenons à la réflexion sur la brevetabilité des productions de l’intelligence artificielle,

Il paraît inconcevable que l’on puisse breveter le produit d’une machine, fût-elle dotée d’une intelligence artificielle puisqu’il n’y qu’il n’y a matière à brevet qu’autant que l’homme y a laissé sa trace personnelle.

L’homme ne peut créer, au travers d’un ordinateur ou d’une’imprimante 3D, un objet, ou un concept, enfin une « chose » brevetable, qu’au terme d’un processus original, que seul un être humain peut instaurer. Alors que la machine ne peut initier un processus de création spontanément ab nihilo.

 

Pourtant, un système qui est censé prendre seul des décisions en temps réel, autrement dit sans en référer à un commandement humain au moment de l’acte, existe déjà : ce sont les véhicules autonomes. À mon sens, cela pose un problème d’imputabilité et donc d’éthique.

On a appris à une machine à se déterminer dans des situations difficiles et variées. Elles peuvent être très différentes de ce que l’informaticien humain a pu entrevoir et lui apporter comme notions dans la construction de son logiciel.

Je dis cela pour plusieurs raisons.

Premièrement, parce que les délais de réponse sont beaucoup trop longs. Autrement dit, en temps réel, l’homme ne peut pas aider la machine dans sa décision.

Ensuite parce que les techniques actuelles visent à une autoformation du logiciel, en quelque sorte, il apprend de ses expériences. Comme on dirait d’un humain qu’il apprend de ses erreurs.

Mais aussi parce que l’on peut rapprocher ce comportement de la machine d’un phénomène complexe au sens défini par Edgar Morin. Le véhicule est piloté par un système informatique — le logiciel — qui fonctionne comme une combinaison d’éléments dont la réunion forme un ensemble appelé intelligence artificielle. Il est très sensible au jeu entre contingence locale et nécessité relationnelle. Il est attentif aux aléas de la route et interagit avec les autres conducteurs. Appliqué au logiciel ce concept de complexité met l’accent sur l’unité du programme et l’interdépendance des éléments (les sous-systèmes) qui le composent en relation avec les évènements extérieurs comme les aléas de la circulation et les évènements de la conduite.

Le pilotage automobile qui se crée ainsi se présente comme une forme de propriété émergente. Ainsi, la machine arrive à construire un comportement nouveau face à une situation inédite et qui n’a jamais pu être « inventée » ou prévu par l’auteur humain.

D’où mon idée que l’inventeur n’est peut-être pas celui que l’on croit.

Mais alors qui est responsable en cas d’erreur ? Je crois que c’est justement le débat actuel dans nos sociétés. Allons-nous vers une éthique propre au robot ?

Jeu de go : victoire décisive de l’intelligence artificielle contre Lee Sedol.

 

William Audureau, Florian Reynaud, Jeu de go : victoire décisive de l’intelligence artificielle contre Lee Sedol, Article du monde du 11 mars 2016.

 



21/02/2020
0 Poster un commentaire

A découvrir aussi


Inscrivez-vous au blog

Soyez prévenu par email des prochaines mises à jour

Rejoignez les 21 autres membres