Article Post on 15 December 2017

Emergence de l'intelligence artificielle : la responsabilité des entreprises

_Si l’intelligence artificielle était autrefois qu’un sujet de science-fiction, elle relève maintenant de l’actualité et est vouée à se développer encore plus dans les décennies à venir.

Les avancées technologiques ont permis en effet de créer des intelligences artificielles très performantes, en mesure de dépasser les capacités des humains (tel qu’il a pu résulter des victoires de l’intelligence artificielle aux échecs et plus récemment au jeu de Go sur des joueurs professionnels chevronnés).

Dans cette optique, le Parlement Européen a adopté une résolution contenant des recommandations à la Commission Européenne pour l’adoption de règles de droit civil sur la robotique. Il s’agit d’un premier pas vers l’élaboration d’un cadre juridique concernant la robotique et l’intelligence artificielle dans l’Union Européenne.

Il convient cependant de définir tout d’abord l’intelligence artificielle : il s’agit de la capacité d’un système informatique de pouvoir fonctionner sans intervention humaine et de s’adapter à son environnement, en apprenant de ses expériences, ce qui lui permet d’améliorer son comportement.

Si l’intelligence artificielle n’a pas encore atteint son point de maturité préalable à sa commercialisation en masse, il n’empêche pas moins que les juristes se sont emparés de la question.

La question de la responsabilité des personnes ayant recours à des intelligences artificielles ou commercialisant des intelligences artificielles se pose dès lors, à moins que l’on ne considère que l’intelligence artificielle, douée d’une raison autonome, ne doive être elle-même responsable des dommages qu’elle cause à autrui… .

La reconnaissance d’une personnalité juridique de l’intelligence artificielle ?

La personnalité juridique consiste en la capacité d’être titulaires de droits et d’être sujets à des obligations.

Elle est acquise à toute personne physique humaine, même si en raison de leurs facultés elles doivent être accompagnées dans les actes de la vie civile (c’est le cas des mineurs ou des majeurs protégés).

Elle est aussi attribuée par la loi à certains regroupements d’individus. Il s’agit des personnes morales. La personnalité de ces groupements d’individus est distincte de celles des membres qui la composent.

L’idée que l’on puisse attribuer une personnalité juridique à d’autres entités que des personnes humaines n’est donc pas tout à fait inédite, même si ces entités ne constituent en réalité qu’une collectivité de personnes humaines. En revanche, le régime juridique applicable à ces entités fait l’objet d’adaptations, par exemple au niveau de la responsabilité pénale (Articles 34 à 40 Code pénal luxembourgeois).

La question se pose alors de savoir s’il est judicieux et opportun d’attribuer à l’intelligence artificielle une personnalité juridique à l’instar des personnes morales.

La personnalité juridique suppose que l’intelligence artificielle serait capable de jouir pleinement de ses droits et de remplir ses obligations. Elle devrait alors disposer de son propre patrimoine.

De même, l’intelligence artificielle devrait supporter la charge des dommages qu’elle pourrait causer à autrui par son fait et elle serait donc pénalement responsable de ses actes.

A ce point d’évolution technologique, il ne nous semble pas souhaitable d’attribuer une personnalité juridique à l’intelligence artificielle, parce que l’intelligence artificielle ne dispose pas d’une conscience indépendante de celle donnée par son concepteur dans le programme d’ordinateur. Elle ne peut ainsi véritablement maîtriser tous les aspects de la vie humaine.

Parce que l’intelligence artificielle reste cantonnée dans la volonté et le périmètre d’action que le concepteur ou l’utilisateur lui a donnée, il ne serait pas non plus socialement souhaitable que la responsabilité du concepteur et de l’utilisateur soit exclue par le biais de l’intervention de l’intelligence artificielle.

En conséquence, l’option de l’attribution de la personnalité juridique à l’intelligence artificielle nous semble devoir être exclue à ce stade.


Qui est responsable des dommages causés par une intelligence artificielle ?

La relation contractuelle entre l’utilisateur et le programmeur de l’intelligence artificielle

Dans le cadre des relations contractuelles entre le programmeur de l’intelligence artificielle et l’utilisateur, la responsabilité peut soit venir du fait que l’utilisateur a reçu un produit qui ne correspond pas aux qualités auxquelles il aurait pu s’attendre soit du fait que l’intelligence artificielle lui a causé un dommage.

Il convient alors de définir le type de contrat conclu entre l’utilisateur et le programmeur. L’intelligence artificielle étant un bien immatériel, deux types de contrat peuvent rentrer en considération : soit il s’agit d’un contrat de licence, similaire à une location ; soit d’une cession, assimilable à une vente.

Selon le type de contrat envisagé, le régime de responsabilité change.

Dans le cadre d’une cession assimilable à une vente, l’utilisateur peut se prévaloir de l’obligation pour le vendeur de délivrer une chose conforme aux spécifications contractuelles conformément à l’article 1616 C.Civ.

Il peut également engager la responsabilité du vendeur au titre de la garantie des vices cachés conformément à l’article 1641 C. Civ. Cette responsabilité peut être néanmoins exclue par contrat, à moins que le vendeur ne connaisse les défauts préalablement à la vente (Art. 1643 C.Civ) ou que le bien a été vendu à un consommateur (Article 1645 C. Civ et article L211-3 C. Civ).

Dans le cadre d’une licence, si l’utilisateur présente des moyens d’actions similaires, les bases légales sont différentes. Ainsi l’utilisateur peut faire valoir l’obligation pour le programmeur de mettre à disposition une intelligence artificielle qui correspond aux spécifications contractuelles. Le programmeur licenciant le programme doit assurer également la jouissance paisible de l’intelligence artificielle pour la durée de la licence. Cette obligation de jouissance paisible permet de couvrir les éventuels vices cachés de la chose.

La différence essentielle entre les deux régimes tient du fait que le régime de la licence ne contient pas de dispositions protectrices des consommateurs et de la possibilité d’interdire le transfert de la licence à d’autres personnes (interdiction des sous-licences). Dans le cadre des licences, le programmeur serait tout à fait habilité à limiter la portée ou réduire la durée de la garantie due au titre du contrat.

Encore faut-il déterminer comment distinguer un contrat de licence d’un contrat de cession.  

La Cour de Justice de l’Union Européenne s’est penchée sur la question à l’occasion de son arrêt « UsedSoft » du 3 juillet 2012 (C-128/11), selon laquelle dès lors qu’un programme a été acquis pour une durée indéterminée en contrepartie d’un prix, alors il faut partir du principe que la propriété du programme a été transférée, comme s’il avait été question d’une véritable vente.

Le transfert à durée indéterminée des droits de propriété intellectuelle est donc une cession qui s’assimile à une vente à laquelle s’applique pleinement le régime de l’obligation de délivrance conforme et de garantie des vices cachés décrits ci-dessus.

La relation envers les tiers : la responsabilité du fait des choses

La responsabilité délictuelle encourue vis-à-vis des tiers est celle qui est le plus susceptible d’être bouleversée dans l’avenir par l’avènement de l’intelligence artificielle, puisqu’on est confronté dans le cadre de l’intelligence artificielle à une entité qui peut prendre des décisions autonomes.

Le Code Civil prévoit une responsabilité du fait des choses (Article 1384 al.1 C.Civ). La notion de chose doit ici être entendue dans son sens large et recouvre ainsi également l’objet incorporant l’intelligence artificielle. Cette notion ne recouvre pas cependant, selon la doctrine juridique encore discutée à ce jour, les biens immatériels tels que les programmes d’ordinateurs.

La responsabilité du fait des choses s’attache donc à l’objet auquel s’incorpore l’intelligence artificielle et non à l’intelligence artificielle en elle-même. C’est donc ici le producteur de l’objet incorporant l’intelligence artificielle et non le programmeur qui est responsable.

La difficulté réside dans le fait que ni l’utilisateur, ni le producteur de la chose peuvent assurer un contrôle total de la chose puisque l’objet doté d’intelligence artificielle est autonome.

La jurisprudence au Luxembourg a déjà pu être confrontée à cette difficulté en raisonnant sur la notion de garde de la chose. Elle établit une différence entre :

  • la personne en charge du comportement de la chose, c’està-dire l’utilisateur, qui sera responsable lorsque le dommage résulte d’un comportement de la chose ; et
  • la personne en charge de la structure, ici le producteur de la chose, qui sera responsable des dommages résultant d’un défaut même de l’intelligence artificielle.

En parallèle de cette responsabilité du fait des choses, les fondements de responsabilité suivants doivent également être pris en compte :

  • dans le cas où la responsabilité du fait des choses est reconnue envers le producteur, celuici peut toujours se retourner contre le programmeur en ayant recours à la responsabilité civile de droit commun ; et
  • la victime du dommage peut également avoir recours à la responsabilité du fait des produits défectueux (Art. 13861 C.Civ).


Conclusion

Conséquence de la liberté contractuelle, les contrats portants sur des objets dotés d’une intelligence artificielle peuvent aménager de manière très libre la responsabilité encourue en cas de dommages, à moins que l’acheteur ne soit considéré comme un consommateur.

Envers un tiers, le producteur de la chose équipée d’une intelligence artificielle, le programmeur ainsi que l’utilisateur peuvent être tenus responsables selon les circonstances. Dans un tel cas et afin de se protéger, le programmeur et l’utilisateur peuvent inclure des clauses déterminant l’utilisation et les limitations de l’intelligence artificielle, que l’utilisateur devra consciencieusement prendre en compte.

Au vu des défis que pose l’intelligence artificielle, il est sûr que la question risque de susciter de nombreuses évolutions.

 

_ Cet article a été précédemment publié dans Entreprises magazine – Numéro 86 – novembre/décembre 2017

Share this content