AccueilDroit & chiffreLe droit à l'épreuve de l'intelligence artificielle

Le droit à l'épreuve de l'intelligence artificielle

L'IA soulève des enjeux éthiques et juridiques nécessitant un besoin d'encadrement. Elle fait son apparition dans des logiciels professionnels.
Le droit à l'épreuve de l'intelligence artificielle

Droit & chiffre Publié le ,

L'intérêt pour les technologies intégrant de l'intelligence artificielle (IA) va grandissant. Elles suscitent curiosité, enthousiasme et espoirs, aussi bien que méfiance, incrédulité et opposition.

En témoigne l'énorme succès de la récente série télévisée américaine Westworld où des robots dont la conscience se révèle mettent en péril un modèle commercial touristique bien huilé. De la science-fiction à la réalité, il n'y a qu'un pas.

Les Français se démarquent par leur méfiance. Selon une étude Ifop récente, 65 % d'entre eux se disent inquiets du développement de l'IA, contre 36 % des Britanniques et 22 % des États-Uniens.

Nécessité de réguler l'IA

Les politiques commencent à s'emparer de la question. Du Parlement européen à Barack Obama, en passant par Axelle Lemaire, ils prônent tous l'utilisation raisonnable et surtout la maîtrise de l'IA.

Juste avant de rendre les clés de la Maison blanche, le président des États-Unis a souhaité alerter l'opinion sur l'impact inéluctable de l'IA dans l'économie et le besoin nécessaire de régulation. En octobre 2016, Barack Obama consacrait ainsi un long entretien sur la question au magazine américain Wired avant de publier une série de recommandations.

Alain Benssoussan avec son robot-avocat Nao lors des Prix de l'Incubateur du barreau de Paris 2015 © MSM

Le mois dernier, le Parlement européen a demandé à la Commission européenne de définir des normes juridiques et éthiques applicables aux robots, tandis que dans l'Hexagone, le gouvernement lançait « France I.A. », son plan stratégique national (lire encadré ci-dessous).

Hormis cela, on compte sur les doigts d'une main les initiatives gouvernementales sur le sujet dans le monde (Japon, Angleterre et Corée du Sud).

Il y a plus de 70 ans, Alan Turing s'interrogeait sur la possibilité pour une machine de reproduire les capacités intellectuelles humaines. On sait aujourd'hui que c'est possible. De nombreux dispositifs imitant ou remplaçant l'humain dans certaines mises en œuvre de ses fonctions cognitives voient le jour et soulèvent des problèmes éthiques.

L'Office parlementaire d'évaluation des choix scientifiques et technologiques a invité de nombreux chercheurs à venir débattre de ces enjeux. Il ressort des échanges que les deux premières révolutions industrielles ont consisté à remplacer nos muscles par des machines alors que la révolution numérique remplace plutôt notre cerveau.

Cela va libérer les personnes de la pénibilité du travail et changer ainsi la forme et la valeur de celui-ci.

En outre, le traitement des données personnelles permet aux personnes et aux machines d'appendre énormément de choses et de les mémoriser sur de très longues durées, ce qui peut être dangereux. Il faut donc définir de nouvelles normes sur ce que les machines peuvent retenir ou oublier de nous.

La professeure à la Sorbonne et au CNRS, Laurence Devilliers, alerte quant à la dérive de « bêtise learning » tandis que le psychiatre Serge Tisseron met en garde contre le risque de remplacement du lien social et humain par la machine.

De son côté, la Commission supérieure du numérique et des postes (CSNP), en partenariat avec le CyberCercle, le Cigref et Eurogroup Consulting a accueilli récemment plus de 300 auditeurs à l'Assemblée nationale pour faire le point sur les grands enjeux de l'IA et ses implications en matière de développement économique, de libertés individuelles, de souveraineté et de sécurité.

Jean Launay, député, président de la CSNP, s'est réjoui de l'annonce du gouvernement, sous l'impulsion d'Axelle Lemaire, de créer TransAlgo, une plateforme scientifique dirigée par l'Inria pour évaluer la responsabilité et la transparence des algorithmes.

Pour ce député, les questions éthiques de société sous jacentes aux choix d'utilisation de l'IA sont nombreuses, comme la différence de tarifs des assurances auto selon le sexe de l'assuré ou la responsabilité des voitures sans chauffeurs, par exemple.

Malheureusement, la majorité des travaux académiques sur le sujet est issue des pays anglo-saxons, alors que l'Europe est absente du débat global.

« C'est à nous d'imposer les règles éthiques de notre vie ensemble », souligne la sénatrice Dominique Gillot, qui souhaite combattre la suprématie américaine sur la réglementation des pratiques d'IA.

Dans cette vaine, le Cigref a publié un livre blanc intitulé « Gouvernance de l'intelligence artificielle dans les entreprises », réalisé en partenariat avec le cabinet Alain Bensoussan Avocats qui présente les principales conclusions du Cercle intelligence artificielle sur les enjeux managériaux, éthiques, juridiques, liés à la poussée de l'IA.

Alain Benssoussan avec son robot-avocat Nao lors des Prix de l'Incubateur du barreau de Paris 2015 © AP

L'avènement des robots-avocats

Jaap Bosman, consultant américain auteur de Death of a Law Firm. © MSM

Les nouvelles solutions d'intelligence artificielle (IA) dédiées au droit tels que les célèbres robots-avocats ROSS, Peter ou Watson débarquent en Europe. Ces dernières font fureur outre-Atlantique.

Déjà 2 000 cabinets d'avocat de tailles différentes (entre 3 et 250 associés) sont équipés de Watson (technologie d'IBM) aux États-Unis. Plus d'une dizaine de grands cabinets américains ont déjà « recruté » ROSS.

Ce succès va certainement traverser l'Atlantique. C'est pourquoi la directrice des affaires publiques d'IBM France, Diane Dufoix-Garnier, et le vice-président des solutions cognitives, Jean-Philippe Desbiolles, ont été auditionnés le 8 mars dans le cadre du plan France I.A..

Quelques cabinets français se lancent déjà dans l'aventure. Le cabinet américain Latham & Watkins, implanté à Paris, est en phase de « test » avec ROSS, suivi par de plus petites structures.

Des chercheurs estiment le « point de bascule » de ces technologies à 2025. C'est-à-dire que dans seulement huit ans l'utilisation de l'IA sera monnaie courante dans le droit.

Auteur de Death of a Law Firm, le consultant américain Jaap Bosman prédit la fin du business model des cabinets d'avocats en soulevant la question épineuse de la standardisation du service juridique grâce à l'IA.

Des robots-avocats européens

L'entreprise française Yperlex annonce à son tour la naissance de LiZa, « une intelligence artificielle créée et supervisée par des avocats » qui « rend le droit financièrement et intellectuellement accessible à tous ».

Idem pour la start-up Softlaw, récompensée par l'Incubateur du barreau de Paris pour son progiciel de text mining juridique, qui « souhaite améliorer le quotidien des professionnels du droit grâce à l'IA ».

Le cabinet de niche Solegal spécialisé en droit des affaires et fiscalité a, quant à lui, signé un partenariat avec Predictice, start-up française spécialisée dans l'analyse de données et l'anticipation statistique des décisions de justice.

Jean-François Henrotte - « un cousin du Nord » qui a reçu le Prix de l'innovation 2016 du Conseil des barreaux européens - a créé un groupe de travail au barreau de Bruxelles pour élaborer « un avocat augmenté par l'IA et le Big data » avec un outil mutualisé qui puisse élever l'ensemble de l'avocature. Ce logiciel va apprendre au fur et à mesure en utilisant la technologie du deep learning avec les retours d'expérience des nombreux avocats utilisateurs.

« Au boulot les robots, la vie aux humains », s'est exclamé le prospectiviste Joël de Rosnay devant un parterre d'avocats enthousiastes lors du dernier congrès Eurojuris. Selon lui, les robots-avocats sont des « clones », des doubles qui les augmentent, des « assistants intellectuels proactifs ». Le souci est que ces clones numériques les concurrencent, donc leur font peur. Stephen Hawking, Elon Musk et Bill Gates ont alerté quant au danger que l'IA prenne le pas sur l'humain. Ils ont tort selon Joël de Rosnay car nous pouvons maîtriser ces technologies.

#France I.A. : lancement d'une stratégie française

De l'incubateur Agoranov à Paris, Axelle Lemaire, ex-secrétaire d'État au Numérique et à l'Innovation, et Thierry Mandon, secrétaire d'État chargé de l'Enseignement supérieur, ont lancé fin janvier « la stratégie en IA pour la France ».

À l'image de l'initiative French Tech, il s'agit d'identifier et de fédérer les acteurs de ce secteur afin de définir un plan stratégique à adopter. Institutionnels, chercheurs, entreprises et start-up se réunissent pour contribuer à définir les grandes orientations de la France en matière d'IA.

« Les responsables politiques doivent faire confiance aux experts divers et variés et relayer leurs idées », explique Axelle Lemaire. Un comité d'orientation associant des représentants de la recherche a été mis en place en présence de plus de 250 acteurs de la communauté pour cartographier l'écosystème.

Depuis ce lancement, de nombreux ateliers se sont tenus partout en France, notamment sur le campus Paris-Saclay. Les groupes de travail spécialisés par domaines (dont un sur l'IA, le droit et les sciences humaines) présenteront leurs recommandations pour la filière d'ici le 28 mars.

Le plan met également l'accent sur le financement de l'IA, notamment via le troisième volet du Plan d'investissements d'avenir, associé à des fonds privés.

Partage
Envoyer à un ami
Connexion
Mot de passe oublié ?