Intelligence Artificielle, Conférence Cyberlex

Chloé Henautcolloque, Droit, event, Intelligence Artificielle0 Comments

Intelligence Artificielle – Le 20/01/2017

Je me suis rendue hier aux rencontres annuelles Cyberlex, association de professionnels du droit de l’Internet, dont le thème était « Intelligence Artificielle: Mythe ou réalité ? », et qui se tenait au Sénat.


L’Intelligence Artificielle

Il y a plus de 70 ans, Alan Turing s’interrogeait sur la possibilité pour une machine de reproduire les capacités intellectuelles humaines. L’intelligence artificielle désigne aujourd’hui les dispositifs imitant ou remplaçant l’humain dans certaines mises en œuvre de ses fonctions cognitives.

La combinaison du développement du Big Data, des progrès de l’apprentissage automatique et l’essor de la robotique entraînent un regain d’intérêt pour l’intelligence artificielle. Ces systèmes peuvent exécuter des tâches de plus en plus complexes de planification, de recherche, d’analyse de données et de prédiction basée sur les données.

Les start-ups fleurissent et les grandes entreprises du numérique y investissent des fortunes. Ainsi, l’entreprise Amazon prépare la livraison des colis de ses futurs clients avant même qu’ils n’aient effectué leur commande. Les opérateurs de télécommunication, tel SFR, détectent les clients susceptibles de résilier leur abonnement et leur proposent une offre commerciale individualisée.

De grands constructeurs automobiles, tels Mercedes ou Volvo, affirment vouloir assurer dans leurs futurs véhicules autonomes en priorité la sécurité des occupants, quelle que soit la situation. L’utilisateur est donc aujourd’hui accompagné, conseillé, ciblé dans ses choix sur Internet comme dans la vie réelle.

L’intelligence artificielle est devenue un véritable sujet quotidien. Sujet d’inquiétude sur le pouvoir décisionnel de tels algorithmes, sujet d’étonnement sur les choix suggérés, sujet de controverse sur les propositions en résultant.

Source : cyberlex.org

 

Comment définir l’intelligence artificielle ?

Les conférences ont débuté avec des définitions de l’intelligence artificielle, d’abord concernant les aspects sociétaux et économiques avec l’intervention de Gilles BABINET, puis les aspects juridiques par Grégoire LOISEAU.

Ce dernier a fait une critique de l’idée récente d’établir un statut juridique pour les personnes électroniques, terme désignant ici les robots de manière générale.

 


L’intelligence artificielle est-elle responsable ?

Le thème de la première table ronde portait sur la responsabilité de l’intelligence artificielle, modérée par Valérie Sédallian, Avocat à la Cour.

L’intelligence artificielle fait actuellement l’objet de progrès considérables : voiture autonome, aide à la décision dans le domaine médical ou judiciaire, robots humanoïdes, « robots-conseillers » en matière financière, victoire d’AlphaGo (Google DeepMind) sur le champion du jeu de go pour ne citer que quelques exemples.

Les progrès des systèmes intelligents pourraient bousculer des pans entiers de nos économies et sociétés, selon des experts de l’université de Stanford. Parmi les questionnements sur les défis éthiques, légaux et sociétaux que suscite l’intelligence artificielle, une des premières questions qui se pose est celle de la responsabilité qui s’attache aux machines intelligentes.

Le fait que la machine dispose d’une certaine « autonomie », soit capable d’apprentissage, réduit les possibilités de « traçabilité » et peut poser des problèmes pour déterminer l’origine de la responsabilité dans les prises de décision du système.

Des questionnements éthiques sont également posés par certains développements de la robotique et notamment la conception de robots destinés à interagir avec les humains.

Source : cyberlex.org

 

Intervention d’Olivier BOUSQUET, Engineering director, Google

Selon lui, l’Intelligence Artificielle est une nouvelle façon de programmer qui s’appuie sur des exemples : on reconnait d’abord des formes spécifiques, puis des formes particulière, pour arriver à la couche finale qui va déterminer un objet précis dans une image.

Limites

On est capable de faire de l’IA spécialisée et non de l’IA générale.
C’est-à-dire, qu’on crée un système spécifique qui peut résoudre un problème précis, mais pas un autre.
On a des « briques » d’IA mais pas de système général, on ne peut pas couvrir toute les applications.IA spécialisée / IA générale

Une IA spécialisée est une IA programmée pour ne répondre qu’à un seul besoin, une spécialité.
Une IA qui détermine ou non une tumeur par exemple, ne sera pas capable de créer de la musique.
Elle a un rôle, un peu comme l’expert humain.

Une IA générale serait une IA qui se rapproche vraiment de l’humain, capable de répondre à tous types de problèmes.
Cette IA n’existe pas, on ne fait aujourd’hui que des IA spécialisées.

Définitions par l’intervenant

Programmation : séparation d’une tâche en opérations élémentaires réalisables par la machine

Deep Learning : apprentissage par réseau profond, inspiré de la façon dont fonctionne le cerveau avec une notion de traitement par couches successives, chacune correspondant à un traitement plus abstrait de l’information.

 

Intervention de Jérôme DUPRÉ, Magistrat en disponibilité, co-fondateur de Caselawanalytics, société de quantification du risque juridique

Pour lui, l’Intelligence Artificielle est effectivement responsable.

Ces responsabilités sont dues à :

  • Défaut de conception
  • Défaut dans le code
  • Mauvaise utilisation

L’Intelligence Artificielle suppose par défaut qu’on lui fasse confiance, sinon elle est inutile. Mais cette confiance ne doit pas être totale : il faut une certaine éthique dans la conception des produits.

Les robots sont capables d’auto-apprentissage, on ne peut donc pas prévoir tous les comportements du robot. Or, il faut évidemment que le dommage soit prévisible.
On en retiendra que, paradoxalement, ce qui est prévisible, c’est que certains comportements seront imprévisibles.

J. Dupré parle d’une « Responsabilité solidaire sans fautes ».

 

Intervention d’Emilie MAURIN, Responsable des questions juridiques liées au digital chez AXA

« On ne peut pas faire d’assurance sans trouver un responsable, mais, dans le domaine des robots, on ne peut pas trouver un responsable« 

E. Maurin nous cite quelques exemples de robots dont la responsabilité pourrait être mise en cause :

  • Des « robots traders » ont participé à des manipulations de cours
  • Il existe des IA journalistes
  • L’arrêt « Google Suggest » met en cause la responsabilité de l’Intelligence Artificielle

En somme, nous sommes encore loin d’avoir un régime clair concernant les robots.


L’Intelligence Artificielle est-elle rationnelle ?

Le thème de la seconde table ronde portait sur la rationalité de l’intelligence artificielle, modérée par Matthieu Camus, Expert privacy, Vice-Président Internet Society France.

Les algorithmes d’intelligence artificielle répondent à de nombreuses tâches spécialisées.

Des avatars de communication permettent de tenir une conversation, comme le chatbot Cortana de Microsoft. Des algorithmes d’assistance informatique peuvent optimiser l’usage de l’ordinateur et des autres logiciels comme Kar Intelligent Computer ou Seline. D’autres algorithmes permettent d’orienter nos choix de consommation à travers le marketing prédictif par l’analyse de nos comportements, tel le moteur de marketing prédictif de Google.

De grands industriels du secteur se sont regroupés au sein du partenariat « Partnership on AI » (Microsoft, Google, Deepmind, Facebook, IBM et Amazon). Ce groupe a pour mission de porter des actions afin de prévenir tout risque de dérive dans la création de systèmes automatisés qui pourraient causer des injustices sociales. En effet, de nombreuses questions apparaissent lors de l’usage de ces algorithmes.

L’utilisateur a-t-il un champ d’action plus limité avec ces outils que sans ?

Les résultats de ces algorithmes sont-ils générés en faveur de l’utilisateur, en faveur de l’entreprise qui les a mis en place ou échappent-ils à toute supervision a priori ?

Source : cyberlex.org

 

Intervention de Marc Pic, Chief Technology Officer, Surys

Pour répondre à la question de la rationalité de l’Intelligence Artificielle, M. Pic nous expose l’exemple de la falsification d’images.

La falsification d’images

La falsification d’images est l’un des ressorts de la manipulation de masse, mais aussi de la fraude et de l’arnaque. Elle est présente un peu partout (internet, publicités…), et se démultiplie de par la facilité de produire ces images falsifiées.

Peut-on utiliser des mécanismes d’apprentissage pour reconnaître les images falsifiées ?

M. Pic nous donne l’exemple du Challenge DEFALS de la DGA pour mettre au point une technologie de reconnaissance d’images falsifiées.

Le cerveau humain est habile pour reconnaitre des incohérences, surtout s’il en a déjà été imprégné.

« Il est encore plus difficile de prouver qu’une image est vraie plutôt que de prouver qu’elle est fausse »

Il faudrait en effet éliminer toutes les possibilités de retouche.

L’apprentissage induit un changement de paradigme.
Les conséquences sont :

  • L’opacité dans le comportement qui limite ce que nous pouvons percevoir du raisonnement
  • L’évolutivité continue : l’algorithme est obligé d’apprendre et recevoir l’information de source continue pour continuer à être pertinent. Nous ne sommes donc plus dans un système de « versioning » avec une sortie de nouvelles versions régulières et datées.
  • Une sensibilité plus forte aux biais induits par les ensembles d’apprentissage

L’humain, et donc l’expert humain, présente aussi ces caractéristiques. L’expert artificiel n’est il donc pas plus proche de l’expert humain ?

Intervention de Judicaël Phan, Juriste, Critéo

J. Phan nous décrit comment est utilisée concrètement l’Intelligence Artificielle chez Critéo, afin d’affiner la création de publicités. Pour cela, il nous décrit partiellement trois types d’algorithmes impliquant de l’Intelligence Artificielle.

  • Algorithmes de prédiction
    Prédire le pourcentage de chances d’un clic sur une bannière (un achat sur un site par rapport aux sites visités, le temps de visite..)
    800 000 requêtes par seconde
    15 000 prédictions par secondes
  • Algorithme de recommandation
    Il faut proposer très rapidement (de l’ordre du fragment de seconde) le bon produit dans la bannière publicitaire
    Des centaines de critères rentrent en jeu
  • Algorithme de création
    Il s’agit de créer en 150ms une bannière publicitaire

 

Intervention de Julien Muresianu, Jalgos, AI agency

J. Muriesanu définit l’Intelligence Artificielle comme « l’ensemble des dispositifs qui permet d’imiter en remplacer la mise en oeuvre des fonctions cognitives du corps humain ».

C’est-à-dire que l’on va venir imiter ou remplacer le résultat, la mise en oeuvre de ces fonctions cognitives, mais en aucun cas ce qui se passe pour arriver à ce résultat.

J. Muriesanu pense que l’on peut aborder la rationalité de plusieurs façons.

L’IA est rigoureuse, déterministe et systématique, car elle reste un programme informatique.
Elle règle parfaitement « fidèle » aux règles données par son code.
Cette rigeur est puissante : on fait émerger des choses qu’on ne voyait pas avant.

L’IA rationalisante

L’IA peut avoir un impact sur notre façon de penser, et c’est en cela qu’elle serait rationalisante.

« Un algorithme est le reflet des règles et hypothèses conscientes ou non qui sont à la source de son développement »

Il y a une reproduction des biais humain par un algorithme car on lui donne des exemples : si dans les exemples historiques il y avait des biais, l’algorithme va donc les reproduire.
Exemple

Prenons un algorithme qui permet de dénicher les talents. On va donc vouloir faire un algorithme qui permet de déterminer un pourcentage de réussir sa carrière pour quelqu’un. On va lui donner l’historique des personnes qui ont réussi pour que l’algorithme détermine les critères  de réussite.

Or, dans l’histoire il y a eu de la discrimination, etc. Ainsi, de lui même l’algorithme va donc choisir dans ses critères plutôt des hommes, sans origine étrangère, etc.

Il va en effet se contenter de reproduire ce qu’il a appris de l’histoire qu’on lui a fournie comme connaissance. On obtient donc forcément un renforcement de ces biais.
L’objectivité de l’intelligence artificielle ne serait donc-t-elle pas atteignable ?

Intervention de François Pachet, researcher at Sony CSL

L’IA est un outil qui peut aider à développer l’imaginaire et la création

Création Musicale et IA

Flow machine : concept qui permet de créer de la musique qui va ressembler à certaines musique avec l’aide de l’IA.

L’AI/ML change le monde, y compris dans le domaine de l’art

  • Morgan, movie trailer generated by Watson (IBM)
  • Spotlight, script generated by RNN (Goodwin)
  • New Rembrandt (pastiche) generated by Microsoft AI
  • DeepDream images and audio (Google)
  • Style transfer for videos, etc.
  • Comédie musicale Beyond the fence, Covent Garden
    Tout a été fait par IA : pitch, chansons, script..

Par exemple, Hatsune Miku n°1 au Japon depuis très longtemps, mais aujourd’hui on fait de la génération.

On n’aurait pas prédit il y a deux ans que ces techniques seraient utilisées pour ce genre de choses.
On fait des progrès incroyables dans la classification, la prédiction, le tagging, ces techniques évoluent pour faire de la génération.

Du training set au modèle

Les algorithmes fabriquent des « modèles »

Modèle : c’est une généralisation des exemples qu’on lui donne. Il est donc plus général que l’ensemble des images.

Creative IA ou Computational Creativity on utilise ce modèle non pas pour classifier mais engendrer de la nouveauté.

On peut donc engendrer des objets « from scratch, autrement dit, complètement nouveaux.

Il existe aujourd’hui des problèmes de propriété et droit d’auteur. En effet, le droit européen semble parfaitement inadapté à rendre compte de cette nouvelle idée

On a des algorithmes capables de démontrer que ce qui est créé n’est pas plagiant, mais néanmoins c’est une catégorie très nouvelle : pour une musique, par exemple, qui est le compositeur ?

Degrés de créativité

Traditionnellement :
Lead sheets/partitions : Originaux > Covers > Plagiarisme
Audio : Originaux > Sampling

Exemples :

  • Michelle (ctd) beatles
  • Projet « Ode à la joie » en bossa nova présenté au parlement européen
  • « Daddy’s car » : song composed by IA in the style of the Beatles : pas d’accusation de plagiat car pas une seconde n’est un plagiat
  • Partition dans le style de Bach : on arrive à ne pas distinguer que ce n’est pas de lui, pourtant c’est complètement nouveau

Transfert sytilistique : on prend un morceau existant, et on génère avec l’IA un style adapté

Il n’y a pas de copie mais un processus de généralisation de création et d’extraction. Ce système n’est pas déterministe : on n’obtiendra jamais la même chose même si ça provient des mêmes modèles.

Avec l’IA nouveau niveau : l’inspiration

Inspiration < Plagiarisme < Covers < Originaux

Inspiration < Sampling < Originaux

Evidemment, les humains s’inspirent déjà tous : l’activité artistique elle-même consiste à s’inspirer. Mais c’est aujourd’hui en train de devenir la manière principale de créer. Il est donc urgent d’adapter la Propriété Intellectuelle et le droit d’auteur.

Selon F. Pachet, on pourrait envisager de faire des micro-rétributions : si on fait des partitions « dans le style de », par exemple, avec le blockchain de manière automatique et transparente.


 

Les conférences ont été clôturées de manière atypique, par un résumé de la journée, lui-même écrit par une Intelligence Artificielle.

 


À propos de Cyberlex

Créée en 1996, Cyberlex est une association professionnelle réunissant des juristes d’entreprise, des avocats, des professeurs de droit, des magistrats et des professionnels des nouvelles technologies. L’adhésion à Cyberlex est personnelle. Cyberlex est un lieu d’échanges où chacun s’exprime et tous débattent sur les orientations législatives, les affaires en cours et les prises de positon des différents acteurs. Cyberlex organise tous les mois des réunions à partir d’un thème, permettant d’échanger de façon informelle sur les grands (et petits) évènements de l’actualité des nouvelles technologies. De plus, les membres sont informés de la vie de l’association grâce à une liste de diffusion, qui relate des faits marquants liés aux aspects juridiques (ou non) des nouvelles technologies.

Source : cyberlex.org

 

Chloé Henaut.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *