find jurigeek on
twitter
linkedIn
contact@juri-geek-cie.fr
> S'enregistrer> Connexion espace membre

Tag Cloud

Your browser doesn't support the HTML5 CANVAS tag.

  • Apple
  • Internet des objets
  • Amazon
  • nouvelles technologies
  • domotique
  • télémédecine
  • mégadonnées
  • coronavirus
  • sécurité
  • COVID-19
  • hacking
  • GAFA
  • épidémie
  • cnil
  • vie privée
  • big data
  • RGPD
  • google
  • données personnelles
  • données de santé
jurigeek et compagniejurigeek et compagnie
  • Expertise en Droit du Numérique
  • Chronique Juri-Geek
  • Formations
    • SPOC : qu’est ce que c’est ?
  • Qui suis je ?
  • Mon espace membre

    Intelligence artificielle

    • Accueil
    • Chronique Juri-geek
    • Intelligence artificielle
    • Pour des principes juridiques de responsabilité adaptés à l’intelligence artificielle

    Pour des principes juridiques de responsabilité adaptés à l’intelligence artificielle

    • posté par Nathalie DEVILLIER
    • Thèmes Intelligence artificielle
    • Date 14 avril 2019
    • commentaires 0 commentaire

    Le groupe d’experts de haut niveau de la Commission européenne a publié ses Lignes directrices éthiques pour une intelligence artificielle digne de confiance. Quels en sont les tenants et aboutissants ? Peuvent-elles réellement promouvoir le développement responsable d’une IA susceptible de rassurer le consommateur ?

    Le rapport confirme les craintes sur les dérives éthiques de l’IA sans réellement offrir de solution

    La Commission européenne (DG Marché intérieur) a mis en place ce groupe pour promouvoir le développement de l’IA face à ses concurrents chinois et étasunien. L’investissement de l’Union européenne de 1,5 milliard d’euros d’ici 2020 est présenté comme un véritable changement. Ce document s’accompagne d’une autre publication définissant la notion d’IA.

    Comme dans le projet du 18 décembre les 52 membres tirent de nouveau la sonnette d’alarme sur les risques d’atteinte aux droits fondamentaux avec le score social et les systèmes d’armes létales automatisées.

    En particulier, l’identification automatisée sur la base de données biométriques (micro-expressions, détection de la voix, reconnaissance faciale) pose la question de la validité du consentement à une telle surveillance ciblée ou de masse qui est sujette à caution : pour preuve, les consommateurs acceptent systématiquement les traceurs (cookies) et les conditions d’utilisation des services ou des applications mobiles sans réellement en mesurer les conséquences pratiques. Toutefois, ces craintes sont minimisées et placées au second plan derrière les impacts positifs d’ordre commercial (page 35 du document).

    Pour toute réponse, les lignes directrices articulent 3 axes : le respect du droit applicable et des réglementations (sic), l’adhésion à des valeurs et principes éthiques et la robustesse technique et sociale des systèmes d’IA.

    Les principes éthiques et valeurs sont directement issus de la Charte des Droits Fondamentaux de l’Union européenne (art.24 à 27 et 38). S’en suivent sept principes ou conditions que les systèmes d’IA devraient respecter pour renforcer cette confiance :

    • La supervision par un être humain,
    • La robustesse et la sécurité,
    • La vie privée et la gouvernance,
    • La transparence,
    • La diversité, la non-discrimination et la justice,
    • Le bien-être sociétal et environnemental,
    • L’obligation de rendre des comptes.

    Vers un label éthique de l’IA ? #OuPas

    Chaque condition est explicitée afin que les fabricants d’IA (auteurs du texte) puissent s’y conformer sur une base volontaire.

    Cet été, la Commission européenne lancera une phase pilote impliquant de nombreuses parties prenantes. Dès aujourd’hui, les entreprises, les administrations publiques et les organisations peuvent souscrire à l’Alliance européenne de l’IA et ainsi et y participer jusqu’à 2020.

    Le groupe d’expert révisera ces conditions sur la base des feedbacks obtenus, et la Commission européenne proposera des actions en conséquence.

    Cette expérimentation n’a pas pour vocation de créer de nouvelles règles éthiques, ou des normes spécifiques à l’IA, mais de simplement observer comment les entreprises peuvent appliquer ces conditions. Des mesures techniques et non-techniques sont proposées pour les mettre en œuvre : éthique et respect du droit dès la conception, méthodes d’explication, indicateurs qualitatifs, codes de conduite, certification…

    En ce qui concerne l’obligation de rendre des comptes (accountability), il est proposé de procéder à l’audit des algorithmes tout en préservant le secret des affaires, le modèle économique et les droits de propriété intellectuelle associés à la technologie. Le questionnaire d’évaluation de l’« IA de confiance » proposé serait mis en œuvre à tous les niveaux de management de la direction aux responsables de projets, en passant par les RH, le juridique et le contrôle qualité.

    Ces éléments pourraient servir d’architecture à un label de l’IA permettant de guider les consommateurs et donc de renforcer leur confiance. Encore faudrait-il que les entreprises acceptent d’être auditées par un organisme indépendant.

    Le secteur de la santé connectée (ou mobile) est justement confronté à cette problématique : l’absence de label étatique a laissé la place à des initiatives privées dépourvues de reconnaissance mutuelle au-delà du territoire national. Or, par définition, les systèmes d’IA s’affranchissent des frontières ! Cette possibilité n’a pas été envisagée par les membres de ce groupe d’experts majoritairement composé d’industriels qui ne vont pas scier la branche sur laquelle ils sont assis !

    Que fait le Groupe d’experts sur la responsabilité et les nouvelles technologies ?

    Ces lignes directrices n’indiquent pas comment l’Union européenne pourrait apaiser ces craintes bien réelles d’une IA biaisée, discriminatoire ou potentiellement létale.

    Adoptées par un groupe d’« experts », leur force juridique est inexistante. Elles n’ont aucune valeur juridique et ne peuvent initier le processus législatif qui reste une prérogative de la Commission.

    Pendant ce temps, depuis juin 2018, le Groupe d’experts sur la responsabilité et les nouvelles technologies assiste la Commission européenne (DG Justice et Consommateurs) grâce à son expertise juridique, académique, en vue de développer des principes qui serviront de base à une adaptation du droit applicable au niveau européen et des États membres.

    Dans le cadre de mes activités au sein de ce groupe d’experts, j’observe que l’éthique guide nos travaux qu’il s’agisse de véhicules autonomes, maison intelligente, robots-chirurgiens, drones… Or, l’analyse des systèmes de responsabilité existants dans les États membres révèle justement que l’absence de transparence algorithmique crée un déséquilibre significatif entre le consommateur et le fabricant (ou prestataire) de la technologie. Nos recommandations, juridiques, seront publiées en juin.

    Je présenterai ce jeudi mon rapport sur les enjeux de cyber-sécurité qui ne sont pas adressés par l’état actuel du droit positif. Un grand chantier va donc s’ouvrir, sur lequel la France a une carte à jouer pour devenir la championne de l’IA.

    Cet article a initialement été publié sur le site The Conversation.

    • Partager:
    Nathalie DEVILLIER
    Nathalie DEVILLIER
    Nathalie DEVILLIER est la fondatrice de JuriGeek& Cie. Docteur en droit, elle appartient au Groupe d'Experts de la Commission européenne sur la Responsabilité et les Nouvelles Technologies. Son expertise est recherchée par les médias et institutions européennes et internationales.

    Post précédent

    L’intelligence artificielle va-t-elle mener l’élevage à la baguette ?
    14 avril 2019

    Post suivant

    Pourquoi les appareils à commande vocale nous enregistrent-ils ? Quels en sont les risques ?
    28 novembre 2019

    Vous pourriez aussi aimer

    D6h2MMIWwAAvbHL (1)
    Trois clés pour garantir une transition éthique et sûre vers les mobilités sans conducteur
    21 septembre, 2020
    file-20190412-76859-1umx6jn
    Les réseaux sociaux peuvent-ils vraiment améliorer leurs modèles ?
    22 mars, 2020
    file-20190218-56243-s9yw8r
    L’intelligence artificielle va-t-elle mener l’élevage à la baguette ?
    22 février, 2019

    Laisser une réponse Annuler la réponse

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

    Rechercher sur le blog

    Thèmes d’actualités

    • Biométrie (1)
    • coronavirus (2)
    • COVID-19 (2)
    • Cyber sécurité (1)
    • Données à caractère personnel (7)
    • épidémie (2)
    • éthique (1)
    • Fake News (1)
    • Intelligence artificielle (4)
    • mobilité (1)
    • Municipales 2020 (1)
    • recherche et innovation (1)
    • RGPD (7)
    • Santé connectée (3)
    • télémédecine (2)
    • Travel (1)
    • uber (1)
    • union européenne (1)
    • véhicule autonome (1)

    Articles récents

    • Trois clés pour garantir une transition éthique et sûre vers les mobilités sans conducteur
    • Préserver le secret des données du patient suspect ou confirmé d’infection à coronavirus COVID-19: le cas des transports sanitaires
    • Backtracking : comment concilier surveillance du Covid-19 et respect des libertés ?
    • Les réseaux sociaux peuvent-ils vraiment améliorer leurs modèles ?
    • Obtenir un arrêt de travail en un clic?

    Commentaires récents

      Archives

      • septembre 2020
      • mai 2020
      • avril 2020
      • mars 2020
      • janvier 2020
      • novembre 2019
      • avril 2019
      • février 2019
      • janvier 2019
      • novembre 2018

      Catégories

      • Biométrie
      • coronavirus
      • COVID-19
      • Cyber sécurité
      • Données à caractère personnel
      • épidémie
      • éthique
      • Fake News
      • Intelligence artificielle
      • mobilité
      • Municipales 2020
      • recherche et innovation
      • RGPD
      • Santé connectée
      • télémédecine
      • Travel
      • uber
      • union européenne
      • véhicule autonome

      Méta

      • Inscription
      • Connexion
      • Flux des publications
      • Flux des commentaires
      • Site de WordPress-FR

      Tag Cloud

      Your browser doesn't support the HTML5 CANVAS tag.

      • google
      • cnil
      • télémédecine
      • Apple
      • RGPD
      • mégadonnées
      • données de santé
      • domotique
      • coronavirus
      • GAFA
      • hacking
      • COVID-19
      • Internet des objets
      • données personnelles
      • Amazon
      • épidémie
      • big data
      • vie privée
      • sécurité
      • nouvelles technologies

      Nous joindre

      contact@juri-geek-cie.fr

      Expertise en Droit du Numérique

      • Intelligence Artificielle
      • e-Santé Télémédecine
      • Audit CGU/CGV

      Accès rapides

      • Qui suis je ?
      • Contact
      • Mon espace membre

      Thèmes de cours

      • Données personnelles
      • Santé connectée
      • Cyber sécurité

      © 2019 Jurigeek & Cie - Tous droits réservés

      • Mentions obligatoires
      • Conditions d’Utilisation
      • Politique de Confidentialité
      • Contact
      • création eyenet
      No apps configured. Please contact your administrator.

      Connectez-vous avec votre compte sur le site

      No apps configured. Please contact your administrator.

      Mot de passe perdu?

      Pas encore membre? S'inscrire maintenant

      Enregistrer un nouveau compte

      Êtes vous membre? Connecte-toi maintenant

      En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites
      AccepterRefuser En savoir plus
      Politique de confidentialité

      Privacy Overview

      This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
      Nécessaire
      Toujours activé

      Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.

      Non nécessaire

      Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.