• Audit de conformité RGPD++JuriGeek&Cie
  • Formations
    • Cours
    • Boostez vos talents du numériques
  • Blog
    find jurigeek on
    twitter
    linkedIn
    youtube
    contact@juri-geek-cie.fr
    > S'enregistrer> Connexion espace membre
    jurigeek et compagnie
    • Audit de conformité RGPD++JuriGeek&Cie
    • Formations
      • Cours
      • Boostez vos talents du numériques
    • Blog

      Intelligence artificielle

      • Accueil
      • Chronique Juri-geek
      • Intelligence artificielle
      • Pour des principes juridiques de responsabilité adaptés à l’intelligence artificielle

      Pour des principes juridiques de responsabilité adaptés à l’intelligence artificielle

      • posté par Nathalie DEVILLIER
      • Thèmes Intelligence artificielle
      • Date 14 avril 2019
      • commentaires 0 commentaire

      Le groupe d’experts de haut niveau de la Commission européenne a publié ses Lignes directrices éthiques pour une intelligence artificielle digne de confiance. Quels en sont les tenants et aboutissants ? Peuvent-elles réellement promouvoir le développement responsable d’une IA susceptible de rassurer le consommateur ?

      Le rapport confirme les craintes sur les dérives éthiques de l’IA sans réellement offrir de solution

      La Commission européenne (DG Marché intérieur) a mis en place ce groupe pour promouvoir le développement de l’IA face à ses concurrents chinois et étasunien. L’investissement de l’Union européenne de 1,5 milliard d’euros d’ici 2020 est présenté comme un véritable changement. Ce document s’accompagne d’une autre publication définissant la notion d’IA.

      Comme dans le projet du 18 décembre les 52 membres tirent de nouveau la sonnette d’alarme sur les risques d’atteinte aux droits fondamentaux avec le score social et les systèmes d’armes létales automatisées.

      En particulier, l’identification automatisée sur la base de données biométriques (micro-expressions, détection de la voix, reconnaissance faciale) pose la question de la validité du consentement à une telle surveillance ciblée ou de masse qui est sujette à caution : pour preuve, les consommateurs acceptent systématiquement les traceurs (cookies) et les conditions d’utilisation des services ou des applications mobiles sans réellement en mesurer les conséquences pratiques. Toutefois, ces craintes sont minimisées et placées au second plan derrière les impacts positifs d’ordre commercial (page 35 du document).

      Pour toute réponse, les lignes directrices articulent 3 axes : le respect du droit applicable et des réglementations (sic), l’adhésion à des valeurs et principes éthiques et la robustesse technique et sociale des systèmes d’IA.

      Les principes éthiques et valeurs sont directement issus de la Charte des Droits Fondamentaux de l’Union européenne (art.24 à 27 et 38). S’en suivent sept principes ou conditions que les systèmes d’IA devraient respecter pour renforcer cette confiance :

      • La supervision par un être humain,
      • La robustesse et la sécurité,
      • La vie privée et la gouvernance,
      • La transparence,
      • La diversité, la non-discrimination et la justice,
      • Le bien-être sociétal et environnemental,
      • L’obligation de rendre des comptes.

      Vers un label éthique de l’IA ? #OuPas

      Chaque condition est explicitée afin que les fabricants d’IA (auteurs du texte) puissent s’y conformer sur une base volontaire.

      Cet été, la Commission européenne lancera une phase pilote impliquant de nombreuses parties prenantes. Dès aujourd’hui, les entreprises, les administrations publiques et les organisations peuvent souscrire à l’Alliance européenne de l’IA et ainsi et y participer jusqu’à 2020.

      Le groupe d’expert révisera ces conditions sur la base des feedbacks obtenus, et la Commission européenne proposera des actions en conséquence.

      Cette expérimentation n’a pas pour vocation de créer de nouvelles règles éthiques, ou des normes spécifiques à l’IA, mais de simplement observer comment les entreprises peuvent appliquer ces conditions. Des mesures techniques et non-techniques sont proposées pour les mettre en œuvre : éthique et respect du droit dès la conception, méthodes d’explication, indicateurs qualitatifs, codes de conduite, certification…

      En ce qui concerne l’obligation de rendre des comptes (accountability), il est proposé de procéder à l’audit des algorithmes tout en préservant le secret des affaires, le modèle économique et les droits de propriété intellectuelle associés à la technologie. Le questionnaire d’évaluation de l’« IA de confiance » proposé serait mis en œuvre à tous les niveaux de management de la direction aux responsables de projets, en passant par les RH, le juridique et le contrôle qualité.

      Ces éléments pourraient servir d’architecture à un label de l’IA permettant de guider les consommateurs et donc de renforcer leur confiance. Encore faudrait-il que les entreprises acceptent d’être auditées par un organisme indépendant.

      Le secteur de la santé connectée (ou mobile) est justement confronté à cette problématique : l’absence de label étatique a laissé la place à des initiatives privées dépourvues de reconnaissance mutuelle au-delà du territoire national. Or, par définition, les systèmes d’IA s’affranchissent des frontières ! Cette possibilité n’a pas été envisagée par les membres de ce groupe d’experts majoritairement composé d’industriels qui ne vont pas scier la branche sur laquelle ils sont assis !

      Que fait le Groupe d’experts sur la responsabilité et les nouvelles technologies ?

      Ces lignes directrices n’indiquent pas comment l’Union européenne pourrait apaiser ces craintes bien réelles d’une IA biaisée, discriminatoire ou potentiellement létale.

      Adoptées par un groupe d’« experts », leur force juridique est inexistante. Elles n’ont aucune valeur juridique et ne peuvent initier le processus législatif qui reste une prérogative de la Commission.

      Pendant ce temps, depuis juin 2018, le Groupe d’experts sur la responsabilité et les nouvelles technologies assiste la Commission européenne (DG Justice et Consommateurs) grâce à son expertise juridique, académique, en vue de développer des principes qui serviront de base à une adaptation du droit applicable au niveau européen et des États membres.

      Dans le cadre de mes activités au sein de ce groupe d’experts, j’observe que l’éthique guide nos travaux qu’il s’agisse de véhicules autonomes, maison intelligente, robots-chirurgiens, drones… Or, l’analyse des systèmes de responsabilité existants dans les États membres révèle justement que l’absence de transparence algorithmique crée un déséquilibre significatif entre le consommateur et le fabricant (ou prestataire) de la technologie. Nos recommandations, juridiques, seront publiées en juin.

      Je présenterai ce jeudi mon rapport sur les enjeux de cyber-sécurité qui ne sont pas adressés par l’état actuel du droit positif. Un grand chantier va donc s’ouvrir, sur lequel la France a une carte à jouer pour devenir la championne de l’IA.

      Cet article a initialement été publié sur le site The Conversation.

      • Partager:
      Nathalie DEVILLIER
      Nathalie DEVILLIER

      Nathalie DEVILLIER est la fondatrice de JuriGeek& Cie.

      Docteur en droit, son expertise est recherchée par les institutions européennes et internationales.

      Elle a publié: Droit de la télémédecine et de l'e-santé (Heures de France) et Protection de la santé et de la sécurité alimentaire en droit international (Larcier).

      Post précédent

      L’intelligence artificielle va-t-elle mener l’élevage à la baguette ?
      14 avril 2019

      Post suivant

      Pourquoi les appareils à commande vocale nous enregistrent-ils ? Quels en sont les risques ?
      28 novembre 2019

      Vous pourriez aussi aimer

      robot tueur russe
      Quels principes juridiques pour les systèmes d’armes létales autonomes ?
      27 janvier, 2021
      D6h2MMIWwAAvbHL (1)
      Trois clés pour garantir une transition éthique et sûre vers les mobilités sans conducteur
      21 septembre, 2020
      file-20190412-76859-1umx6jn
      Les réseaux sociaux peuvent-ils vraiment améliorer leurs modèles ?
      22 mars, 2020

      Laisser une réponse Annuler la réponse

      Vous devez vous connecter pour publier un commentaire.

      Rechercher sur le blog

      Thèmes d’actualités

      • Biométrie (1)
      • coronavirus (2)
      • COVID-19 (2)
      • Cyber sécurité (2)
      • Données à caractère personnel (8)
      • épidémie (2)
      • éthique (2)
      • Fake News (1)
      • Intelligence artificielle (5)
      • mobilité (1)
      • Municipales 2020 (1)
      • recherche et innovation (2)
      • RGPD (8)
      • robot tueur (1)
      • Santé connectée (3)
      • télémédecine (2)
      • Travel (1)
      • uber (1)
      • union européenne (2)
      • véhicule autonome (1)

      Articles récents

      • Quels principes juridiques pour les systèmes d’armes létales autonomes ?
      • Trois clés pour garantir une transition éthique et sûre vers les mobilités sans conducteur
      • Préserver le secret des données du patient suspect ou confirmé d’infection à coronavirus COVID-19: le cas des transports sanitaires
      • Backtracking : comment concilier surveillance du Covid-19 et respect des libertés ?
      • Les réseaux sociaux peuvent-ils vraiment améliorer leurs modèles ?

      Commentaires récents

        Archives

        • janvier 2021
        • septembre 2020
        • mai 2020
        • avril 2020
        • mars 2020
        • janvier 2020
        • novembre 2019
        • avril 2019
        • février 2019
        • janvier 2019
        • novembre 2018

        Catégories

        • Biométrie
        • coronavirus
        • COVID-19
        • Cyber sécurité
        • Données à caractère personnel
        • épidémie
        • éthique
        • Fake News
        • Intelligence artificielle
        • mobilité
        • Municipales 2020
        • recherche et innovation
        • RGPD
        • robot tueur
        • Santé connectée
        • télémédecine
        • Travel
        • uber
        • union européenne
        • véhicule autonome

        Méta

        • Inscription
        • Connexion
        • Flux des publications
        • Flux des commentaires
        • Site de WordPress-FR

        Tag Cloud

        Your browser doesn't support the HTML5 CANVAS tag.

        • cnil
        • domotique
        • Internet des objets
        • vie privée
        • télémédecine
        • sécurité
        • données de santé
        • mégadonnées
        • google
        • données personnelles
        • coronavirus
        • nouvelles technologies
        • hacking
        • RGPD
        • big data
        • GAFA
        • Amazon
        • COVID-19
        • Apple
        • épidémie

        Nous joindre

        contact@juri-geek-cie.fr

        Expertise en Droit du Numérique

        • Audit de conformité RGPD++JuriGeek&Cie
        • Ressources Vidéos

        Accès rapides

        • Mon espace membre
        • Contact
        • Qui suis je ?

        Thèmes de cours

        • Santé connectée

        © 2019 Jurigeek & Cie - Tous droits réservés

        • Mentions obligatoires
        • Conditions d’Utilisation
        • Politique de Confidentialité
        • Contact
        • création eyenet
        No apps configured. Please contact your administrator.

        Connectez-vous avec votre compte sur le site

        No apps configured. Please contact your administrator.

        Mot de passe perdu?

        Pas encore membre? S'inscrire maintenant

        Enregistrer un nouveau compte

        Êtes vous membre? Connecte-toi maintenant

        En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites
        AccepterRefuser En savoir plus
        Politique de confidentialité

        Privacy Overview

        This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
        Nécessaire
        Toujours activé

        Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.

        Non nécessaire

        Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.