Chat with us, powered by LiveChat

Assurance et Transformation Technologique

IA - Robotique - Le 04/01/2019

Alors que la Commission européenne estime qu’il est aujourd’hui nécessaire de définir une série de règles, notamment en matière de responsabilité, de transparence, et d’obligation de rendre des comptes pour les acteurs de l’IA et la robotique, 220 experts en robotique et en éthique de l’Intelligence Artificielle, ont signé en avril dernier une lettre ouverte pour dissuader la Commission européenne d’attribuer une responsabilité juridique aux robots.

En effet, l’idée de la responsabilité juridique du robot est le fruit de nos peurs et fantasmes et non de la réalité de l’IA et la robotique aujourd’hui. Oui, les drones autonomes existent, ils décident du chemin entre un point A et B seuls, en évitant les obstacles et en optimisant leurs déplacements. Sont-ils complètement incontrôlés ou incontrôlables ? Certainement pas. Le même drone peut transporter une arme meurtrière ou les premiers matériels de secours dans des zones inaccessibles suite à un désastre naturel, par exemple. L’objectif est décidé par l’humain, programmé par l’humain dans la machine. Si nous devons avoir peur, ayons peur des usages que l’humain peut vouloir faire de cette technologie, pas de la technologie, elle-même. C’est aussi ridicule que d’accuser la hache d’avoir blessé le bucheron. En rejetant la responsabilité sur la machine ou la technologie, nous dédouanons l’humain responsable et cela n’est pas souhaitable.

Quand nous parlons de responsabilité des robots, de quels robots parlons-nous ?

Jusqu’à récemment, les robots étaient des automates qui répétaient le même geste de façon précise et très rapide. Ils étaient enfermés dans des cages, n’avaient aucune information sur leur environnement. La « nouvelle » robotique est un système composé de 4 voire 5 éléments:

1. Des capteurs pour capter des données de son environnement physique,

2. Un processeur et des logiciels d’analyses (IA ou simple logiciel) de ces données,

3. Un actionneur ou actuateur qui va réaliser la tâche planifiée dans le monde physique  4. Une interface Homme-Machine pour la programmation, l’amélioration, les changements de tâches, etc

5. Une connectivité pour communiquer avec d’autres systèmes (échange de données).

Aujourd’hui, grâce aux capteurs, le robot sort des cages et partage l’espace de travail et de vie avec les humains. La robotique peut donc être mise en œuvre dans de nouvelles industries, dans les services et même chez les particuliers. Nous parlons de cette nouvelle robotique qui converge avec l’IA et se connecte aux réseaux pour le partage et l’usage de données.

La problématique de la responsabilité des robots vient d’une part de ce « partage ouvert » de l’espace des robots avec les humains (un coup accidentel porté à un humain, par exemple). Pour cela des normes et standards ont été précisés sur les modalités de « coopération » avec un travail d’évaluation et de réduction des risques. La responsabilité du «robot» n’est pas engagée. Elle est portée par l’installateur ou l’intégrateur dans un fonctionnement normal, le fait du constructeur en cas de défaut de la machine et de l’usager en cas de non respect des conditions d’usages.

La question de la responsabilité devient plus « problématique »  potentiellement du fait d’une innovation qui remet l’IA sur le devant de la scène. Le Machine Learning – l’apprentissage automatique de la machine : Associé au Big Data, le Machine Learning (boucle d’auto-apprentissage de la machine) peut ne pas être supervisé (d’où la peur de perte de contrôle) ou « supervisé » (l’humain intervient dans la boucle d’apprentissage, par démonstration ou par renforcement).  Le Deep Learning, une catégorie du Machine Learning,  est la mise en œuvre de puissance de calculs et de logiciels de corrélation statistique dans une masse de données. Pour exemples, le diagnostic médical avec un logiciel de reconnaissance et d’analyse d’images et une grande quantité d’images d’IRM ; l’examen de textes de jurisprudence pour assister l’avocat dans ses recherches.

Les scientifiques s’attachent avant tout à valider la pertinence de leurs modèles et leur problématique est alors la « transparence », l’intelligibilité des résultats obtenus. Il s’agit également de « valider » les données entrantes. Si vous fournissez des données « orientées ou biaisées » aux logiciels en entrées (input), les résultats seront biaisés (Output). Nous reproduisons potentiellement les biais de notre monde actuel (racisme, mysogynie, etc). Corriger l’algorithme pour contrebalancer ou annuler les biais semble, pour autant, plus rapide, voire plus simple que de modifier notre culture…

Enfin l’automatisation de certains process via l’IA ou l’informatique tout simplement, laisse moins de place à l’entrée de données de « contexte », le grain de sable, l’imprévu, le cas particulier (là encore, perte éventuelle de contrôle). A ce jour, un robot sensible, « intelligent artificiellement », autonome et connecté n’a pas l’intelligence d’analyse contextuelle et de priorisation de l’information d’un humain. Il est incapable de résumer le sens d’un texte, par exemple.

La « protection » des usagers vient alors plus de la vérification des données entrantes et des modèles algorithmiques associés en cas d’apprentissage non supervisé et peut être d’interfaces qui permettent à l’usager de reprendre la main en cas de « doute » sur les résultats énoncés ou d’imprévus demandant un traitement spécifique. Il ne s’agit pas là d’un problème de responsabilité, mais plutôt de la mise en place de normes et standards pour de telles machines.

En ce qui concerne le Machine Learning par renforcement ou démonstration, il est possible de ne pas savoir distinguer ce qui vient du constructeur, de l’intégrateur ou de l’usager. Les professionnels de l’assurance doivent y réfléchir et faire des propositions, selon une demande de la Directive européenne supervisée par Madame Maddy Delvaux Stehres.

Un cas particulier également sur les véhicules autonomes : «Le véhicule autonome à risque zéro n’existe pas. Les députés font remarquer que des règles harmonisées sont en particulier nécessaires pour les voitures sans conducteur. Ils appellent à un système d’assurance obligatoire et à un fonds pour garantir le dédommagement total des victimes en cas d’accidents causés par ce type de voitures. »

Après Internet et le Big Data… deux grandes révolutions dans l’écosystème  de l’assurance, quelle est la place de l’assurance dans l’accompagnement de cette transformation technologique robotique et IA ?

  • Une place de performance quant aux services aux usagers (adaptation aux nouveaux besoins, réactivité, personnalisation),
  • Une place dans l’expérimentation et la mise en œuvre de ces technologies, Robotique, IA, Big Data, IoT, Blockchain, biotech, …au-delà de la dématérialisation des documents, de l’usage des données pour une meilleure connaissance des clients et l’optimisation de l’évaluation des risques. Il s’agit d’avoir une attention particulière aux usages émergents, qui vont s’imposer, et aux sinistres qui risquent de surgir afin de bâtir de nouveaux contrats d’assurances pour y répondre ;
  • Une place de pionnier dans les innovations de services liés aux métiers de l’assurance (santé, automobile, etc), qui s’inscrive dans la société de demain, dont les groupes et interactions sociales vont être transformés ;
  • Une place de facilitateur de la prise de risques des entreprises innovantes, qu’elles soient purement technologiques ou  sectorielles – énergie, santé, agriculture, agro-alimentaire…et quelles que soient leurs tailles.
  • Et une place d’acteur majeur de la transformation sociale, pour l’accompagner dans les valeurs d’innovation et de solidarité.

Catherine Simon -

Merci à nos partenaires 2024 !

SIDO

Premium Sponsors

Silver Sponsors

Gold Sponsors

Bronze Sponsors

Brokerage Event Partners

Lyon Cyber Expo

Gold Sponsors LCE

Bronze Sponsors LCE

Silver Sponsors LCE

Partenaire Impact by SIDO

Avec le soutien de