Makery

Un symposium vise la cible mouvante de l’intelligence artificielle

Cédric Villani parle d'intelligence artificielle pour l’humanité au symposium IA à Tokyo. © DWIH

A Tokyo, les 21 et 22 novembre 2018 a eu lieu le premier symposium franco-nippo-allemand sur la recherche, les applications et les enjeux de l’intelligence artificielle.

De notre correspondante à Tokyo

« C’est important de parler de l’intelligence artificielle aussi pour la dédramatiser » avance Cédric Villani, le charismatique mathématicien et politicien français, la fameuse araignée argentée épinglée à sa veste, dans sa présentation « Intelligence artificielle pour l’humanité ». « Le mot “intelligence” fait peur, contrairement à “optimisation” ou “corrélation”… C’est moins effrayant, mais c’est moins sexy aussi. »

C’est un thème récurrent de ces deux jours de discours et de discussions à l’occasion du premier symposium trilateral et multidisciplinaire sur l’intelligence artificielle (IA), organisé par le Centre allemand de recherche et d’innovation (DWIH) Tokyo en partenariat avec l’ambassade de France au Japon : Comment mettre l’IA au service des humains pour améliorer notre qualité de vie et celle de la société toute entière ?

Experts en intelligence artificielle, ainsi que chercheurs en sciences technologiques et sociales issus d’institutions japonaises, allemandes et françaises se sont réunis en novembre dernier aux Toranomon Hills de Tokyo pour essayer de déblayer ce champ d’étude aussi mal compris que polarisateur.

Junichi Tsujii de l’AIST intervient au début du symposium. © Cherise Fong

En introduction du deuxième jour, Wolfram Burgard, chef du laboratoire de recherche en systèmes IA à l’université de Fribourg, cite quelques scénarios idylliques bénéficiant de la contribution de l’intelligence artificielle : réduction d’accidents de la route, des services de santé optimisés et accessibles à tous, une agriculture durable pour nourrir toute la planète… et d’autres solutions sociétales à l’échelle mondiale. En contrepartie, Villani fait remarquer que les scénarios possibles varient de « l’extraordinairement beau à l’extraordinairement laid » : la faillite, la guerre… l’indicible.

C’est justement peut-être ce qui effraie dans le mot « intelligence ». D’où l’importance de comprendre plus précisément ce qu’est l’intelligence artificielle (même si actuellement, selon Joseph Reger, CTO de Fujitsu, on parlerait plutôt d’intelligence amplifiée).

IA cible mouvante

Daniel Andler, ancien mathématicien devenu spécialiste des sciences cognitives à l’École normale supérieure et à l’université de Paris IV, est intervenu dans la séance plénière sous l’intitulé « L’importance cruciale de comprendre l’intelligence artificielle ». Il souligne que l’IA est une cible mouvante, un projet d’ingénierie où personne n’est d’accord, ni sur sa définition, ni sur son orientation. Si l’intelligence artificielle est un ersatz de l’intelligence humaine, vaut-il mieux l’orienter vers des outils spécifiques à des tâches localisées ou la rendre plus flexible et universelle pour s’adapter à des contextes illimités ? Pour approfondir les recherches en IA, avec tous ses enjeux pragmatiques et éthiques, il serait indispensable de se former à la discipline des sciences cognitives, ainsi qu’aux sciences sociales comme la sociologie et l’anthropologie.

Villani, auteur d’un rapport sur la vision et les stratégies françaises de l’IA commissionné par le gouvernement français, réitère que, d’un point de vue scientifique, l’intelligence artificielle est un sujet en évolution constante. Depuis une décennie que la question de l’IA est devenu incontournable dans presque tous les domaines, les mathématiques ont gagné une nouvelle pertinence. Selon Villani, les algorithmes existaient déjà dans les années 1980, la différence est que maintenant l’apprentissage statistique et automatique est devenu beaucoup plus efficace.

Le mathématicien précise trois conditions nécessaires à l’efficacité de l’IA : de grandes bases de données, une grande puissance de calcul et des gens qui comprennent sa programmation. Il cite l’exemple de Google, qui aurait commencé avec les trois. Si les entreprises sont déjà motivées par la concurrence économique, l’éducation nationale devrait proposer plus de formations en IA : « Pour comprendre en profondeur les algorithmes, il faut comprendre pourquoi et quand ils convergent, savoir réduire une situation complexe à un petit nombre de paramètres. »

Problématiques et mathématiques

Andreas Dengel, du Centre allemand de recherche en intelligence artificielle, rappelle que les réseaux de neurones profonds restent une boîte noire. Par exemple, la reconnaissance d’image par l’IA est facilement trompée si on introduit stratégiquement un peu de bruit dans le visuel, si bien que le système identifie une photo de chien comme étant une autruche.

D’un point de vue technologique, selon Wolfram Burgard, président de la Société de robotique et d’automatisation de l’IEEE, « tout revient à une question de mathématiques ». D’après lui, il n’existerait qu’environ 3000 personnes au monde capables de programmer une voiture autonome. Et en terme de positionnement, ajoute-t-il, le logiciel est en avance sur le matériel.

Mais si les Etats-Unis ont les GAFA, la Chine a la big data, l’Allemagne a l’Industrie 4.0 et le Japon a la Société 5.0, quelle place existe pour la France ? En terme de géopolitique, Villani le politicien évoque aussi la fuite possible des cerveaux. En parallèle à la concurrence, on bénéficierait autant de la coopération et de la collaboration internationales. En attendant, il n’est jamais trop tôt pour communiquer sur les projets IA auxquels tout le monde peut participer, comme une approche multidisciplinaire apporte une diversité de perspectives.

Bonheur et cobotique

En revenant aux applications primaires de l’IA—optimisation et efficacité—Kazuo Yano de l’entreprise japonaise Hitachi défend la corrélation entre bonheur et productivité, telle qu’elle serait mise en évidence par les analyses de mouvement sur le temps. A savoir que : plus les gens sont intentionnellement et physiquement actifs, plus ils sont heureux, et plus ils sont productifs.

Sa présentation ouvre avec un robot qui apprend à jouer de la balançoire et progressivement à maîtriser des mouvements gymnastiques. Son apprentissage autonome par le processus d’essai et d’erreur s’avère aussi émouvant que s’il s’agissait de la réussite d’une enfant au bout d’une épreuve de sueur et de larmes. Dans l’absence de règles, seul le résultat compte. « L’ultime objectif de l’apprentissage, conclut Yano, c’est le bonheur. »

« Tapisseries de vie » de quatre personnes dont le mouvement a été enregistré au cours d’une année (capture d’écran). © Hitachi

Mais qu’en est-il de la « Singularité », ce scénario où l’intelligence des machines fusionne avec, voire dépasse, l’intelligence humaine ? Dans la séance plénière sur le thème du nouvel environnement de travail avec IA, les interventions évoquent moins la convergence que la coexistence pacifique et la collaboration « symbiotique » entre les humains et la technologie qui les sert.

Matthias Peissner, de l’Institut Fraunhofer pour l’ingénierie industrielle IAO, insiste que le travail est une question de participation sociale. En citant la théorie de l’auto-détermination, ou la motivation humaine, il souligne l’importance de conserver les sentiments humains de compétence, d’autonomie et de relations interpersonnelles, en faisant apprendre et évoluer ensemble, en symbiose, les gens et les machines (cobotique).

Villes intelligentes, inclusives, durables

D’un point de vue social, on parle souvent d’IA dans le contexte de la 4ème révolution industrielle, où l’optimisation de la productivité et de la mobilité urbaine dans l’Internet des objets est facilement réduite à la tendance de la « smart city ».

Et pourtant, remarque Yuichiro Anzai, président de la Japan Society for the Promotion of Science, cet emploi du mot « smart » évoque davantage la science-fiction des années 1960 et 1970. Selon lui, la ville intelligente d’aujourd’hui et de demain ne serait pas forcément définie par l’automatisation totale, mais désignerait plutôt une ville durable et inclusive.

L’inclusivité, notion bien noble qui aurait été plus convaincante si appliquée en amont… Ne serait-ce que pour la parité femme-homme, lorsqu’Anzai affiche fièrement le groupe de direction de l’innovation stratégique du gouvernement japonais : 12 sur 12 directeurs sont du sexe masculin. Statistique regrettable que l’on retrouve dans l’organisation de ce symposium, où 12 sur 12 des experts en IA invités à intervenir sur la grande scène, y compris les deux modérateurs, sont des hommes.

Les 12 directeurs du programme d’innovation stratégique du gouvernement japonais (capture d’écran). © DR

Si dans les pays en voie de développement l’intelligence artificielle est plus orientée vers l’accessibilité au plus grand nombre (comme dans le cas des soins médicaux), dans les pays plus riches, les notions de l’analyse IA de la big data, de surcroît associée à la ville intelligente, se heurtent rapidement aux problèmes de sécurité et de vie privée.

Lors de la séance d’après-midi dédiée à la smart city, un participant anthropologue fait remarquer que la définition de « smart » varie entre les présentations : comment mesurer l’« intelligence » d’une ville ?

La réponse de la modératrice Amélie Cordier, Chief Scientific Officer de Hoomano et fondatrice du collectif LYON-iS-Ai : « par son impact sur le climat ». Hideaki Takagi, du bureau d’affaires économiques de la ville de Yokohama, ajoute à la qualité écologique d’une ville intelligente la qualité de vie de ses résidents : l’inclusion de multiples styles de vie, l’accession au bonheur individuel. Ce qu’il faut mettre en valeur dans la ville intelligente, dit-il, c’est justement une valeur claire pour tous ses citoyens. Par exemple, l’absence de crime… mais au prix de la vie privée ?

Ethique et émotion

D’un point de vue presque philosophique, une des séances parallèles discute des aspects éthiques et légaux de l’IA. Selon Arisa Ema, chercheuse en politiques alternatives à l’université de Tokyo, l’intelligence artificielle est un miroir de notre société ; les chercheurs en IA ont une responsabilité sociale à assurer la bonne conduite éthique et sans préjugés des algorithmes et des bots. « C’est une investigation conceptuelle, dit-elle, qui bénéficierait particulièrement de la coopération internationale et interdisciplinaire. »

Déjà en 2017 et 2018, la Société japonaise pour l’intelligence artificielle a élaboré lors d’une conférence des directives éthiques pour la recherche et développement et les principes d’utilisation de l’IA. On y retrouve la collaboration, la transparence, la sécurité, la qualité des données, le respect de la vie privée, mais aussi la responsabilité sociale, la dignité humaine et la contribution à l’humanité.

Akemi Yokota, professeur en sciences sociales à l’université de Chiba, parle des directives éthiques pour l’intelligence artificielle. © DWIH

La question éthique se complique lorsqu’on considère le statut légal des agents dotés d’intelligence artificielle. Lorsque les machines intelligentes sont devenues également émotives et autonomes, peuvent-elles effectivement être considérées comme des personnes à part entière ?

Laurence Devilliers, chercheuse en IA à la Sorbonne et au CNRS, montre plusieurs exemples de l’informatique affective chez les robots, en citant la roue de Plutchik qui permet de catégoriser les principales émotions humaines. Mais des robots comme Nao, qui est capable d’analyser les émotions dans la voix humaine, ainsi que d’autres chatbots et emobots désincarnés, ne donnent que l’illusion d’intelligence humaine, rappelle-t-elle.

Même un robot glorifié à travers le monde comme Sophia recrache des dialogues scriptés en avance avec des expressions de visage mimétiques pour séduire les masses ; c’est une marionnette bien dressée sur laquelle on projette nos fantasmes. Devilliers déplore la désinformation autour de l’IA, en faisant remarquer en passant que la vaste majorité des robots « émotifs » ont des corps de femme, et sont conçus par des hommes. « L’empathie est impossible chez les robots, conclut-elle, ils ne possèdent aucune intelligence émotionnelle. »

Le robot humanoïde Sophia filmé par «Elle» Brésil (capture écran). © DR

Christoph von des Malsburg, de l’Institut de Francfort pour les études avancées, n’est pas d’accord avec ce constat. D’un point de vue comportemental, affirme-t-il, les machines du futur auront bien des émotions. On initialiserait l’IA avec un répertoire comportemental, de façon à infuser la machine avec la capacité mentale d’une enfant de 3 ans, par exemple. Ensuite, il serait question de limiter le champ de comportement et de définir un code éthique.

Jan-Erik Schirmer, chercheur à l’université Humboldt de Berlin et auteur d’une étude sur l’IA et personnalité légale, propose de considérer les agents artificiels non pas en fonction de leur capacité ou de leur comportement, mais de la perspective des sciences sociales. Si Sophia est de facto une citoyenne saoudienne et Paro le robot-phoque original est inscrit comme membre du registre familial de son créateur japonais, les nouveaux agents mériteraient un statut à part, de façon à éviter le piège moral de les humaniser face à la loi.

Schirmer introduit le terme allemand de Teilrechtsfähigkeit, ou capacité légale partielle, qui désigne un statut particulier entre objet et sujet. Cette solution « bauhaus », où la forme suit la fonction, consisterait à reconstruire une version limitée du statut de sujet selon les besoins de la situation (comme le statut d’un bébé avant sa naissance). Reste à voir si cette stratégie légale pragmatique saura évoluer à la vitesse de sa cible mouvante…

Plus d’informations sur le symposium IA organisé par DWIH