Il est venu les temps des … algorithmes

En début d’année tandis que je prenais mon temps à réfléchir au sujet initial du travail que je comptais vous présenter : le temps (pas celui qu’il fait mais celui qui passe inexorablement et qui nous manque parfois voire tout le…temps), j’ai eu mon regard attiré par le titre suivant « les algorithmes ne limitent pas notre liberté de choix, ils l’augmentent » puis quelques jours après un article vantait la prouesse de l’unité de recherche Google Brain qui a réussi à deviner et proposer des visages, très proches de la réalité, à partir de contenu à très basse définition. Quelques semaines auparavant, je me souvenais d’avoir téléchargé et lu un article web (bien entendu : nous sommes au 21eme siècle) intitulé « Japon : l’intelligence artificielle remplace 34 salariés d’un assureur ». En septembre 2016, un article issu des revues publiées par l’éditeur « Techniques de l’ingénieur » posait la question suivante «Google Deepmind » l’intelligence humaine est-elle déjà dépassée ? ».

Le fait que dans une temporalité relativement courte, ces articles à sensation, si l’on est critique et inquiet, ou sensationnels si l’on est sciento/technophile béat me soient parvenus est l’exemple même de ce que l’on nomme « synchronicité ». Cela m’a incité à m’interroger un peu plus à la notion d’algorithmes afin de vous parler, de partager avec vous pour in fine avancer dans notre compréhension collective du monde actuel et futur. J’ai compris qu’en fait que cette synchronicité n’avait sans doute rien de fortuit, qu’elle ne relevait pas d’un hasard total mais était sans nul doute le résultat d’un algorithme à l’œuvre à mon insu.

Afin de structurer mon apprentissage et ma réflexion, je me suis appuyé essentiellement sur les 2 ouvrages suivants :
[SAGD] « Le temps des algorithmes » de Serge Abiteboul et Gilles Dowek (Professeurs à L’Ecole Normale Supérieure de Paris-Saclay et Chercheurs à l’INRIA : Institut National de Recherche en Informatique et Automatique)
[DC] « A quoi rêvent les algorithmes -Nos vie à l’heure des big data » de Dominique Cardon, Sociologue au laboratoire des usages d’Orange Labs et Professeur associé à l’Université de Marne-la-Vallée

Et bien entendu sur les articles, cités au début de mon introduction, généreusement suggérés, mis à disposition, imposés par le nouveau maître du monde : Internet
A dire vrai, j’ai entendu parler de la 1ere référence « le temps des algorithmes » un matin brumeux à la radio, et automatiquement s’est imposé à mon esprit défendant le refrain de la chanson « il est venu le temps des cathédrales ; le monde est entré dans un nouveau millénaire » donc quelle ne fut pas ma surprise de lire dès la 1ere page « certains algorithmes …sont des objets gigantesques auxquels des milliers de personnes contribuent. Ils sont parfois comparés à des cathédrales ». Je le tenais donc mon titre « Il est venu les temps des …algorithmes ».

Dans notre nouveau siècle, les algorithmes sont devenus incontournables tant d’un point de vue professionnel que dans la vie sociale quotidienne. Ils inquiètent parfois, et génèrent souvent des peurs fantasmatiques car utilisés souvent en ignorant ou plutôt en ne voulant pas savoir (le fameux « ce que je veux c’est que ça fonctionne mais je me fous de savoir comment »). Or il est plus que nécessaire et urgent de lutter contre cette ignorance, volontaire ou subie, et s’intéresser aux mécanismes en œuvre afin de ne pas finir broyés par la machine.

Compte tenu des titres des articles que je vous ai cités en introduction, cette visite de cette cathédrale (Notre-Dame de Paris bien évidemment si l’on en croit la chanson), cathédrale je disais donc des algorithmes nous conduira à nous interroger sur des questions sociétales cruciales telles la fin du salariat, la transformation du travail, la disparition de la propriété (« Proudhon sors de ce corps !! » dirait un anarchiste bien connu de nous)

Non ! Les algorithmes ne sont pas une invention moderne : ils ont toujours existé. Notre ancêtre boulanger ne tâtonnait pas à chaque fois pour faire son pain : il suivait vraisemblablement la recette –ingrédients, dosage, temps de cuisson- de sa grand-mère. Cette recette est un algorithme qui n’est donc qu’un « procédé permettant de résoudre un problème sans réinventer à chaque fois une solution » : depuis la nuit des temps l’Homme se perpétue et évolue en transmettant aux générations suivantes des …algorithmes. Certains cassandres peuvent arguer que depuis l’ère moderne l’Homme a plutôt tendance à transmettre des problèmes et non des solutions aux générations à venir.

Au-delà de cet exemple bien concret, certains algorithmes traitent des problèmes sur des données telles des lettres, des chiffres bref des symboles écrits comme chercher un mot dans une liste, faire des additions, des multiplications, etc. ce sont des algorithmes symboliques. Les mathématiciens se sont depuis longtemps intéressés à imaginer, concevoir de tels types d’algorithmes tels Euclide (300 av. JC) et Muhammad Musa al-Khuwarizmi, mathématicien perse originaire de l’actuel Ouzbèkistan auteur du « livre de l’addition et de la soustraction d’après le calcul indien ». Son nom Al-Khuwarizmi donna le mot « algorithme ».

Décrire un algorithme dépend de son interlocuteur et de ses connaissances : par exemple un itinéraire Mappy qui est finalement un algorithme permettant à l’apprenti voyageur de se rendre d’un point précis à un autre, se décrit sous forme d’un tracé sur une carte ou d’une succession de consignes textes comme aller tout droit pendant 2 km puis tourner à gauche etc. nous avons donc affaire à un objet social. A la différence de l’animal (ex. des fourmis page 15 de la réf1), l’homme cherche à verbaliser, comprendre pour améliorer pour transmettre.

Un point extrêmement important : les algorithmes sont très sensibles, dépendants à la représentation choisie pour les données. Par exemple, il est plus facile d’effectuer des opérations (additions, multiplications,..) sur des chiffres indo-arabes (les nôtres) qu’avec des chiffres romains. Et c’est encore plus facile avec des représentations avec des 0 et des 1.

Alors si les algorithmes ont toujours existé : quoi de neuf Docteur depuis 5000 ans? D’où nous vient cette impression réelle de vivre depuis plusieurs années un grand changement voire bouleversement ? La réponse est simple : c’est dû à l’avènement de l’ordinateur qui a rendu possible l’utilisation de tout un certain nombre d’algorithme inapplicable par un être humain en raison du nombre trop importants de possibilités, de chemins à parcourir (ce que l’on appelle « l’explosion combinatoire ») afin d’aboutir à La Solution.

Il existe plusieurs types de méthodes algorithmiques : « diviser pour régner », « énumération de test », « de résolution gloutonne ». Certains algorithmes comme le Monte Carlo utilisent le hasard (tirage aléatoire). Attardons nous sur celui de l’apprentissage automatique car c’est celui qui est promis à un bel avenir grâce à la super puissance des ordinateurs et l’évènement du big data. Je disais donc qu’un algorithme peut apprendre au fur et à mesure de son utilisation et ainsi s’améliorer. Nous avons tous remarqué que les plateformes d’achats en ligne nous proposent des articles connexes à celui que l’on vient juste d’acheter par exemple le dernier CD de Sting ou une nouvelle interprétation de l’Orfeu de Monteverdi. Cela m’est arrivé récemment même chez un disquaire à Boston dont le ticket m’assurait que comme j’avais acheté la BO de LaLa Land alors j’aimerais probablement, sûrement tel autre CD : j’ai jeté le ticket et oublié le conseil… peut-être à tort ne puis-je m’empêcher de penser depuis. L’algorithme n’a pas d’expertise spécifique en musique, il se contente d’observer les choix d’utilisateurs ayant acheté une même référence et compare les références connexes ayant été acquises par ces mêmes utilisateurs : il apprend ainsi des comportements et des choix d’autrui tel un …enfant finalement. Cet exemple est facile mais certains apprentissages sont autrement plus complexes tels la reconnaissance d’objets ou d’animaux sur une photo : sont employées alors des méthodes dites d’apprentissage profond (deep learming) qui consistent par exemple à commencer par reconnaitre des formes de base (ligne droite, courbes, pattes, pieds…) dans une image puis de reconstituer ainsi le sujet intégral.

Redisons-le : c’est l’avènement des ordinateurs « ces machines à exécuter les algorithmes » avec l’apparition de la science informatique qui est à l’origine de ce grand bouleversement à présent à l’œuvre. Désormais toute information contenue, circulant dans notre monde est numérisable c’est-à-dire représentable par une écriture symbolique composée de 0 et 1.

Désormais, la notion d’algorithme devient plus globale et peut regrouper presqu’indistinctement les notions d’algorithme, d’ordinateurs et à laquelle j’ajouterai celles des capteurs « numériques » qui par leur multiplicité voire leur ubiquité ont pour objectif de rendre le monde « mesurable en tout » comme le souligne le sociologue Dominique Cardon. Le « en tout » englobe nos connaissances, nos photos, nos vidéos, nos mails, nos comportements, nos discours, nos conversations, nos achats, nos données de santé (e.g la famous application « suivi » de notre cher Iphone) y compris notre sommeil : Internet lui ne dort jamais et les capteurs non plus. L’ambition est de chiffrer le monde afin de le rendre calculable et… donc gouvernable à travers l’établissement et l’utilisation des fameux indicateurs.

Vous le savez, vous l’avez compris : les algorithmes ainsi peuvent servir à tout (certains d’entre vous ajoutent mentalement en ce moment « et à n’importe quoi »), la réf.1 liste les usages suivants :
– ils calculent, gèrent de l’information : en l’archivant elle voyage ainsi dans le temps,
– en la communiquant elle voyage dans l’espace en quasi simultanéité (Einstein exerce une veille toute relative…),
– ils explorent l’espace (et le temps donc) des possibles,
– ils analysent les données (revoilou le big data), ils traitent le signal (en lien avec nos désormais fameux capteurs, en passant du signal analogique à un signal digital il permette de corriger les défauts de captation e.g les appareils photos numériques, les studios de musique ont permis l’accès d’une qualité quasi-professionnelle à nombre d’amateurs plus ou moins éclairés.),
– Ils pilotent/commandent le comportement d’objets (e.g le drone de F. Fillon mais pas uniquement)
– Ils fabriquent (et c’est un nouveau challenge sociétal à mon avis) des biens : les usines se vident inexorablement
– Ils modélisent et simulent : et cela c’est mon métier (en partie). Je peux vous parler non pas savamment mais plutôt avec enthousiasme de la mise en équations (de plus en plus nombreuses) et dont le nouveau challenge est plutôt de rechercher grâce à l’ordinateur de nouveaux réglages de la théorie plutôt que de la remettre en cause comme par le passé…ceci est un constat et pas forcément une critique.

Mais alors est-ce « NO LIMIT » ?

C’est là que la Nature, l’œuvre de Dieu oups je m’égare ! Plutôt celle du Grand Architecte vient mettre une limite à cette toute puissance annoncée et redoutées des algorithmes : Nombre de mathématiciens au 20ieme siècle ont montré/démontré que les problèmes se divisent en 2 classes : les calculables/décidables » d’une part et les « incalculables/indécidables » d’autre part : pour ces derniers une armée de programmateurs décidés ne réussiraient pas (e.g lire les pages 47 et 48 de la Réf.1). Un problème peut être donc être incalculable par nature ou par limitation du temps de calcul, la taille mémoire non disponible. La fiabilité est également un obstacle bien que force est de constater que malgré nous, nous sommes plus exigeants avec les systèmes informatiques qu’avec les humains expérimentés : ce sont les procédures de vérification qui sont en première ligne mais elles nécessitent un surcoût important ainsi c’est l’utilisation finale qui fixe le niveau du coût admissible. La sécurité vis-à-vis d’attaques malveillantes constitue une limite également cf. les élections américaines de 2016, le wikileaks sans préjuger du bien-fondé et la légitimité de l’attaque…et pour finir, l’humain et l’algorithmique sont 2 mondes in fine bien séparés, même si de moins en moins dissociables, pour lesquels l’interface et donc le dialogue ne doivent pas créer des ambiguïtés et incompréhensions (cf le fameux vol AF446 Rio Paris).

Vers une pensée informatique

Je viens de dire que les mondes humains et algorithmiques (pour ne pas dire « numérique » ou « digital ») sont 2 mondes séparés donc 2 mondes à part entière, cela induit immédiatement la question suivante « existe-t-il une pensée informatique ? ». Revenons à l’article sur Google Deepmind : en 1997, l’IBM DeepBlue a battu Gary Kasparov champion du monde d’échecs en titre depuis 19 ans. 20 ans plus tard, le Google Deepmind (programme d’Intelligence Artificielle) a vaincu le champion d’Europe professionnel de Go, Fan Hui grâce à son programme AlphaGo (le champion a été dominé sur les 5 manches) il devance ainsi le projet concurrent Darkforest de Facebook. Ce sont les techniques d’apprentissage par réseaux de neurones qui ont permis ce résultat. Avis aux amateurs : AplhaGo affrontera ce mois de mars le champion du monde le coréen Lee Sedol !! (cf l’article de Etienne Monin dans les Techniques de l’Ingénieur – à lire éventuellement). Les programmes lancés par Google sont vertigineux (réseau d’un million de neurones avec 1 milliard de connexions répartis sur 1000 ordinateurs) : reconnaissance d’images, jeux de poker, de breakout (jeu de renvoi de balle pour casser des briques : après 300 parties l’algorithme gagne à tous les coups).

Les ambitions sont élevées : réaliser un système d’IA généralisé capable de transmettre à d’autres tâches des apprentissages établis dans des environnements préalables : ainsi les machines se souviendront et seront sans doute doté d’une conscience (j’extrapole rapidement et sans précaution) : Hawking Stephen, Musk Elon et Gates Bill lui-même sont très méfiants quant à une IA supérieure à celle de l’Humain même si cette situation ne relève actuellement que du domaine de la science-fiction e.g Matrix, I. Robot, AI.I, Blade Runner…

Cependant avant cet avènement redouté, nous constatons que dès à présent l’informatique a modifié notre manière de penser et de résoudre les situations : nous pensons algorithmiquement, essayant tout d’abord de définir le bon niveau d’abstraction pour résoudre un problème nouveau, nous pensons programmation. Nous nous éloignons de l’agilité manuelle.

Une nouvelle organisation de la société :
Un constat (cf. [SAGD]): nous achetons 6 millions de taille-crayons par an alors que 753 taille-crayons « communautaires » suffiraient (1 taille-crayon ne nous sert que quelques minutes par an). Un raisonnement semblable est applicable aux voitures. Cependant pour les 2, la communautarisation entraine des coûts additionnels (coût du déplacement pour accéder au bien en question) qu’il vaut mieux en posséder 1.

C’est là que les algorithmes gérant les échanges d’information entre personnes ne se connaissant pas forcément permettent de partager ce bien : les exemples sont multiples mais citons AUtoLib, Vlib, BlablaCar, etc. car les coûts additionnels qui dans ce cas sont dus aux échanges d’information, baissent forcément quand ceux-ci sont gérés par des algorithmes.

En élargissant, voir exagérant le propos, on peut imaginer que ce sera ainsi la fin du salariat car nul besoin pour une entreprise de salarier une compétence qu’elle sait pouvoir mobiliser et utiliser seulement quand nécessaire et ce, grâce à un traitement de l’information rapide et efficace. Force cependant est de constater que les nouveaux indépendants regrettent significativement voire majoritairement leurs statuts de salariés. La cause principale en est l’accroissement de l’incertitude et également la fragmentation de la force revendicative aggravée par la mondialisation (disparités géographiques du salariat indépendant). Le cas de Uber que vous connaissez tous parfaitement bien en est un exemple cruel et actuel. La vraie question est pour ces chauffeurs dits indépendants comment retrouver des droits et des incertitudes équivalents à ceux d’un statut de salarié ? Pour cela, les algorithmes pourraient gérer des mécanismes de limitations du risque complexes et innovants (tels le reversement de fragment de prix de l’utilisation à chaque course, gérer des organisations d’indépendants en en coopérative comme cela émerge actuellement : un constat « l’individu seul face à lui-même est fragile : il a besoin du groupe pour se projeter dans l’avenir » !

En poussant l’argumentation un peu plus avant, le travail pourrait lui-même disparaitre : un exemple très récent objet d’un des articles dont je vous parlais en introduction et que je reproduis ci-après in extenso :
Une compagnie d’assurance a décidé d’utiliser un système d’intelligence artificielle afin de traiter les remboursements médicaux de ses clients.
Il n’y a pas que l’industrie qui se « robotise ». Au Japon, une compagnie d’assurance-vie a décidé de s’octroyer les services d’un système d’intelligence artificielle pour traiter les remboursements médicaux de leurs clients. L’entreprise, comme le rapporte le quotidien japonais The Mainichi, va ainsi licencier 25 % des employés du service des paiements, soit 34 personnes.
Coup de l’installation : 200 millions de yens, soit environ 1,5 million d’euros. En se séparant de ces 34 salariés au profit de l’intelligence artificielle dès janvier, Fukoku Mutuel Life Insurance entend améliorer sa productivité de 30 %, prévoyant une économie de 140 millions de yens (1,1 million d’euros) la première année. De quoi s’attendre à un retour sur investissement assez rapide si l’on en croit les chiffres de la firme japonaise.
35 % des emplois au Japon robotisés d’ici 18 ans

Reste que ce remplacement par un robot a de quoi inquiéter les salariés. Le programme d’intelligence artificielle Watson d’IBM devrait en effet réaliser les mêmes missions que les salariés du service. Et même plus rapidement. Le système sera capable « d’analyser et d’interpréter l’ensemble des données, y compris les images, le son et la vidéo », explique IBM. Plusieurs dizaines de milliers de dossiers médicaux pourront être disséqués par les ordinateurs afin de pouvoir établir des remboursements aux clients, explique The Mainichi.

D’autres compagnies d’assurance japonaises utilisent l’intelligence artificielle. Dai-ichi Life Insurance Company utilise le même système que son concurrent pour les mêmes missions. À cette différence qu’il n’y a eu aucun licenciement et que les salariés doivent désormais vérifier le bon déroulement des procédures traitées par l’intelligence artificielle. Mais la tendance est bien lancée. En 2015, un rapport du cabinet d’études Nomura estimait que 35 % des emplois dans le pays pourraient être robotisés d’ici 2035.

Si par le passé, la machine à vapeur a fait disparaitre de nombreux emplois d’ouvriers il y a 150 ans, d’autres nouveaux emplois ont été créés et l’école a pourvu à la formation des descendants de ces ouvriers.

Le problème se pose à présent de manière tout à fait nouvelle : quand nos besoins alimentaires, de produits manufacturés et de service seront satisfaits par des machines et donc des algorithmes, quel nouveau secteur pourrait émerger ? Par le passé, on a transformé les paysans en ouvriers, puis les ouvriers en chauffeurs de taxi : que deviendront-ils lorsque les voitures rouleront toutes seules (i.e seront pilotées par un algorithme) ? Dans quelques années, les propriétaires d’usines pourront se passer quasi totalement d’ouvriers. La grande question sera alors : comment répartir la richesse entre les humains créée par des machines ?

La notion même de propriété peut être remise en cause par la duplication à l’infini offerte par le numérique et les algorithmes. Il s’agit de la notion de biens non rivaux i.e ceux dont la jouissance par l’un n’empêche pas la jouissance par d’autres sans coût additionnel (si ce n’est celui de la mémoire et l’énergie nécessaire à la duplication à son stockage). Paradoxalement, c’est ce paradigme de biens non rivaux et donc partageables et quasi gratuits qui a permis l’émergence de géants tels GAFA.

Beaucoup de thèmes restent à traiter et pourraient faire l’objet d’au moins d’une autre planche afin de ne pas saturer le propos de ce jour par trop de considérations qui finiraient pas se télescoper. Ces autres thèmes pourront être :

  • La gouvernance : rôle des statistiques, l’avènement du big data (à peine effleuré ici mais bien introduit par Dominique Cardon dans son ouvrage [DC] quand il écrit « il faut ouvrir la boite noire ! » ou encore expose les 4 modes possibles de mesure et donc de création de données numériques «à côté, au-dessus, dans, au-dessous » cf tableau page 18 de [DC]), des indicateurs, ne faisons-nous pas dire ce que nous voulons aux chiffres ? Un algorithme pourrait-il jouer le rôle de despote éclairé ? Quelles sont nos attentes au-delà de l’équité, transparence et diversité.
  • L’humain augmenté ne se déshumaniserait-il pas en laissant au robot le soin de prendre soin des personnes les plus fragiles ?
  • L’enseignement : lorsque tout le savoir sera à portée d’un clic… quoi enseigner ? Comment l’enseigner ? L’enseignement de masse enfin possible grâce à l’Internet n’est-il pas une simple consommation de masse ?