Je suis tombé par hasard sur un « reportage » poubelle, plutôt scandaleux, sur l’intelligence artificielle :

https://www.youtube.com/watch?v=BSgcKBintiY

Il fut une époque où Arte était une chaîne sérieuse, mais là, entre les raccourcis foireux, les approximations grossières, et le catastrophisme gras, ils prennent vraiment les gens pour des cons. De la bonne grosse désinformation digne d’un quotidien national de gauche caviar et de ses journaleux nuls en sciences.

Je constate actuellement que le terme « intelligence artificielle » est utilisé à tort et à travers pour désigner tout algorithme informatique qui a l’air compliqué, et ça me démoralise.

Tout algorithme n’est pas une intelligence artificielle. À l’origine, l’informatique est un moyen automatique de traiter l’information, grâce à des systèmes électroniques qui représentent l’information (texte, son, image, mesures, etc.) de façon codée, en nombres binaires. En informatique, on créée traditionnellement des programmes, qui sont des séquences d’instructions que le programmeur inflige à la machine, d’où l’adage « un programme n’est jamais plus intelligent que son programmeur ». La beauté de l’informatique, c’est que, grâce à la représentation numérique de l’information, on peut appliquer des tas de méthodes mathématiques pour traiter rapidement et automatiquement de grands ensembles de données. Pensez au temps qu’il vous faut pour trouver une information sur Internet, comparé au temps qu’il vous faut pour trouver un livre dans une bibliothèque… En connectant toutes sortes de périphériques à l’ordinateur, et en numérisant les informations qui en proviennent, on peut alors automatiser un grand nombre de tâches répétitives, dupliquer, diffuser, contrôler à distance etc.

Pour autant, un automate (mécanique, électronique, informatique, ou tout ça à la fois) n’est jamais qu’un petit soldat qui effectue la séquence d’opérations imposées par le programmeur. Un automate est procédural (en général), ce qui veut dire qu’on connaît sa séquence à l’avance et que, sauf bug, on est capable de prévoir son comportement à chaque instant. Et beaucoup de robots sont encore de bêtes automates, qui suivent leur procédure et la répètent en boucle. La machine de Turing, mentionnée dans le reportage, n’était qu’une grosse idiote rapide qui testait toutes les clés de cryptage possible d’Enigma une par une jusqu’à trouver la bonne. On appelle ça du brute-force.

L’intelligence artificielle, c’est un autre niveau. L’intelligence, dans ce contexte, c’est l’aptitude à transformer des connaissances en action/décision rationelle. Une action rationelle est la meilleure action possible dans un contexte donné. Premièrement, la rationalité n’est pas ici à prendre dans son sens cartésien (raison détachée des sentiments ou de l’intuition), on peut parfaitement imaginer que la meilleure décision soit la plus amusante ou la plus agréable. Il s’agit seulement de faire au mieux avec ce qu’on sait, donc de trouver un optimum local (maximiser le gain, minimiser les pertes, dans les conditions actuelles). Deuxièmement, l’idée de « meilleure » action possible pose la nécessité de se donner une métrique pour évaluer la performance de l’action.

Imaginons qu’on vous propose une sortie vraiment sympa avec des amis que vous aimez beaucoup, mais à plusieurs heures de route de chez vous, après une journée de travail éprouvante. Intuitivement, vous aller entamer un processus cognitif rationnel pour décider si vous feriez mieux de vous reposer ou de sortir vous changer les idées, si votre état de fatigue risque de vous mettre en danger sur la route ou de vous rendre peu sociable, etc. Vous avez donc ici une succession de variables liées (prix du transport, danger de la conduite, bénéfice pour le moral, plaisir individuel, plaisir des autres, conséquences sur le travail le lendemain, etc.), un objectif d’avoir un maximum de plaisir à court et à moyen terme, et un dilemme brûlant : j’y vais ou j’y vais pas ?

Pour résoudre ce dilemme, vous allez puiser dans vos connaissances : vous savez que vous avez besoin de vos 8 h de sommeil, que la conduite en état de fatigue est dangereuse, que la route est longue, mais la vie sociale est importante pour maintenir un bon moral… bref vous pesez le pour et le contre en essayant de trouver la meilleure option pour vous ce jour là. À quel point êtes-vous fatigué ? Est-ce que la météo est clémente ? Peut-être que vous pourrez juste arriver à 10 h au bureau demain ?

C’est exactement ça que fait une intelligence artificielle. Ses connaissances sont des bases de données qu’on utilise pour l’entraîner, qui relient des ensembles de causes et des ensembles de conséquences. Puis elle prend les conditions particulières à ce jour là et, à l’aide de statistiques et de probabilités, va littéralement peser le pour et le contre (en probabilité) en comparant les conditions actuelles avec celles qui se rapprochent le plus dans sa base de données, pour inférer la performance de chacune des options possibles, et vous donner celle qui a le meilleur score.

Une intelligence artificielle est donc un système informatique qui est capable de prendre une décision en fonction de connaissances, en créant un modèle probabiliste local, qui dépend fortement des données que vous lui fournissez pour apprendre. Le modèle est une description mathématique des liens entre les ensembles de causes et les ensembles de conséquences de la base de données initiale. Suivant les données utilisées pour l’entraînement, le modèle peut changer drastiquement, quand bien même les équations qui servent à identifier la meilleure option seraient identiques. Puis l’intelligence artificielle trouve la solution qui maximise le critère de performance choisi. Rien de plus, rien de moins. On fait de l’optimisation sous contrainte à grands coups de probabilités.

La particularité de l’intelligence artificielle, comparée au simple algorithme procédural, c’est que même si l’on connaît la méthode de résolution pour arriver au critère optimal, on est incapable de prévoir à quelle solution l’intelligence artificielle va arriver ni vers quel modèle elle va converger. Dans ce sens, elle dépasse le programmeur. Ce n’est plus le gentil petit algorithme qui fait ce qu’on lui dit. Mais tout robot n’est pas une intelligence artificielle, et toute intelligence artificielle n’est pas un robot android qui parle. Les filtres anti-spam des messageries électroniques sont déjà des IA primitives, qui fonctionnent par apprentissage machine avec des inférences bayésiennes. Les modèles de prévisions météorologiques sont quasiment des intelligences artificielles (on peut discuter le fait qu’ils prennent des décisions, mais les mathématiques sont très similaires). Les utilitaires qui répartissent le temps de calcul de votre processeur d’ordinateur entre les différentes applications actives sont aussi des intelligences artificielles. La plupart des algorithmes de reconnaissance vocale ou de reconnaissance de texte sont des IA. Pratiquement tous les services Google sont des IA qui s’adaptent individuellement à chaque utilisateur.

Il y a deux dangers principaux dans l’intelligence artificielle :

1. le choix du critère de performance. Le choix d’une métrique n’est jamais neutre, souvent discutable et toujours arbitraire. Par exemple, dans un système de navigation GPS, vous pouvez généralement choisir entre un trajet plus court (en distance) ou plus rapide (en temps). Beaucoup de problèmes ne sont pas aussi faciles à mettre en équation, par exemple pour les algorithmes de suggestion de contenu pertinent (YouTube, Netflix). En fonction de la définition qu’on donne à « intéressant » (suscite de temps de visionnage, ou une interaction, ou des revenus publicitaires), le résultat peut changer drastiquement et le choix est toujours politique, donc les résultats le sont tout autant. C’est un peu la même chose qu’avec les indicateurs de santé des entreprises : suivant celui que vous regardez (CA, bénéfice brut ou net, etc.), la même entreprise n’aura pas le même bilan de santé.

2. la qualité de la base de données d’apprentissage. Aux États-Unis, certains juges utilisent des intelligences artificielles pour déterminer le risque de récidive des criminels au moment de rendre les verdicts de libération conditionnelle. Les États-Unis ont une disproportion flagrante des populations noires et latinos dans leur système carcéral, les raisons en sont complexes et relèvent du cercle vicieux (en gros : les prisons sont des universités du crime, et les gens qui en sortent sont marqués du sceau de l’infâmie sans pardon possible, donc ils deviennent criminels de métier). Les résultats donnés par les systèmes « intelligents » reproduisent alors les mêmes biais ethniques que les humains, à contre-sens de la réalité criminelle factuelle/statistique. Évidemment, si on leur donne les données de population carcérale actuelle…

La sagesse populaire veut qu’on fasse dire ce qu’on veut aux statistiques. Ça n’est pas exactement vrai. On choisit le paramètre qu’on mesure en fonction de ce qu’on a envie de montrer, et on choisit quel échantillon on sonde pour le montrer. Ce qui revient grosso-modo au même, mais c’est plus subtil. Ces deux biais statistiques ont des conséquences néfastes quand il s’agit de statistiques descriptives, mais deviennent clairement catastrophiques quand il s’agit de statistiques inférentielles dans le cadre d’une prise de décision « rationelle ».

Les risques liés aux biais que les humains introduisent dans les intelligences artificielles sont clairement minorés devant les perspectives plus spectaculaires et télégéniques de futurs robots tueurs ou de chômage généralisé. Et c’est une grave erreur, car leurs conséquences sont déjà observables, mais beaucoup plus subtiles et bien plus perverses. S’il faut se méfier des intelligences artificielles, il faut s’en méfier pour les bonnes raisons, et plus encore, se méfier de ceux qui leur font une confiance aveugle. Car, sous les apparences d’objectivité scientifique que véhicule la nature fondamentalement mathématique de l’IA, la façon dont on formule les problèmes qu’on lui donne à résoudre (notamment, le choix du critère de performance ci-dessus, mais aussi le choix des variables incluses dans le processus décisionnel) et les données qu’on lui fournit pour apprendre sont parfaitement arbitraires, politiques, et manipulables. Et les gens qui se cachent derrière la prétendue objectivité du chiffre sont des crétins dangereux qui doivent être stoppés et réduits au silence maintenant. L’erreur est humaine, mais cette erreur là est une faute grave. On sait désormais que tout ce qu’un auteur de science-fiction est capable d’imaginer, un Mark Zuckerberg est tout à fait capable de le réaliser. Les risques et les conséquences sont parfaitement clairs, et les ignorer ou les minorer en contemplant béatement les bénéfices relève d’un aveuglement volontaire.

Au lieu de ça, on nous rebat les oreilles de l’espionnage massif de notre vie privée et de l’utilisation commerciale indécente qu’en font les GAFAM. Ok, c’est mal, mais ouvrir (ou conserver) un compte Google, Facebook, Amazon, etc. est un choix volontaire qui se fait (désormais) en connaissance de cause. Les IA commencent à arriver sur la scène politique et sécuritaro-militaire, alimentées par des données gouvernementales, qui peuvent être détournées de façon bien plus sordide que votre historique de recherches Google.

Il y a plein d’applications géniales de l’IA. Je travaille par exemple sur de l’apprentissage machine en traitement d’image, pour déflouter et débruiter des photos de façon conjointe. J’ai des amis qui travaillent sur des algorithmes pour équilibrer en temps réel l’offre et la demande de puissance sur des réseaux électriques incluant des énergies renouvelables (qui produisent de façon intermittente, et difficile à prévoir). Les applications sont sans fin pour tout ce qui est automatisable. Mais il faut aussi savoir refuser d’automatiser tout ce qui touche à la dignité humaine. Et aussi, cesser d’appeler tout et n’importe quoi intelligence artificielle, sans quoi ça va vider le terme de son sens, désensibiliser le peuple, et détourner l’attention de ce qui peut faire franchement mal.

Pour aller plus loin, je recommande le livre de référence de Stuart Russell et Peter Norvig, traduit en français. C’est un livre à destination des étudiants d’université, écrit par des sommités mondiales, mais les deux premiers chapitres ne contiennent pas de maths et sont lisibles par n’importe qui avec une culture scientifique (ils traitent surtout des bases philosophiques et psycho-cognitives de l’IA). Et c’est une introduction bien plus rigoureuse que les débilités des journaleux à la gomme qui vous bourrent de crâne d’infographies sexy où ils peuvent raconter ce qu’ils veulent parce que personne n’ira vérifier leurs chiffres, vu qu’ils ne donnent de toute façon pas leurs sources.

0 0 vote
Article Rating