Alan Turing
Mathématicien et cryptologue anglais (1912-1954) ayant réussi à percer le code de la machine de chiffrement allemande Enigma durant la Seconde Guerre mondiale. Il est le créateur d’un test d’évaluation de l’intelligence artificielle fondée sur la conversation humaine.
Algorithme
Un algorithme est une suite d’opérations ou d’instructions à appliquer dans un ordre déterminé afin d’obtenir un résultat donné.
Apprentissage supervisé/non supervisé
L’apprentissage supervisé s’effectue à partir d’exemples pour lesquels on connait la réponse (annotation), par exemple à partir de données du passé. Le modèle obtenu est donc une généralisation à partir d’exemples.
En apprentissage non supervisé, il n’y a pas de réponses prédéfinies associées aux exemples, on recherche alors des regroupements (des classes) des données d’entrées.
Arbres de décision
Modèles d’IA qui représente le problème sous la forme d’un arbre où chaque nœud correspond à un test sur une des variables d’entrées. Les « nœuds feuilles » sont alors affectés à une probabilité et les tests suivants sont effectués jusqu’à obtenir les nœuds terminaux. Les coefficients associant la probabilité à chaque feuille en fonction du test sont obtenus par apprentissage en minimisant l’erreur globale sur les données. Ces arbres peuvent être définis par un expert ou générés automatiquement à partir des données d’entrées.
Bagging
Méthode simple d’agrégation des résultats d’un modèle ensembliste (cf. infra) par moyenne (régression cf. infra) des résultats ou par vote (classification)
Biais
Erreurs dans la mise en œuvre d’un traitement issu des données collectées et/ou des modalités de leur traitement. Ces biais peuvent être :
– issus directement des variables utilisées (discriminatoires) ;
– implicites : issus de l’interaction de plusieurs variables qui n’apparaissent en soi discriminatoires ;
– issus de données de mauvaises qualités (redondantes, obsolètes, incomplètes…).
L’élimination totale des biais de toutes sortes apparaît comme un exercice extrêmement compliqué, pour ne pas dire impossible, notamment du fait de l’intervention humaine, laquelle est notamment marquée par la subjectivité.
Big Data (ou mégadonnées)
« Données structurées ou non dont le très grand volume requiert des outils d'analyse adaptés »
Le Big Data et l’essor de l’IA sont étroitement liés, car le Big Data a permis l’apprentissage massif sur de grande quantité de données.
Boîte noire/boîte blanche
On parle de boîte noire pour un algorithme d’IA dont même le programmeur ne peut expliquer le résultat (par exemple, un réseau neuronal profond). À l’inverse, un algorithme « boîte blanche » fournit les étapes permettant de comprendre le résultat (modèles bayésiens, arbres de décisions).
Boosting
Méthode pour améliorer les résultats d’un modèle ensembliste (cf. infra) donnant, au travers d’un mécanisme d’apprentissage, une pondération supérieure aux résultats issus de modèles démontrant une pertinence particulière.
Bulle de pertinence algorithmique
Enfermement des internautes dans des stéréotypes uniquement fondés sur leurs traces, interprétées par des algorithmes. Ex. Facebook a déposé un brevet (4 août 2015) permettant à la banque d’examiner les notes de crédit des membres de son réseau social. […] Si le score de crédit moyen de ces membres atteint un score minimum, le prêteur continue à traiter la demande de prêt. Sinon, la demande de crédit est rejetée. Ex. Refus de crédits fondés sur la base du comportement d’autres individus avec lesquelles l’emprunteur a des caractéristiques communes (Rapport de la Federal Trade Commmission, « USA – Big Data, a tool for inclusion or exclusion ? », janvier 2016, pp. 9 et 10.)
Classification
Algorithme cherchant à ranger des objets (individus) dans des classes distinctes. L’appartenance d’un individu à une classe peut être multiple, partielle ou univoque. Les classes peuvent être connues à l’avance (apprentissage supervisé) ou non.
Corrélation et causalité
Deux notions souvent confondues à tort. La corrélation est le lien statistique entre deux variables. La causalité indique une relation de cause à effet entre deux variables. Même si on observe souvent des parapluies ouverts quand il pleut, ce n’est pas parce que l’on ouvre son parapluie qu’il va pleuvoir !
Courbe ROC (Receiving Operator Characteristic)
La courbe ROC représente, sous forme graphique, la performance d’un modèle de classification. Elle indique le taux de faux positifs et de vrais positifs suivant le seuil qui permet de prendre la décision. Plus l’aire sous la courbe est grande meilleur est le l’outil de classification.
Data
Synonyme de donnée. Les data sont la composante essentielle de l’économie numérique. 98 % des informations sont enregistrées sous forme numérique. « Prenez toutes les informations produites par l’humanité depuis l’aube des temps jusqu’en 2003. Maintenant, nous produisons la même quantité en tout juste deux jours »
Éthique
En matière d’IA, l’éthique renvoie à la question de la place de la personne face au numérique. Ce dernier est-il au service des individus ou n’est-il qu’un outil au service d’intérêts plus ou moins opaques ? La question est celle de la confiance des utilisateurs, en relation avec une gouvernance stricte
Explicabilité
Capacité pour l’humain à comprendre le pourquoi d’un résultat d’un système d’intelligence artificielle. Concept subjectif mais aujourd’hui sujet de nombreux travaux de recherche et au cœur des problématiques éthiques de l’IA : comment accepter une décision que l’on ne comprend pas faute d’explication ?
Un réseau neuronal profond est l’exemple même d’un système non explicable (boîte noire), un arbre de décision ou un modèle bayésien (cf. infra) fournissent des résultats plus facilement explicables (boîtes blanches).
Forêts aléatoires
Modèles ensemblistes obtenus à partir d’arbres de décisions générés automatiquement, soit en choisissant des sous-ensembles de données d’entraînement aléatoirement, soit en tirant au sort les variables d’entrées utilisées.
Intelligence(s)
« intelligence », du latin intellegentia (faculté de comprendre), dérivé du latin intellegere signifiant comprendre (inter « entre », et legere « choisir » ou ligare « lier »). En anglais, « intelligence » signifie « renseignement » ou « informations ». Enfin, le mot artificiel renvoie à la notion « d’artifice », soit des manœuvres destinées à dissimuler, travestir la réalité.
Selon la théorie des intelligences multiples proposée par Howard Gardner en 1983, et enrichie en 1993, il existerait huit formes d’intelligence
IA sans data
Algorithmes qui cherchent à reproduire le raisonnement humain sans avoir recours à des méthodes d’apprentissages à partir de données. Les systèmes experts (cf. infra) en sont un bon exemple.
Intelligence artificielle (IA)
Terme apparu en 1956
Intelligence augmentée
Appellation de l’IA préférée par certains pour insister sur la nécessaire place de l’humain dans la boucle de décision.
Lois d’Asimov
Apparus en 1942 sous la plume d’Isaac Asimov
– loi numéro 1 : un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu’un être humain soit exposé au danger ;
– loi numéro 2 : un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
– loi numéro 3 : un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.
Au-delà de ces « trois lois » Isaac Asimov a imaginé une quatrième loi, dite « loi zéro », issue des robots eux-mêmes et généralisant la première loi, à l’humanité toute entière. Ces lois ont été complétées en janvier 2017 par les 23 principes de la conférence d’Asilomar qui s’est tenue en janvier 2017 (cf. infra).
Machine learning (Apprentissage automatique)
Ensemble d’algorithmes dont la performance s’améliore avec l’expérience et les données sans intervention humaine a posteriori. Le machine learning est notamment utilisé pour des besoins de marketing, de détection de fraude, de gestion de portefeuille et d’évaluation des risques (par exemple le scoring de risque).
Métiers de l’IA
Data Scientist : expert qui élabore les algorithmes de machine learning.
Data Analyst : expert qui crée les bases ou lacs de données nécessaires à l’entreprise puis s’assure de leur bon fonctionnement. Les data analystes gèrent l’administration et l’architecture des bases et sont aussi en charge de la modélisation des données.
Data Ingénieur : ingénieur qui prépare les données utilisées par les algorithmes de machine learning en produisant des nouvelles variables à partir des variables existantes et en participant à la politique de stockage et de traitement des données.
Chief Data Quality Officer : il est en charge de s’assurer de la qualité des données utilisées par l’entreprise.
Chief Data Officer : sa mission est de gérer et exploiter l’information pour en tirer pleinement profit en mettant en œuvre les outils nécessaires. Il sensibilise également les diverses composantes de l’entreprise à la valeur de la donnée considérée comme un actif de l’entreprise.
Chief Digital Officer : il promeut le numérique et aide les métiers et les fonctions support à s’approprier les usages du « digital » pour mieux en saisir les opportunités. Outre la détermination d’une stratégie globale, il fixe également celle applicable à chaque métier-service.
Modèles bayésiens
Modèles constitués d’un réseau de règles, qui à partir de règles de distributions de probabilité, infèrent la distribution sur les variables de sorties. Les règles peuvent être définies par des experts et/ou apprise sur des données d’entrées.
Modèles ensemblistes
Modèles de classification ou de régression qui sont obtenus en mélangeant plusieurs modèles (éventuellement un grand nombre de modèles simples), soit issus d’algorithmes différents, soit ayant appris sur des sous échantillons différents des données d’entrées choisis aléatoirement. Le résultat final est obtenu pas différentes techniques : « bagging » ou « boosting » par exemple. Les modèles ensemblistes permettent d’obtenir des résultats avec moins de biais et de surapprentissage.
Natural Language Processing (NLP)
Traitement automatique des langages : permet d’analyser les données textuelles non structurées. Combinés à des techniques de traitement des sons, ces outils permettent également d’analyser des données vocales.
OCR
Lecture automatique de caractère d’imprimerie ou manuscrits à partir d’images.
Principes d’Asilomar
Guide adopté à l’occasion de la « Beneficial AI 2017 » organisée par le « Future of Life Institute ». La conférence s'est tenue à Asilomar, en Californie mois de janvier 2017. À cette occasion a été adopté un guide de référence consacré au développement éthique de l'intelligence artificielle adopté par 816 scientifiques spécialisés dans l’intelligence artificielle ou la robotique et plus d’un millier de personnalités dont l’astrophysicien Stephen Hawking. Ce guide développe et complète les principes énumérés dans les lois d’Asimov.
Recherche opérationnelle
Domaine des mathématiques appliquées et de l’informatique qui cherche à obtenir une solution « optimale » dans de problèmes de grandes dimensions (avec énormément de solutions possibles). La programmation linéaire, la recherche du plus court chemin ans un graphe complexe sont des problèmes traités en recherche opérationnelle. Domaine déjà ancien qui connaît un regain d’utilisation avec l’essor des systèmes de prévisions.
Régression
Classe des problèmes d’IA en cherchant à prédire la valeur d’une variable continue à partir d’autres variables ; par opposition aux problèmes de classification.
La régression logistique utilise des méthodes de régression mais pour résoudre un problème de classification.
Réseaux neuronaux
Méthode de machine learning, apparue en 1943
Les réseaux neuronaux dits profonds (deep learning) présentent un grand nombre de couches et apprennent avec un très grand ensemble de données.
Leur utilisation connaît actuellement un développement important de par la disponibilité de ces données (Big Data) qu’à leur performance et qu’au progrès des matériels spécialisés (GPU) qui permettent leur exécution rapide.
Très utilisées entre autres en vision par ordinateur mais aussi en finances, marketing, etc.
Il leur est reproché leur aspect « boîte noire » et le côté empirique de leur mise au point.
Robot
Dérivé du mot « robota » qui signifie travail en tchèque. Ex : Un chatbot
Sérendipité
Illustration de l’adage « le hasard fait bien les choses ». Peu importent les données traitées, leur qualité, leur nature et leur variété puisque des algorithmes sont en mesure, in fine, d’en tirer des informations commercialement utiles, même si leur découverte est le fruit d’un pur hasard.
Séries temporelles
Série de valeurs chronologique d’une même variable. En IA, les séries temporelles jouent un rôle important pour prévoir comment va évoluer dans le temps une variable mesurée dans le passé en fonction d’autres variables temporelles.
Les modèles les plus connus sont ARIMA, Prophet etc.
Surapprentissage
Ce dit d’un modèle qui « colle » tellement bien à ses données d’entraînement qu’il n’est pas capable de généralisation et donc fournira de piètres résultats avec de nouvelles données.
Support Vector Machine (SVM)
Les machines à vecteurs de support ou séparateurs à vaste marge sont un ensemble de techniques d’apprentissage supervisé renommé pour sa solidité théorique et sa grande efficacité et flexibilité
Systèmes experts
Les systèmes experts des années 1980-1990 décrivaient la connaissance d’experts dans un domaine sous forme de règles logiques qui s’enchaînaient. L’introduction de règles experts probabilistes dans un système d’IA moderne s’apparente à ces systèmes experts.
Trading algorithmique
Forme de négoce de titres dont les paramètres principaux sont définis de manière automatique
Trading haute fréquence (THF)
Trading algorithmique mettant en œuvre des programmes informatiques aptes à déterminer le moment, les prix ou les volumes des ordres en quelques fractions de seconde
Ce trading se caractérise par une minimisation des latences, ainsi que la détermination par le système de l’engagement, la création, l’acheminement ou l’exécution d’un ordre sans intervention humaine et enfin un débit intrajournalier élevé de messages. Ce trading algorithmique exclut toute intervention humaine.