Ce livre déjà mentionné dans notre article sur l’Intelligence Artificielle (Artificial Intelligence = AI) dans NAM-IP/INFO :2016/2 méritait un compte-rendu détaillé. Dues à un spécialiste du domaine qui a travaillé et enseigné dans ce domaine depuis 1958 à l’Université de Stanford (Californie) au cœur de ce qui deviendra la Silicon Valley, ces 577 pages sont d’une densité exceptionnelle, mais, simultanément, d’un grand apport pédagogique grâce aux nombreux schémas et illustrations proposés, le tout complété par d’abondantes Notes en fin de chaque chapitre. Pour les illustrations, il est remarquable que l’Auteur ait pu rassembler les photographies de 100 protagonistes de ce domaine de recherche; occasion de constater que l’on ne trouve que 4 femmes dans cette galerie!
Outre des citations dans le texte, l’argumentaire est appuyé par près de 70 pages de Notes en petits caractères qui incluent les renvois bibliographiques et «nettographiques». Il manque donc une bibliographie systématique. Une telle bibliographie est devenue compliquée à présenter dans la mesure où de très nombreux renvois à des sites web sont inclus. Il y a par contre un Index assez complet des matières, des lieux et des personnes mentionnés. Malheureusement l’Index ne semble pas couvrir les mentions faites dans les Notes (voir par exemple: Solman, Aaron, cité en pp. 524 et 532 selon l’Index, alors qu’il est également mentionné dans la note 25 de la p. 536).
Le livre est divisé en 35 chapitres regroupés dans 8 parties, chaque partie comprenant de 2 à 8 chapitres.
L’Auteur définit sa vision de l’AI dans la Préface (p. XIII):
«Pour moi, l’intelligence artificielle est l’activité qui se consacre à créer des machines intelligentes; et l’intelligence est cette qualité qui permet à une entité de fonctionner de façon appropriée avec la faculté de prévoir dans son environnement».
La première partie
rappelle les premiers «rêves d’automates qui bougent et de machines qui raisonnent» (p. 3), ainsi que la progression, en Occident, de la pensée logique depuis Aristote en passant par Leibniz, Boole, les recherches de Ramon y Cajal sur les neurones, la naissance des sciences cognitives (Chomsky, Newel, Simon), les simulateurs d’évolution (Holland, Walter), le développement des statistiques et des calculs de probabilité (Bayes), l’idée-même d’intelligence artificielle (Turing, mais également l’ELIZA de Weizenbaum), etc.
La seconde partie (ch. 3 à 8, p. 47-122)
examine les premières explorations (années 1950ss à 1960ss) qui ont mené aux travaux sur l’intelligence artificielle.
Ce furent d’abord des conférences, colloques et séminaires. En 1948, Karl Lashley lance l’idée de «sciences cognitives»;
1955: une «Session on learning machines» à Los Angeles;
1956: le «Summer Research Project on Artificial Intelligence» à Dartmouth;
1958: la session «Mechanization of Thought Processes» à Teddington (U.K.).
Pour leur séminaire de Dartmouth, McCarthy et Rochester soumettent à la fondation Rockefeller en août 1955 un projet de simulation des comportements intelligents: «le but actuel pour l’intelligence artificielle est de créer une machine qui se comporterait d’une façon qui serait appelée
'intelligente' s’il s’agissait du comportement d’un humain» (p. 53). L’Auteur participait à ce séminaire. Un colloque de 2006 a commémoré ce séminaire de 1956 comme représentant le début des travaux sérieux en AI.
Mais le texte de Marvin Minsky, Steps toward Artificial Intelligence (1961) semble aussi avoir été fondateur dans ce domaine de la recherche. Parmi les tout premier travaux on trouve ceux qui visent à la reconnaissance des formes. Le premier «Pattern Recognition Workshop» s’est tenu à Puerto Rico en octobre 1966, et le second à Delft (Hollande) en août 1968.
Par ailleurs on voit le développement de la recherche «heuristique» définie comme un «processus qui peut résoudre un problème, mais n’offre pas la garantie de le faire» (Newel et Simon). Ces chercheurs créent dans cette ligne le General Problem Solver (GPS) en 1959.
Les théories d’automatisation de jeux intelligents remontent à Babbage (1845). Si Konrad Zuse teste un jeu d’échecs dans son Plankalkul en 1940 et que Turing évoque la même chose en 1946, c’est Arthur Samuel d’IBM qui décrit le premier une «machine qui apprend» (learning machine) dans le cadre des jeux en 1956. On voit ensuite se développer des travaux sur la «représentation sémantique» avec Marvin Minsky au MIT; puis avec Bertram Raphaël avec son programme SIR (Semantic Information Retrieval) programmé en LISP – je note que ce langage de programmation sera très souvent cité pour des applications dans le domaine de l’intelligence artificielle. Le «traitement du langage naturel» (chapitre 7) est un autre champ de recherche en AI. Les travaux de Noam Chomsky sur les «context free grammars» sont présentés en 1957 dans son livre Syntactic Structures et l’on commence à parler de «traduction automatisée» dans un article du New York Times du 31 mars 1949: Yehoshua Bar-Hillel fera la première conférence sur ce sujet en juin 1952… mais il dira plus tard (1960) qu’il considère la chose comme impossible! Et, en 1968, naît l’Association for Computational Linguistic (ACL).
Le chapitre 8 décrit les langages, laboratoires et matériels pionniers dans le domaine de l’AI: le langage LISP mis au point par John McCarty au MIT en 1958; les travaux développés à l’université Carnegie-Melon sur des IBM/650 puis des IBM/714 ont été suivis par des travaux sur des PDP-1ss.
On souligne la collaboration de Jean Piaget avec Marvin Minsky à partir de 1962; la fondation du SAIL (Stanford AI Laboratory) par McCarty en 1966. Suite à un rapport interne négatif sur le sujet et suite à la description des limites de ces recherches par H. Dreyfus (professeur de philosophie au MIT), IBM investira peu dans ce domaine de recherche à cette époque. Et les principales sources de financement pour ce type de travaux (à cette époque, comme plus tard) sera l’ARPA puis la DARPA (direction militaire de la recherche aux U.S.A.) après que ses cadres aient été piqués au vif par le lancement du sputnik en 1957!
La troisième partie (chapitres 9-16, pp. 123-205)
traite de l’efflorescence des travaux en AI entre les années 1965 et 1975. Les secteurs dans lesquels on voit progresser la recherche sont: les ordinateurs et la vision (ch. 9); les recherches sur l’actionnement de bras robotiques (ch. 10); les recherches en représentation de la connaissance et du raisonnement (ch. 11); les réalisations en robots mobiles (ch. 12); les progrès dans le traitement du langage naturel (ch. 13); les jeux (ch. 14); le projet Dendral en génétique (ch. 15). Le chapitre 16 traite des réunions, séminaires, conférences, publications et sources de financement de tous les travaux réalisés durant cette décennie.
Sur la vision, Seymour Papert fait des travaux pionniers à partir de l’été 1966. Par ailleurs, des programmes sont développés en direction de la robotique tant au MIT (Boston) qu’à l’Université de Stanford ou à celle d’Edimburgh (Écosse). Beaucoup de ces travaux sont programmés sur des PDP-6, puis des PDP-10. Le robot FREDDY II, commandé à la voix et réalisé par Hary Barrow est toujours en démonstration au Royal Scottish Museum d’Edimburgh!
La différence entre des programmations de type procédural ou de type déclaratif se précise, de même que la notion de «programmation logique» avec Kowalski à Edimburgh et Colmeraumer à Aix-Marseille – c’est ce dernier qui développe le langage PROLOG. On développe des «réseaux sémantiques» et Roger Schank (à Austin, Texas) travaille en 1973 sur les «conceptual structures»! Cela mène, notamment à travers les travaux de Marvin Minsky en 1974-75, à définir la différence et l’interaction, entre des «scripts» visant des connaissances spécifiques et des «frames» visant des connaissances générales.
Vers la même époque (1964), le laboratoire de Stanford programme le robot SHAKEY à partir d’une programmation sur un PDP-10. Ce chariot électronique peut encore se voir au musée de Mountain View (Californie).
Pour les langages naturels, et notamment la traduction, Peter Toma développe en Californie le programme SYSTRAN. Au MIT, Terry Winograd programme SHDLU en LISP sur un PDP-10 pour dialoguer avec un robot – mais il ne poursuivra pas sa recherche, car il estime l’aboutissement impossible!
En 1967, un premier combat homme-machine aux échecs se déroule à Moscou. Ce programme ITEP sera suivi de KAISSA en 1974 – mais Berliner conclut en 1978 que l’humain peut profiter d’une «accumulation de connaissances» là où l’ordinateur ne possède pas, à cette époque, cette faculté!
De leur côté Ed. Feigenbaum et J. Lederberg développent des programmes dans le domaine de la génétique. Ils vont confirmer que la «richesse des connaissances est plus importante que la performance des méthodes de recherche».
Pour toute cette période, si l’International Joint Conference on Artificial Intelligence (IJCAI) tenue à Washington D.C. en 1969, est au départ de beaucoup de ces recherches, il semble que ce soit le SIGART (Special Interest Group) et sa Newsletter fondée en 1966 par Nils J. Nilsson (notre Auteur) qui serve de référence de base pour tous ces travaux… même s’il faut bien dire que le recueil Computer and Thougth (papiers publiés en 1963 au MIT Press et republiés avec des compléments en 1995 par Ed. Feigenbaum) reste la référence de base pour tout ce domaine! Mais un Rapport très négatif de l’anglais James Lighthill freinera les financements de la DARPA dans ce domaine aux États-Unis.
La quatrième partie (chapitres 17-21, pp. 207-273)
voit la recherche se tourner vers des applications et des spécialisations entre 1970 et 1980. Le chapitre 17 se penche sur le traitement de la parole plus que du texte encodé avec la mise au point de l’International Phonetic Alphabet (IPA) ou de l’ARPAbet Phonetic Alphabet ou encore le Speach Understanding Study Group lancé par la DARPA en 1970, et cela en contrat, notamment, avec Sperry UNIVAC. C’est à partir de ces travaux que le programme de reconnaissance vocale DRAGON sera commercialisé. Les robots de ces époques n’ont qu’un vocabulaire d’une dizaine de «mots» à cause des limites techniques des ordinateurs, et malgré les énormes calculs de probabilité engagés dans ces programmations!
Un autre domaine est celui du développement des «systèmes experts» pour les banques, les locomotives, les avions, l’analyse des crédits, etc.… Nilsson renvoit, pour l’histoire des systèmes experts au recueil publié sous la direction d’Ed. Feigenbaum, The Rise of the Expert Company, Times book, 1988.
À partir de 1975, la DARPA oriente ses programmes vers une augmentation des applications pratiques: meilleure compréhension du langage naturel, systèmes de surveillance automatisés, etc. D’important travaux sur la reconnaissance d’objets sont aussi subventionnés (IU = image understanding), notamment pour perfectionner la cartographie avec l’idée, déjà, de pouvoir guider des véhicules autonomes.
Après une période d’hésitations, on se rapproche d’une période plus prospère pour la recherche en AI avec la fondation, en 1980, de l’American Association for A.I. devenue aujourd’hui l’AAAI Association for the Advancement of A.I., une association qui comptait 16.000 membres en 1987. Ce sera un facteur de déclenchement pour la création des ordinateurs de 5ème génération au Japon ainsi que pour le développement du programme de recherche ESPRIT en Europe.
La 5ème partie (chapitres 22-23, pp. 275-301)
décrit les projets appelés par l’Auteur projets de la «nouvelle génération»!
La création par les japonais Kazuhiro Fuji et Koichi Furokawa du STIR, un ordinateur de 5ème génération aura un gros impact sur la recherche à partir de 1985. («Cinquième génération» parce que l’Auteur considère que la première génération sont les ordinateurs utilisant des «tubes» ou «lampes»; la seconde, après 1959, utilise des «transistors» ; la troisième utilise des «chips interconnectés» en SSI ; la quatrième est celle des VLSI (Very Large Scale Integration); et la cinquième est celle des ULSI (Ultra Large Scale Integration) utilisant des processeurs parallèles. En réaction à ces projets japonais, Control Data prend le leadership du développement de puissantes machines en 1982; tandis qu’en Europe le programme ESPRIT (European Strategic Program for Research in Information Technology) se voit attribuer, en 1983, 1,5 milliard d’Euros. La DARPA va également réagir grâce à Robert Kahn qui avait créé le Strategic Computing (SC ) dès 1978, et grâce à Vinton Cerf avec lequel il crée le TCP (Transmission Control Protocol): l’ARPANET va débloquer un programme annuel d’un milliard de US$ de 1983 à 1993. Des programmes portant sur l’aviation militaire en association avec Lockhead à Dayton; des programmes sur la gestion des combats pour la Navy en collaboration avec Texas Instrument ; ou encore des programmes pour des véhicules autonomes pour l’armée de terre. Mais ces programmes seront arrêtés en 1993 suite à une évaluation critique de ces différents programmes «militaires» pour des raisons économiques et éthiques par le CPSR (Computer Professionnals for Social Responsability): «ces programmes ont augmenté la course aux armements… et nous ne croyons pas que la sécurité nationale passe par cette supériorité-là, ni que la supériorité militaire puisse être obtenue par l’utilisation d’ordinateurs» (p. 298)!
L’Auteur insère ici une sixième partie qu’il intitule «Entr’Acte» (pp. 303-396).
Il tente d’y évaluer les arguments de tous ceux qui s’opposent au développement de l’Intelligence Artificielle. Il rappelle que dans son livre Minds and Machines de 1964, Ross Anderson se demandait si les humains ne seraient pas, en fait, des machines. Mais un des opposants de choix semble être Roger Penrose qui appelle à une science de la conscience, tandis que John Searle croit qu’une pensée sans intentionnalité n’est pas de l’intelligence. Quant à Hubert Dreyfus, professeur de philosophie au MIT (Boston), il a travaillé à des recherches en AI dans les années ‘60 chez Rand Corporation. Cela l’a convaincu que «penser» est un processus global dans lequel la corporéité (embodiement – je dirais «incarnation») est un facteur essentiel!
On trouve ensuite un Joseph Weizenbaum (1923-2008) – rappelons que ce chercheur a reçu une distinction académique de l’université de Namur dans les années ‘80: malgré sa création du programme de dialogue automatisé ELIZA et son livre Computer Power and Human Reason : from Judgment to Calculation, 1976, il redoute une dés-humanisation dans la recherche en AI et ses applications!
Dans la foulée on va parler d’intelligence artificielle «forte» ou «faible». L’AI forte tendrait à créer un équivalent de l’intelligence humaine, l’AI faible se contenterait de perfectionner des outils d’intelligence au service de l’humain.
Et Nilsson avoue, quant à lui: «une des raisons pour lesquels les systèmes experts restent limités, c’est qu’ils sont dépourvus de bon sens» (p. 326)!
Mais ce réseau de réflexion critique va ralentir la recherche en AI durant toutes ces années! La réflexion se poursuit, mais plutôt sous forme de controverses sur les limites de la logique; sur l’«incertain» qui n’est ni vrai ni faux; sur de meilleurs algorithmes de calcul des probabilités; sur le «bricolage» (Marvin Minsky pense que c’est le mode de fonctionnement du cerveau); qu’il faut créer des robots «comportementaux»; qu’il faudrait travailler à la façon des réseaux de neurones; qu’il faudrait développer des algorithmes génétiques. Ne faut-il pas, enfin, revoir l’échelle des recherches en AI et privilégier une AI destinée à aider l’homme plutôt qu’à le remplacer? (p. 344).
Les 6 chapitres de la 7ème partie The growing Armamentarium : from the 1980ss onward (pp.347-477)
décrivent une série de nouvelles approches logicielles: au niveau du raisonnement et de la représentation (ch. 26); de la représentation vectorielle de la connaissance (telle qu’on peut la trouver derrière les algorithmes utilisés par Google) (ch. 27); dans l’utilisation de réseaux bayésiens basés sur la probabilité (ch. 28); au niveau de l’accumulation de connaissance ou des facultés d’apprentissage des machines (ch. 29); au niveau du traitement du langage naturel et de la vision (ch. 30); et au niveau des architectures de systèmes intelligents (ch. 31). Un grand nombre de ces champs de recherche ne font que développer des idées antérieures mais avec des moyens supérieurs au niveau des possibilités techniques offertes par les machines électroniques. Ainsi le KRYPTON développé au PARC de Rank Xerox qui représente la connaissance tant par des formules logiques que par un réseau sémantique. Ou encore la transformation vectorielle d’un texte qui suppose une combinaison de lemmatisations et de statistiques (pp. 373-376).
J. Pearl (University of California) pense que «le raisonnement humain qui juge plausible quelque chose, suggère à la recherche que l’intuition humaine est une forme de probabilité» et, en conséquence, il «crée un réseau bayésien de 'croyances' (belief) qui sont des nœuds de calculs de probabilité» (pp. 384-387).
Peter Norvig, Directeur de recherche chez Google, a dit à l’Auteur que «Google est actuellement le plus grand système d’AI au monde. Je lui ai demandé: Pourquoi? Il a simplement répondu: «données, données, données»… et Google en a plus que n’importe qui» ! (p. 393).
D’où le développement du data-mining basé presque toujours sur l’induction (co-occurrences) ou bien à partir d’un raisonnement basé sur des «cas» (case based reasoning) dont Roger Schank pense qu’il est l’une des applications de technologie d’AI la plus réussie de ces dernières années (p. 402) – avec les «arbres de décision» souvent liés à ce genre de recherche. Et plusieurs chercheurs reviennent sur une idée de base: entre les différents systèmes logiciels mis au point en combinant toutes les logiques «les différences sont souvent marginales. Plus important que l’algorithme d’apprentissage automatisé, on s’accorde à dire que plus on a de données, mieux cela fonctionne» (p. 425). Il faut donc confronter ces logiciels au réel: tout le langage naturel, tests de voitures autonomes sur le terrain – essais et erreurs améliorent tous les systèmes!
On se penche alors sur les architectures de systèmes pour trouver quelle serait la meilleure, la plus complète. Marvin Minsky dans The Society of Mind (1988) pense que «une telle société serait composée d’un grand nombre d’agents simples qui n’ont aucun la capacité suffisante pour être 'seul' une entité intelligente; mais une signification (ou un 'esprit' - mind) émergerait de leurs comportements unifiés et de leurs interactions»… et cela devrait fonctionner comme une communauté scientifique (p. 463). L’intelligence artificielle partagée devient un système «multi-agents» où machines et humains sont en interaction (exemple: Manuele Veloso travaille à créer une équipe de football constituée de robots qui pourrait battre une équipe humaine!).
La huitième partie (pp. 479-538)
veut présenter les recherches en AI d’aujourd’hui et de demain. Nilsson constate que beaucoup de jeunes chercheurs préfèrent se faire engager par Google ou Microsoft plutôt que de poursuivre une vraie carrière de recherche dans une université. Les principales réalisations se voient dans le domaine des jeux (échecs et GO gagnés par des ordinateurs contre des humains); dans le domaine de la robotique industrielle ou sociale (plus de 30 firmes nouvelles autour de Pitsburg); dans le domaine des véhicules sans conducteurs (avec des concours organisés par la DARPA et une prévision d’expansion industrielle à l’horizon de 2020); la présence généralisée de certaines machines intelligentes (domotique; géolocalisation; distribution; jeux; champs de bataille; etc). Des outils intelligents sont disponibles dans des domaines toujours plus variés (médecine; médecine à distance; organisation et horaires; traductions; reconnaissance faciale; machines à inventer des applications; création artistique; etc).
Et la recherche continue, notamment avec des assistants personnels à l’apprentissage. Par rapport aux risques de telles recherches pour l’humain et son avenir, Stephen M. Omohundro a fondé Self-Aware Systems: une organisation qui se consacre à apporter de la sagesse aux technologies émergentes (p. 531).
R.-Ferdinand Poswick