Brève histoire de l’Intelligence artificielle : Jean-Louis Laurière, l’homme qui voulait qu’on ignore son invention

I – Introduction : trente ans de vécu en intelligence artificielle

Cette brève histoire est tirée de mes 30 années de pratique de l’Intelligence Artificielle, d’abord comme vendeur, ensuite comme chercheur privé vendant ses réalisations. J’ai côtoyé d’innombrables chercheurs dans ce domaine et discuté avec nombre d’entre eux. Premier constat : tous sont universitaires, donc fonctionnaires de recherche. Ce ne sont pas des fanas qui investissent tout ce qu’ils ont pour trouver comme le fit Bernard Palissy, au risque de tout perdre. Deuxième constat : ils sont tous informaticiens, bien entendu. Ce « bien entendu » est ironique de ma part puisque je suis un chercheur non informaticien dont le nombre de découvertes depuis 1986 prouve que c’est loin d’être un handicap.

Dans les années 1970 l’IA (l’intelligence artificielle) était un concept simple : c’était un ordinateur donnant l’impression de posséder une intelligence humaine. A l’époque, tout le monde avait compris que l’intelligence repose sur le raisonnement, grâce auxquels nous résolvons nos problèmes. Ce qu’on appelle la « logique ». Aujourd’hui, bizarrement, cette notion a disparu du discours des chercheurs et on parle dans les médias d’IA à tort et à travers en brouillant le message. Les ordinateurs qui battent nos champions au Go ou aux échecs, par exemple, ne relèvent aucunement de l’IA. Ils y parviennent grâce à des puissances de calculs inhumaines et sont parfaitement stupides. Contrairement à un joueur humain ils sont incapables d’expliquer pourquoi ils ont fait tel ou tel coup. Leurs choix sont le résultat de calculs statistiques qui leur dit que tel coup est probablement le meilleur.

Au cours de mes longues discussions des dernières années sur LinkedIn avec des chercheurs, surtout américains, j’ai fait un constat étonnant : pour eux, l’intelligence est un concept flou. C’est tout de même un comble pour un mot que tout le monde comprend ! Comment peuvent-ils mener des recherches sur l’intelligence artificielle s’ils ne savent pas ce qu’est l’intelligence ? On comprend mieux pourquoi tous ces énormes et coûteux centres de recherche sur l’IA n’aboutissent à rien en dépit de dizaines d’années de labeur.

Ils croient que l’intelligence est l’apanage de l’homme alors que la logique sur lequel elle repose est un mécanisme bien connu (le syllogisme) commun à… tous les êtres vivants ! Même les végétaux. Sans elle, il leur serait absolument impossible de survivre plus de quelques secondes.

Quand je leur donne ma définition : l’intelligence c’est le raisonnement sur la connaissance, qui m’a permis de mener à de nombreuses découvertes passionnantes et de donner à l’ordinateur des facultés intelligentes réservées à l’humain, aucune réaction. Pas de question sur ces découvertes. Aucune demande de démonstration ! Ce manque de curiosité est proprement incroyable.

II – Brève histoire de l’IA

Revenons à l’histoire officielle de l’IA. En 1958, soit au tout début des ordinateurs et de l’informatique, John McCarthy aux Etats-Unis proposait déjà d’utiliser la logique comme langage de représentation des connaissances, c’est à dire comme langage de programmation. Au lieu de ce procédé antinaturel et alogique qu’est l’algorithmique, toujours incontournable aujourd’hui ! Dans la foulée, il inventait le terme « intelligence artificielle » et créait en 1962 le premier laboratoire d’intelligence artificielle à l’université Stanford.

C’est le moment d’expliquer contre quoi lutte l’IA depuis toujours : contre l’algorithmique et donc contre le développeur informaticien. L’algorithmique consiste à donner une suite d’instructions à l’ordinateur sans rien lui expliquer, ce qu’on appelle un « programme ». L’informaticien est assuré ainsi de l’empêcher de réfléchir. De plus, cette suite d’instructions est codée ! Codée dans des langages spéciaux qui n’ont plus rien à voir avec le français ou tout autre langue. Les premiers langages comme le Fortran pour le calcul (1954) et le Cobol pour la gestion (1959) étaient presque lisibles. Hélas par la suite, nos amis informaticiens se sont ingéniés à imaginer des langages de plus en plus incompréhensibles et illisibles (même pour eux !). Jusqu’à Java et C aujourd’hui, des langages totalement abscons pour un non informaticien.

Pour programmer, non seulement il faut avoir été longuement formé mais la démarche en elle-même oblige à un travail de bénédictin : avant de coder, il faut avoir répertorié les milliers de cas (ou les millions) que le futur programme rencontrera pour les lui faire mémoriser. Le cerveau humain ne fonctionne évidemment pas comme ça. Pour résoudre un problème, nous ne mémorisons au préalable des milliers de cas. Nous en sommes incapable. Il nous faudrait une mémoire infinie… d’ordinateur. Nous emmagasinons de la connaissance pour raisonner dessus. Cela prend beaucoup moins de place et ouvre de beaucoup plus vastes horizons.

Le collègue de McCarthy,  Marvin Minsky, donnait la 1ère définition de l’IA dès cette époque :  « l’intelligence artificielle est la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ».

Plus tard, en 1983, un autre américain, Edward Feigenbaum, lui aussi Prix Turing (le prix Nobel américain de l’informatique) rêvait dans un livre sur ce que devait être l’intelligence artificielle : « Les machines posséderont la puissance du raisonnement. Elles seront capables de traiter automatiquement de vastes quantités de connaissances pour servir l’homme, du diagnostic médical à la conception des produits, de la décision en gestion à l’éducation », « l’animal raisonnant que nous sommes va, probablement inévitablement, façonner la machine à raisonner »,« la puissance de raisonnement de ces machines sera égale ou supérieure à la puissance de raisonnement des humains qui les auront mises au point et, dans certains cas, à la puissance de raisonnement de tout expert effectuant de telles tâches ». On peut dire que l’IA était alors bien cernée dans l’esprit des chercheurs américains : l’intelligence c’est le raisonnement.

Les chercheurs américains parlent beaucoup dans les médias mais agissent peu dans leurs labos. Aucune réalisation à leur actif dans le domaine de l’automatisation de la logique. Ce ne sont apparemment pas des intellectuels. Il faut venir dans la vieille Europe – et avant tout en France – pour en trouver. MacCarthy produit en 1958 un langage soi-disant d’IA tout à fait hermétique : LISP, qui décrit les instructions par imbrication de parenthèses (« Lots of Insipid and Stupid Parenthesis » disent méchamment ses détracteurs). Cette complexité inutile démontre qu’il n’a finalement rien compris à l’intelligence humaine. Lisp a cependant un succès fou auprès des informaticiens, connus pour aimer les défis intellectuels… tant qu’il y a de l’algorithmique dedans ! Pendant ce temps-là, ce sont les Français qui approchent une vraie IA, en silence.

En 1972, deux Français, Alain Colmerauer et Philippe Roussel, créent le langage Prolog, le premier langage informatique produisant un raisonnement. Il s’agit d’un raisonnement si rustique qu’il réclame des informaticiens pour sa mise en oeuvre. Le succès est cependant immense auprès de la communauté informaticienne mondiale qui, comme vous le savez, « aime les défis intellectuels tant qu’il y a de l’algorithmique dedans »

Le plus drôle, c’est ce qu’ont voulu en faire les japonais des années 1980,  très copieurs, croulant sur l’or et désireux de rattraper leur retard technologique sur l’Occident. Ils découvrent dans une université américaine « a photocopy of a photocopy » d’un texte présentant le langage Prolog comme LE langage d’intelligence artificielle génial.  En 1990, ils créent donc un centre de recherche dans lequel ils investissent des milliards de yens pour construire un « ordinateur de 5ème génération », alors qu’on en est à la 3ème en occident…

Cette super-machine parlera Prolog… Comme vous et moi. Elle sera donc automatiquement intelligente, n’est-ce pas ? Elle rendra obsolètes leurs concurrentes occidentales les plus sophistiquées. Comme d’habitude à l’époque, ils pillent systématiquement toutes les recherches en IA de l’Ouest, embauchent ses chercheurs et entassent le tout dans une énorme machine, comme on gave une oie. Aux US et en France, face à une telle débauche de moyens, on pète de trouille…  Je ne plaisante pas ! Je l’ai vécu personnellement : « En 1 an ils ont rattrapé 10 ans de recherches et n’ont plus qu’un mois de retard sur nous » (le chercheur Mehmet Dincbass en revenant du Japon où il a vu la machine). 

Après une dizaine d’années de présence dans les médias, silence… Le projet pharaonique meurt. Sans avoir rien produit du tout. En effet, il n’y a pas d’intelligence dans Prolog. Ni d’ailleurs dans le cerveau des chercheurs japonais (de l’époque, bien sûr !).

C’est encore en France que l’IA débouche enfin ,en 1982. Un obscur chercheur, Jean-Louis Laurière (Paris VI) développe « Pandora »,  un système-expert raisonnant selon les principes du syllogisme. Le syllogisme, c’est notre raisonnement de tous les jours décrit il y 2 400 ans par Aristote. C’est dire à quel point cette logique-là c’est pas de la blague ! Elle fournit le « raisonnement critique » voulu par Minsky. Par raisonnement critique, il voulait dire un raisonnement qui s’auto-contrôle, capable de vérifier qu’il ne déduit pas de bêtises. Une ambition de l’IA qui pouvait sembler hors de portée…

Or, Pandora fait ce raisonnement critique ! Il fournit des déductions, explique son raisonnement et… détecte les contradictions ! Mieux encore, pour développer le programme il suffit de lui donner une connaissance écrite en langage courant (sous forme de règles ou de vérités). Il se met alors à raisonner et diagnostiquer comme le ferait un expert !

Cette réalisation est si efficace que Pandora sera vendu tel quel dans le commerce en 1986 et 1987, sous le nom d’Intelligence Service. C’est ainsi que je le découvrirai, que je l’achèterai et que je créerai ma 1ère société, Arcane, pour vendre ce bijou aux entreprises. Ce qui m’a frappé dans cet outil, c’est la découverte que l’on pouvait automatiser le raisonnement, avec des résultats ahurissants. Enthousiaste, je mènerai ensuite ma R&D sur ce concept, avec de belles réussites et une absence totale de soutien de la part de l’establishment français en IA.

III – Jean-Louis Laurière, l’homme qui voulait que l’on ignore son invention

Le plus extraordinaire dans l’histoire de l’intelligence artificielle, ce fut le hara-kiri absurde du chercheur Jean-Louis Laurière : pendant 23 ans, il fera tout pour étouffer la moindre référence à Pandora. Avec le soutien actif de ses collègues et disciples. Cherchez sur le web et vous ne trouverez rien sur Pandora, sauf ce que j’en ai écrit (cherchez « système expert Pandora » et vous verrez). A sa mort en 2005, ses élèves et collègues ont dressé un panégyrique de ses recherches. On y trouve tous ses projets qui n’ont mené nulle part mais aucune mention de Pandora qui a donné tout le marché de l’intelligence artificielle raisonnante jusqu’à aujourd’hui. Une des deux thésardes qui l’avaient développé sous sa direction, Odile Paliès, a même écrit à Science et Vie (qui avait osé parler de Pandora en 1991) pour affirmer avec force que Pandora n’avait aucun intérêt et réclamer “au titre du droit de réponse” que la revue en convienne officiellement et n’en parle plus ! Dans une lettre officielle émanant de l’Association Française de l’Intelligence Artificielle (AFIA, composée essentiellement d’informaticiens universitaires). Hélas pour elle, Science et Vie n’a rien convenu et ce courrier maladroit a atteint le but contraire : attester de l’existence de Pandora alors que Paliès et consorts voulaient la cacher…

Si quelqu’un a une idée qui expliquerait pourquoi un inventeur et ses disciples tuent la seule invention qui laissera d’eux une trace dans l’histoire, qu’il me le dise !

Afia2   Afia3

…et pour constater l’omerta, voici le contenu du livre Enseigner les travaux de JeanLouis LAURIÈRE co-écrit en 2006 par la même Odile Palliès :

  • Thèse 3ème cycle (1971, Paris 6) : Sur la coloration des hypergraphes. Applications aux problèmes d’emplois du temps
  • Thèse d’état (1976 , Paris 6)       [ALICE] : Un langage et un programme pour énoncer et résoudre des problèmes combinatoires
  • SNARK (1981- …) et l’approche SBC : Un langage déclaratif et un moteur d’inférence
  • Développements et applications multiples
  • Représentation des connaissances (articles TSI 1983-84)
  • Suites d’ALICE, Rabbit (1992 – …)
  • Création d’enseignements par JL Laurière
  • DEA Informatique Fondamentale/IA : module « Résolution de problèmes », en 1977-78 (autre module IA : Jacques Pitrat)
  • Maîtrise Informatique : création du module « Intelligence Artificielle » en 1982-83
  • Ouvrages : Résolution de problèmes par l’Homme et la machine (1986), Représentation des connaissances (1988)
  • Autres enseignements
  • DESS IA : à partir de 1985-86
  • Résolution de problèmes, ALICE
  • SBC, systèmes à base de règles, SNARK
  • DEA et maîtrise (suite…), puis master M1 et M2

Rien sur Pandora ! Une seule conclusion possible : selon cette dame, cette invention à laquelle elle a participé en tant qu’étudiante n’a jamais existé… Oups !

Si l’on ajoute à cette découverte le refus systématique des universitaires informaticiens de  Wikipedia de parler de Laurière, de Pandora ainsi que de mes propres recherches inspirées de ces travaux (tous mes articles à ce sujet sont effacés…), on mesure que l’IA n’est pas près de devenir une réalité.

Mais n’est-ce pas justement ce que veulent les informaticiens ?

 

Publicités

3 réflexions au sujet de « Brève histoire de l’Intelligence artificielle : Jean-Louis Laurière, l’homme qui voulait qu’on ignore son invention »

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s