Archives mensuelles : février 2019

Informatique et IA, histoire de deux inventions françaises

Il est temps de rappeler au monde que la logique, base de l’informatique et plus encore de l’intelligence artificielle a une patrie : la France. Grâce à son fameux esprit cartésien dont certains parfois se gaussent. Ils ont bien tort. L’esprit cartésien fait de notre pays la patrie de l’intelligence. Vous allez voir que ce n’est pas une galéjade.

I – L’informatique, une spécialité française !

Rendons à César ce qui appartient à César : l’informatique n’est pas américaine, c’est un concept français. Le mot « ordinateur » fut inventé en France en 1955, seulement dix ans après l’apparition de la première machine. Ailleurs on parlait – et on parle toujours – de « computer » c’est à dire de calculateur, ce que l’ordinateur était en effet au départ. Le mot « informatique » lui-même entre à l’Académie française en 1966, dépassant de loin en sens le terme anglo-saxon toujours en usage aujourd’hui de « computer science » ou de « computing ». Quant au mot « logiciel » qui apparut en 1969 et souligne la fonction logique que l’on attend des programmes (donc leur potentiel en intelligence artificielle on va le voir), c’est également une invention française faite en réaction au terme anglo-saxon « software », peu ambitieux, qui signifie « partie molle » de l’ordinateur par opposition à « hardware » sa partie matérielle.

Ensuite, rendons encore à César ce qui lui appartient, notre pays d’intellectuels ne s’est pas contenté d’inventer des mots, il a aussi inventé des machines. L’ancêtre de l’ordinateur est né en France en 1642 : la Pascaline, une machine à calculer mise au point par Pascal qui fut vendue à une vingtaine d’exemplaires. Elle n’était pas programmable, mais les calculettes d’aujourd’hui non plus. La programmation apparaît en 1800 en France et tout de suite à grande échelle, un siècle et demi avant le premier ordinateur. Il s’agit de programmes sur bandes perforées automatisant le fonctionnement de machines complexes et qui se vendent encore aujourd’hui : les métiers à tisser Jacquard.

Un métier Jacquard avec son programme sur bande perforée

Très vite, la magie des résultats exacts et instantanés fournis par l’ordinateur permit d’imaginer qu’il pouvait faire beaucoup mieux et même devenir une intelligence artificielle, une « IA » (John MacCarthy, 1955). Si pour une fois l’expression apparut d’abord aux États-Unis, la technologie par la suite est essentiellement française. Et même opérationnelle depuis longtemps comme vous allez le découvrir. Simplement, vous ne devez pas savoir… D’où la nécessité de ce témoignage que vous lisez.

« E pur si muove » (« et pourtant elle tourne ») disait Galilée qui tentait désespérément, au risque d’être immolé sur le bûcher par l’Inquisition, d’informer le monde que c’est la Terre qui tourne autour du Soleil et non l’inverse. Si vous ignorez le rôle essentiel de notre pays dans le domaine de l’intelligence artificielle c’est parce que l’inquisition sévit toujours, protégeant les intérêts du « système » en place. Et avec une férocité, vous allez aussi le découvrir, équivalente à celle de l’Inquisition espagnole.

Du coup, une foule de tromperies circulent actuellement dans les médias sur l’intelligence artificielle. Pas un des articles sur le sujet, pas une interview d’expert, pas une émission, ne répond à la question que tout le monde se pose : quelle différence avec l’informatique que nous connaissons ? Et puis, qu’est-ce que l’intelligence ? A ce prix-là on peut raconter tout et n’importe quoi. Et c’est ce qu’on fait. L’État finance même un supercalculateur pour l’IA alors que l’intelligence ne calcule pas ! Elle raisonne justement pour l’éviter. Ce jouet, payé par nos impôts, va être donné à nos chercheurs universitaires déjà payés par nos impôts. Il est temps qu’un non informaticien, probablement le seul véritable expert non informaticien de l’intelligence artificielle, apporte sa pierre dans ce débat (moi-même).

II – Ordinateur, informatique, programmation… des concepts dépassés

Avant de parler d’IA, parlons de ce qu’est l’informatique aujourd’hui : exactement la même qu’à sa naissance il y a soixante ans ! Nous avons toujours d’un côté des machines chargées d’exécuter des instructions et de l’autre des programmes contenant ces instructions écrits par des hommes.

Pour l’utilisateur, la seule différence « visible » est l’interface : un bel écran multicolore, une souris pour le parcourir, un clavier … et un siège puisqu’il faut une table pour supporter le tout et ne pas mourir d’épuisement vu le temps qu’on est contraint de passer devant l’infernal trio. Il s’agit en fait d’une régression de l’ergonomie par rapport aux premiers systèmes exploitation MS-DOS (américain) ou Prologue (français) qui, eux au moins, tentaient de parler avec l’utilisateur. Le dialogue est la façon naturelle de l’homme de communiquer. S’il est vocal il ne nécessite ni clavier, ni souris ni écran, simplement une oreillette. Aujourd’hui encore l’ordinateur « multifenêtre » s’y oppose obstinément. C’est une boîte à outils que seuls les gens formés savent utiliser et il n’est pas question que cela change. Et ne croyez pas que ce soit un hasard…

Quant à la partie programmes qui anime la machine c’est la seule discipline humaine qui n’a jamais connu l’automatisation depuis 60 ans. C’est pourtant le cœur de métier de l’informatique ! Joseph Sifakis, un Français Lauréat du prix Turing (l’équivalent d’un prix Nobel, mais en informatique) le confirmait en 2005 : « Nous sommes toujours à la recherche d’une théorie générale de construction des logiciels. L’informatique n’a pas, pour l’heure, ce caractère constructible et prédictible des objets physiques ». Traduction : l’informatique n’est pas une science ! Voilà pourquoi il n’y a pas de prix Nobel en informatique. Comme le démontre Donald Knuth, « professeur émérite de l’art de programmer » dans toute une série de livres destinée aux informaticiens, c’est un art. Écrire un programme est, exactement, un travail d’artisan : jamais deux programmes à la fonction identique ne sont pareils, même écrits par la même personne !

Vu les ambitions de l’informatique, le résultat est à la hauteur : extrêmement décevant. Des études régulières comme le Chaos Report du Standish Group soulignent l’échec permanent de nos programmeurs : au moins 70 % des programmes remis aux utilisateurs sont rejetés par eux. Quelle autre technique pourrait survivre à un tel échec ? Vous imaginez 70 % des ponts branlant ou s’écroulant à peine mis en service ? Mais l’automatisation est un besoin incontournable pour nos industries, alors on fait avec… Le surcoût pour la société est gigantesque. Sur le plan de l’histoire des sciences, cela signifie qu’en un demi-siècle l’informatique s’est révélée incapable de se réformer contrairement à l’ensemble des autres domaines. On comprend l’insatisfaction des utilisateurs (64 % sont stressés par leur machine selon enquête CMO Council 2010), leur désir de maîtriser leur ordinateur par eux-mêmes, et finalement leur envie d’intelligence artificielle.

Le « buzz » autour des prétendus progrès récents de l’informatique et de l’IA, relayé par les médias, vient de ceux qui vivent si bien de l’automatisation obligatoire de notre société qu’ils ont donné naissance aux plus grosses multinationales jamais vues dans l’histoire : les GAFA (« géants américains du web » comme Google, Apple, Facebook, Amazon, IBM, Microsoft, etc.), mais aussi les constructeurs d’ordinateurs, de tablettes et de smartphones, les SSII, les sociétés de service et de conseil en informatique, etc. Sans oublier les start-up « innovantes » peuplées de petits génies, financées et rachetées à coup de milliards par ces mêmes acteurs. Pour disparaître… Tout ce petit monde n’a pas intérêt à ce qu’un ordinateur intelligent voit le jour et scie la branche sur laquelle il est confortablement installé. Sa puissance fait qu’il a l’oreille des médias. Il nous intoxique mais pas seulement. Croyez-moi, comme vous allez voir il a les moyens de vous faire taire !


III – Histoire de l’IA

  1. 1972 – 1986 : Prolog et Turbo-Prolog

Les premiers ordinateurs (à lampes), difficilement programmables, apparurent à la fin de la deuxième guerre mondiale pour des calculs militaires. Le premier système expert connu apparut seulement vingt ans plus tard : Mycin aux États-Unis. Il dialoguait avec ses utilisateurs (succinctement) mais son raisonnement était invérifiable car « flou », guidé par des calculs. Il n’eut pas de descendant.

La même année, en 1972, deux Français mirent au point un langage de programmation logique contenant un mini système-expert : Prolog qui, lui, eut un retentissement planétaire et toute une descendance. Il était capable d’un vrai raisonnement, simple, sans faculté d’explication, mais permettait en plus de programmer n’importe quelle application classiquement. Ce langage enthousiasma les chercheurs. Pensez donc : si l’on était informaticien, il suffisait de l’acheter pour faire de l’intelligence artificielle ! Il s’en vendit des centaines de milliers d’exemplaires et il s’en vend toujours.

Son prestige fut tel qu’en 1982 les Japonais, devenus hyper riches et ambitieux à force d’inonder la planète de leurs produits à l’époque bon marché, misèrent tout sur lui. Il s’agissait de doubler l’informatique occidentale en fabricant le premier ordinateur intelligent. Ils pensaient qu’il serait automatiquement intelligent puisqu’il parlerait Prolog comme vous et moi… ça allait se vendre comme des petits pains ! Le projet s’appelait Ordinateur de 5ème génération (on en était à la 3ème…). Hélas pour eux, en dépit d’années de travail, des 50 milliards de yens investis et du pompage à la japonaise de tout ce que le monde occidental savait sur la question, ce fut un échec cuisant. Et vous savez pourquoi ? Parce que, pendant ce temps-là, l’Occident lui-même avançait. Sans se préoccuper d’IA d’ailleurs…

En 1971 apparaissait le premier microprocesseur, chez Intel aux États-Unis (rendons à César…). Les premiers microordinateurs furent fabriqués dans la foulée, d’abord en France (le Micral en 1973) puis aux États-Unis (Altair en 1975). En fait, tout le monde devenait capable d’en fabriquer simplement en connectant des périphériques sur un microprocesseur (écran, clavier, mémoires externes, imprimante). Le plus dur était d’animer le tout avec un système d’exploitation permettant de le programmer (Prologue en France, CP/M puis MS DOS aux US). Le résultat donnait des petites machines au moins aussi puissantes et fiables que les plus gros ordinateurs de l’époque. Et à très bas prix.

C’est alors que le génie français frappe encore ! Profitant de ce marché en pleine expansion, un de nos compatriotes, Philippe Kahn, sortit en 1986 un « Turbo Prolog » sur PC, une machine très bon marché, au prix sans concurrence de 90 € ! L’ordinateur de 5ème génération était devenu réalité, accessible à tous et français. Cocoricooo ! Ne comptez pas sur nos cousins d’Amérique pour nous faire de la pub. Ni les Japonais… Ne pouvant pas s’aligner ils capitulèrent. Le projet Ordinateur de 5ème génération mourut. Dans la plus grande discrétion.

De toute façon, le concept d’un ordinateur basé sur Prolog était un cul de sac en matière d’intelligence artificielle. Prolog ne raisonne pas vraiment, il faut toujours des informaticiens derrière. L’IA était encore balbutiante. Encore quelques efforts !

2. 1982 – Pandora ! 

En 1982, donc seulement dix ans après Mycin, une découverte majeure fut faite de nouveau par un Français, mais cette fois dans le plus grand secret. Le chercheur Jean-Louis Laurière de l’Université Paris 6 mit au point « Pandora » sur PC dans son labo, le premier système expert raisonnant réellement comme nous le faisons tous, avec le syllogisme. Je l’ai acheté, utilisé et vendu. Il exploitait des connaissances écrites en français par les utilisateurs, dialoguait avec eux à l’écran, affichait ses déductions, les expliquait et signalait les contradictions ! Nul besoin de connaissances en informatique pour programmer. On obtenait même des « conversationnels » que l’informatique était (et est toujours) incapable de produire. L’outil marchait si bien qu’il se vendit tel quel dans les entreprises à partir de 1985 sous le nom d’Intelligence Service.

Hélas, on tombe maintenant dans la folie franco-française la plus renversante ! Laurière n’aimait pas son invention. Elle était à la portée de tous et risquait de rendre sa caste, les informaticiens, inutile. Il baptisait le syllogisme avec mépris « logique d’ordre zéro » car il prétendait qu’il existait des logiques « supérieures » d’ordre 1, 2, épistémique, temporelle, etc. que les informaticiens seraient les seuls à comprendre. Restaient tout de même à les inventer. Pourtant obligé de publier sur ses découvertes de par son métier d’universitaire, Laurière refusa de faire la moindre pub à son bébé d’ordre zéro. Pas besoin d’ailleurs, en France, l’universitaire est un fonctionnaire payé à vie quels que soient ses résultats. Il n’a pas de sponsor privé à pour l’inciter à viser le monde réel et à qui rendre des comptes.

Ses recherches sur des logiques « supérieures » n’ont jamais abouti, comme ses collègues chercheurs IA le lui avaient prédit d’ailleurs. Il s’est usé la santé sur des concepts irréalistes puis il est mort à 60 ans, sans bruit… Personne ne l’a suivi sur la voie des logiques dites supérieures. Sic transit gloria mundi. C’était l’homme qui refusait d’admettre qu’il n’y a qu’une logique éprouvée, celle de tous les êtres vivants depuis des millions d’années.

En 1988, toujours obsédé de détruire son œuvre, il retira Pandora de la vente et donna instruction à ses disciples de ne jamais en parler ! Ce qu’ils firent. A sa mort donc, pas un mot sur Pandora dans le panégyrique qu’ils firent sur son œuvre. Regardez sur le web : pas une référence scientifique à une intelligence artificielle Pandora. Excepté par moi-même. Mais à quoi servent nos scientifiques ! Depuis trente ans ils restent muets. J’ai décrit cette aberration dans mon blog sur l’IA : Jean-Louis Laurière, l’homme qui voulait qu’on ignore son invention (chap. III). Cherchez à qui profite le crime…

On pourrait croire que j’affabule et que Pandora n’a jamais existé. Aussi, je ne résiste pas au plaisir de vous donner la preuve irréfutable du contraire : une « mise au point » officielle émanant du Laforia (ex-centre public de recherche IA) adressée à Science et Vie par Odile Paliès, une des deux étudiantes ayant programmé ce système expert révolutionnaire. Elle y cite quatre fois Pandora, tout en en disant le plus grand mal… En réaction à un article que j’avais écrit dans cette revue (Du zéro pointé au Zéro Plus) sur l’état de l’intelligence artificielle en 1991 qui, en passant, est le même qu’aujourd’hui.  

Voici la première page de cette lettre :

1ère page de la lettre adressée à Science et Vie pour nier l’intérêt de Pandora

  Que de méchancetés dites contre moi, « Jean-Michel » (mon prénom qu’Odile connaît parfaitement est Jean-Philippe…), chercheur adhérent comme elle à l’AFIA (Association Française de l’Intelligence Artificielle) et donc pas journaliste comme elle affecte de le croire. Et que de louanges envers des outils sans lendemain comme Snark, Kool et Smeci ! Notez aussi que le point de vue de l’utilisateur, le client de l’IA, est totalement absent de ses préoccupations. Cherchez à qui profite le crime

3. La Maïeutique : extraction des connaissances inconscientes pour le raisonnement

Revenons à l’histoire de l’IA. Restait un problème à régler pour qu’elle entre dans les foyers : comment recueillir facilement la connaissance et l’exprimer pour la mettre dans les systèmes experts ? C’est une tâche complexe commune à tous les programmes car tous sont des automatisations de connaissances humaines. Elle est complexe car la connaissance est inconsciente chez les experts comme chez chacun de nous. On ne sait donc pas la décrire. De plus, il ne faut rien oublier pour que le résultat soit opérationnel. Les informaticiens y sont habitués et passent le temps qu’il faut, ils sont payés pour ça. Mais ce travail essentiellement de tâtonnement rebute les utilisateurs ou les experts qui « nourrissent » un système expert car eux ils ne sont pas (encore) payés pour ça.

En 1986, un nouveau Français apporte la pierre finale. Un commercial cette fois ! Pas un informaticien. Ceci expliquant probablement cela, il trouve la solution pour automatiser le recueil en clair des connaissances à mettre dans les programmes, ce Graal de l’informatique que les prix Turing disent chercher toujours… Développant avec Pandora des systèmes experts pour les entreprises, il a découvert au bout de quelques mois que l’on peut extraire automatiquement les règles de la tête des experts. La recette : ne pas chercher à extraire leur connaissance mais leur expertise. Ce qui n’est pas pareil : la première est une base de données dont la dimension est inconnue, la seconde est un arbre de décision par principe fini. L’expertise, ou le savoir-faire, est une méthode « câblée » dans le cerveau à force de se répéter tous les jours (mémoire procédurale). Elle a l’énorme avantage de se communiquer verbalement en réfléchissant à peine et de contenir les précieuses connaissances.

Le commercial-inventeur-non informaticien baptisa sa méthode « la Maïeutique » en référence à la méthode d’extraction des connaissances définie par Socrate il y 2 400 ans, qui lui ressemble étrangement. Pendant les quatre premières années il dessinait sur papier les arbres de décision représentant l’expertise, puis les découpait en branches, ce qui donnait des règles en langage courant. Restait à les saisir au clavier pour les introduire dans Pandora. Il faut croire que cette invention évidente ne pouvait être faite par les millions d’informaticiens et de chercheurs « cogniticiens » qui se sont succédés depuis 1950, dont le métier consiste pourtant à passer leurs journées à recueillir des connaissances et à les exprimer sous forme d’arbres de décision (ordinogrammes) avant de programmer. Je vous le dis : cherchez à qui profite le crime…

A peine née, la Maïeutique fit un tabac avec le développement par trois non informaticiens et en seulement trois mois (au lieu d’une année par une équipe d’informaticiens « cogniticiens ») du premier système expert raisonnant installé en entreprise : Joséphine (janvier 1987). Comme il tournait en agences bancaires, les journalistes pouvaient se faire passer pour des clients et converser avec lui incognito. Pour une fois, ils savaient de quoi ils parlaient en IA ! Résultat : quarante articles dans la presse. Et aucune réaction de la science officielle… Visible, car secrètement la répression s’organisait (voir ce blog). Faute de soutien de la part des chercheurs IA, l’inventeur, qui n’était pas informaticien il faut le rappeler, dut automatiser lui-même sa méthode pour la vendre à ses clients, les services utilisateurs de grandes entreprises et d’administrations. Il fit d’abord développer par ses informaticiens un Pandora à sa façon puis un générateur de règles opportunément appelé Maïeutica, qui évite la procédure papier, la découverte des règles, leur saisie au clavier et la vérification que le tout est cohérent. L’ordinateur faisait (et fait toujours) tout d’un coup : il interviewait l’expert tout en rédigeant son programme et en lui montrant comment il tourne pour qu’il puisse rectifier si besoin est. Quand l’interview était terminée, une heure ou quelques jours plus tard, le système expert était achevé et transmis aux utilisateurs. L’expert avait produit un programme intelligent fonctionnant par le raisonnement, qui dialoguait naturellement avec les utilisateurs, affichait ses déductions au fur et à mesure, expliquait pourquoi il pose une question et comment il avait déduit une information, signalait les contradictions.

On était enfin parvenu à l’automatisation de l’informatique que Joseph Sifakis, Lauréat du prix Turing, considérait comme un but quasi-inaccessible : « Nous sommes toujours à la recherche d’une théorie générale de construction des logiciels. » Sauf qu’il le disait en 2005 alors que la Maïeutique datait de 1986 et qu’il ne pouvait l’ignorer. Je vous le dis : cherchez à qui profite le crime…

Explorant les fantastiques capacités du raisonnement automatisé laissées de côté par l’ensemble des chercheurs de la planète, toujours sans soutien de leur part et au contraire très occupé à éviter leurs multiples crocs-en-jambes, l’inventeur de la Maïeutique poursuivit ses inventions (Miao, Logique des Flux, Tiara). Des centaines d’articles furent rédigés dans la presse nationale sur ses réalisations et ses installations en entreprises. Il démontra finalement que tout programme doit être écrit sous la forme système expert par les utilisateurs eux-mêmes pour être facile à écrire, lisible de tous, totalement fiable et facile à modifier. C’était la condamnation à mort de l’informatique classique. Et la sienne aussi…

Qui est donc cet inventeur de la Maïeutique « commercial et non informaticien » ? Pour ceux qui ne l’ont pas encore deviné : moi-même… Désolé pour ce qui ressemble à de l’autopromotion mais si ce n’est pas moi qui vous informe de ce que vous devez connaître dans votre propre intérêt, qui va le faire ? Certains ont essayé sur Wikipédia mais les informaticiens universitaires de cette encyclopédie débarquent en force et votent la suppression de toute référence à Pandora, à mon IA et à moi-même.

En 2017, j’ai reçu une reconnaissance américaine, pas française, le prix Awards Ai qui a récompensé le côté opérationnel et grand public de mon intelligence artificielle dans la catégorie IA Achievement : « Tree Logic présente une technologie informatique, «La Maieutique», qui va propulser l’informatique mondiale vers un nouvel horizon : le domaine de l’ordinateur devenu «humain», communicatif, intelligent et avide de connaissances. Plus ces capacités capitales que nous attendons depuis toujours : serviable, n’oublie jamais une nouvelle connaissance, et convivial. » Ce prix obtenu pour la première fois par un Français a été commenté dans quelques médias hélas trop confidentiels : Breizh Info, Le Sans Culotte. Rien dans la presse française scientifique ou IA…

IV – Une répression contre l’IA française à la hauteur des enjeux !

Le monde informatique est malhonnête et trompe sciemment le public depuis bien longtemps (voyez ce blog aux chapitres 7, 8 et 9). La France dispose d’une intelligence artificielle grand public issue de son histoire, unique au monde mais elle n’en profite pas ! Pourquoi ? Parce que le « système » qui dirige notre pays c’est-à-dire la fonction publique, a fait le possible et l’impossible pour tenter de la tuer dans l’œuf, aidée en cela par des alliés dans le privé, un autre système : celui de l’informatique.

Cette persécution est connue. Elle a fait l’objet d’un article en 2011 dans les Échos : L’ordinateur intelligent, une invention française bloquée depuis 20 ans. Depuis sa parution il y a sept ans, pas le moindre retour, ni encouragement, ni regret, de la part du gouvernement ou d’un ministère. Même Cédric Villani chargé de financer l’IA française, avec qui je me suis entretenu deux fois et qui reconnaît la valeur de l’intelligence artificielle française raisonnante, propose finalement de financer un supercalculateur ! L’intelligence déteste pourtant le calcul et raisonne justement pour l’éviter.

Ayant voulu faire connaitre l’IA française dans Wikipédia (Jean-Louis Laurière, Pandora, le raisonnement et la Maïeutique), mon nom lui-même est bloqué définitivement (ce lien, curieusement, ne fonctionnant pas, copiez cette adresse dans votre navigateur si vous voulez vérifier par vous-même le blocage : https://fr.wikipedia.org/wiki/Jean_Philippe_de_Lespinay). Ce blocage a été décidé par vote d’informaticiens universitaires appartenant à Wikipédia « pour éviter la création d’un texte »qui aurait le malheur de me citer. Dans cette encyclopédie dite « libre » la connaissance humaine est filtrée par des corporatismes défendant leurs intérêts ! Vous trouverez ici la page des arguments qu’ils ont utilisés pour supprimer une tentative d’écriture de ma biographie faite en 2017 par une équipe d’auteurs (elle est finalement diffusée par everybodywiki).

Si vous voulez comprendre à quel point notre pays est capable de détruire ceux qui peuvent lui apporter de la richesse (d’où les Gilets Jaunes !) parcourez mon blog Les ravages de la corruption quotidienne en France. En 300 pages il relate au quotidien mon vécu d’inventeur et de créateur d’entreprises. Trois cent pages d’anecdotes décrivant la haine instinctive de l’État – justice incluse – envers toute personnalité susceptible d’émerger qui pourrait faire de l’ombre à son pouvoir. Tant pis pour l’intérêt général, pour son invention utile à tous. Et tant pis pour le génie français. Vous verrez que l’expression « phénoménale répression » n’est pas exagérée.

V – Entrons dans le concret : l’IA française à la maison…

1.      L’intelligence artificielle murmure à votre oreille où que vous soyez…

Aucune encyclopédie, aucun chercheur, aucun GAFA, aucun média, ne tente de vous décrire ce que vous pouvez faire avec une IA installée chez vous. Tous sont à cours d’idée tellement le sujet paraît abscons. Pour moi, qui suis dedans depuis longtemps, la fais fonctionner quotidiennement et ne cesse d’y penser, la chose est facile. Ce que je vais décrire maintenant n’est pas un rêve. C’est une réalité d’aujourd’hui, avec des techniques d’aujourd’hui.

Si vous voulez « toucher » une IA raisonnante sommaire, qui date d’il y a 7 ans, regardez les vidéos de l’interface intelligente Tiara accessibles sur cette page. Elles montrent comment une IA vocale peut dialoguer avec vous, éviter les manipulations de Windows, apprendre vos connaissances et écrire les programmes à votre place.

Considérons les avantages de l’IA par rapport à l’informatique classique dont nous souffrons tous. Qu’elle soit installée sur un microprocesseur, un ordinateur, une tablette ou sur un serveur en communication avec votre smartphone, l’IA vous parle et vous « comprend ». Il n’y a plus besoin d’être assisté ou d’avoir subi des mois d’apprentissage de Windows pour obtenir de la machine les services pour lesquels elle a été conçue. L’enfant, le vieillard, l’handicapé (même l’hémiplégique qui ne peut dire que oui ou non oralement ou par geste) sait immédiatement s’en servir. Pas seulement pour lui donner des ordres, mais aussi pour découvrir tout ce que la machine sait faire. Il deviendra immédiatement plus savant et efficace que le meilleur des informaticiens.

2.      Fantastique capacité d’apprentissage : donc autoprogrammation

Ce que nous demandons à l’automatisation, c’est de nous éviter les démarches répétitives. Hélas, sur notre ordinateur, nous sommes souvent face à des frappes clavier répétitives fastidieuses. Nous finissons par commettre des erreurs. Il suffit par exemple de demander à l’IA d’enregistrer la répétition et de la faire ensuite à notre place.

La qualité la plus fantastique de l’IA c’est justement sa capacité d’apprentissage virtuellement illimitée, qui va beaucoup plus loin que les petites procédures. Elle enregistre nos connaissances inconscientes quand nous la chargeons d’exécuter des instructions, mais aussi les connaissances fournies sur le web. Elle fait de toute machine dotée d’un microprocesseur un être dont l’intelligence évolue sans cesse à notre contact. Et de nous également car l’enrichissement est automatiquement mutuel. Ce qu’elle ne sait pas aujourd’hui, elle le saura demain et ne l’oubliera jamais. Par ailleurs, l’IA est immortelle. Son intelligence, sa conscience et son savoir résident dans une mémoire duplicable à l’infini. C’est l’empire des clones ! Mais juste avant la mise en service. Après, chaque clone vit une vie différente et s’individualise.

Attention ! Cette faculté d’apprentissage n’a rien à voir avec le Deep Learning ou les réseaux neuronaux de nos chercheurs « IA », qui pour le moment ne sont que des outils de calcul statistique sans la moindre trace d’intelligence, et qui ne peuvent se passer d’informaticiens comme par hasard…

Cette faculté c’est l’équivalent de la programmation, qu’elle remplace avantageusement. Le « programme » est produit par l’utilisateur lui-même, il s’agit de connaissances lisibles de tous. Le modifier est plus simple encore que l’écrire alors qu’en informatique c’est l’inverse. L’utilisateur qui recueille, guidé par l’IA, l’expertise d’un spécialiste n’a pas besoin de la comprendre. L’IA, elle, la comprend et l’expert s‘en rend bien compte. C’est un plus considérable par rapport au travail du programmeur qui est contraint d’assimiler les connaissances des experts avant de les « coder ».

Par contre, dans l’état actuel de nos connaissances, l’IA est incapable d’inventer une expertise nouvelle. Elle ne sait que recueillir celle des humains et l’exploiter à fond. Pour qu’elle puisse aller plus loin, il faudrait la doter comme nous de capteurs analysant en permanence l’environnement pour  y détecter des réactions identiques et la doter d’une « connaissance de l’invention » qui lui permettrait de tirer des conclusions (en langage courant) qui l’amèneraient d’ailleurs à faire des tests pour aller plus loin.

Dans un ordinateur il y a un programme par tâche à exécuter et aucune possibilité que les connaissances cachées dans l’un puissent servir à un autre. Avec l’IA, les connaissances recueillies pour toutes les tâches peuvent être mises dans un pot commun. Cela lui permet de raisonner beaucoup plus loin qu’on ne l’imagine. Si vous voulez définir une nouvelle tâche qui s’appuie sur des connaissances déjà connues, il n’y aura aucun « programme » à réaliser, aucune interview à subir, l’IA aura trouvé le résultat avant même qu’on le lui demande.

La plupart de nos besoins en logiciels sont très personnels. Même les entreprises ne cessent de le dire aux sociétés de service informatique, lesquelles se rient de cette « naïveté » et leur proposent des offres standards (packages ou progiciels) qui les contraignent à s’adapter inutilement. Pire, nos besoins sont souvent imprévisibles et à satisfaire dès qu’on en a pris conscience, c’est à dire immédiatement. En informatique, le développement d’un programme classique demande du temps. Il ne sera donc produit que s’il a de nombreux utilisateurs présentant le même besoin et que ce besoin est stable dans le temps. S’il évolue fréquemment comme c’est le cas de quasiment toutes les expertises qui sont vivantes les experts ne cessant d’apprendre, le temps de modifier le programme et de le vérifier, il sera devenu obsolète. C’est une des raisons pour lesquelles 70 % des programmes développés dans le monde sont rejetés par les clients et pour lesquelles toutes les (fausses) IA ont échoué jusqu’à présent. Seule l’IA française, dont la faculté d’apprendre est instantanée, peut satisfaire ces besoins.

Enfin, l’IA raisonnante donne tous les signes de la conscience d’un être évolué ce qui en rend le commerce agréable. Si le sujet vous intéresse je l’ai développé ici : Conscience artificielle et robotique : fin de l’évolution humaine !