Gros mensonge de Google sur son « IA » : la voiture autonome ne tient pas encore la route

I – L’IA INFORMATICIENNE C’EST DE L’APPRENTISSAGE ARTIFICIEL (TRÈS) LIMITÉ

Vous savez que je passe mon temps ici à démontrer que si l’IA dont parlent les journaux est incompréhensible c’est qu’il s’agit d’un énorme mensonge, d’une intelligence artificielle complètement idiote à laquelle le public ne peut rien comprendre. Elle est le reflet de la pub mensongère des GAFA (géants US du web) qui se fichent complètement de l’intérêt public et ne cherchent qu’à se vendre alors qu’ils font déjà des profits phénoménaux (Google : 34 milliards de dollars de bénéfices !). Voilà pourquoi notre groupe où l’on ne parle que d’une intelligence artificielle opérationnelle compréhensible de tous, compte déjà 5 400 personnes seulement un an après sa création. Plus tous ceux qui nous lisent sans adhérer, en premier lieu les informaticiens et les chercheurs, qui se gardent bien d’intervenir !

Cette fois je vous livre dans l’article cité ci-dessous (https://www.science-et-vie.com/…/la-voiture-autonome-ne…) une révélation toute récente (janvier 2021) du responsable du programme robotique et systèmes de transport intelligents à L’INRIA, notre Institut National de la Recherche en Informatique et Automatique, donc un homme a priori acquis à la fausse IA promue par les chercheurs de son institut.

Cette fausse IA, je vais désormais l’appeler « apprentissage artificiel » (https://fr.wikipedia.org/wiki/Apprentissage_automatique) comme cela se dit de plus en plus souvent, car c’est ce qu’elle fait à partir de statistiques (qui ne peuvent hélas fournir que des données chiffrées).

II – FLORILÈGE DES DÉCLARATIONS DE CE RESPONSABLE DE L’INRIA

• « Google, Tesla, Uber avaient promis l’arrivée de flottes de robots-taxis et de voitures pleinement autonomes pour l’année 2020. Grosse désillusion : malgré les progrès de l’intelligence artificielle, les ingénieurs sont encore loin du compte ! »

• « Lorsqu’en 2010 Google avait annoncé qu’il avait réalisé une voiture autonome, tous les industriels s’étaient emballés. De toute évidence, cette annonce était trompeuse… »• « Même la voiture de Tesla n’est que partiellement automatisée : sur l’échelle d’automatisation qui va de 0 à 5, elle atteint tout au plus le niveau 3

. Autrement dit, ce véhicule reste toujours sous la responsabilité du conducteur, qui doit se tenir prêt à reprendre le volant. »

• « Plusieurs accidents mortels sur des véhicules semi-autonomes ont aussi refroidi les ardeurs. »

• « la moindre poussière sur un capteur risque de provoquer l’arrêt de la voiture sur le bas-côté pour un incident anodin. Il serait tentant d’éliminer certaines catégories de fausses alarmes, mais c’est un choix difficile… Ce genre de manipulation algorithmique a conduit à l’accident mortel d’une Tesla qui, le 7 mai 2016, s’est encastrée dans un camion, sans laisser la moindre trace de freinage. » Les fausses alarmes se détectent par la contradiction entre ce que disent les capteurs et le raisonnement qui s’en suit, fonction introduite en IA raisonnante depuis les années 1980 !

• « Beaucoup de situations, qui font appel au raisonnement humain et à l’analyse contextuelle, continuent de poser problème. Comme se retrouver derrière un camion de déménagement à l’arrêt : l’humain franchira prudemment la ligne blanche, alors que le robot ne saurait transgresser cette loi. »

• « Les algorithmes peinent aussi à analyser le comportement des foules de piétons. Nous arrivons naturellement à interpréter les gestes d’un groupe de jeunes qui chahutent près du trottoir, alors que l’IA risque de bloquer devant des mouvements aussi erratiques. »

• « l’arrivée de la pluie ou du brouillard dégrade énormément leurs performances »

• « La sécurisation d’une intersection à faible visibilité exige d’avoir accès à un réseau 5G, avec un très faible temps de latence » : c’est là le problème, les calculs de l’IA informaticienne sont très gourmands en puissance.

III – « LES PROUESSES DE L’APPRENTISSAGE ARTIFICIEL (RÉSEAUX DE NEURONES ET AUTRES MODÈLES NUMÉRIQUES) NE PEUVENT FAIRE OUBLIER LEUR OPACITÉ. »

Là, il s’agit d’un autre article de l’INRIA (https://dataanalyticspost.com/le-defi-hyaiai-de-linria…/), qui confirme le précédent.

• « Les modèles numériques ne sont tout simplement pas lisibles »

• « Notre second challenge est l’explicabilité » qui existe avec l’IA raisonnante depuis les années 1980 !

• « C’est une chose qu’un modèle soit interprétable, comme l’est par exemple un arbre de décision composé de nœuds du type « Si la température est supérieure à 40° C, alors… sinon… ». Mais c’en est une autre qu’il soit capable d’expliquer simplement son diagnostic. » C’est pourtant ce que fait l’IA raisonnante depuis les années 1980…

• « Il est facile de remarquer, par exemple, que lorsque j’ouvre mon parapluie, il pleut. » Lol ! C’est ce que va remarquer l’IA informaticienne, sauf qu’elle peut en conclure que c’est l’ouverture du parapluie qui déclenche la pluie !

• « un arbre de décision est en principe plus lisible qu’un réseau de neurones, mais dans la pratique il peut être si volumineux que son interprétation devient très difficile, voir impossible » Or, avec l’IA raisonnante grand public, les arbres de décision représentant par exemple le calcul d’une paie française, l’une des applications les plus complexes, sont au nombre de neuf et prennent seulement 103 ko ! Les 234 règles qui en sont issues prennent… 37 ko ! Le moteur de raisonnement, quant à lui, avec toutes ses fonctionnalités de déductions, dialogue, explications et détection des contradictions, prend 995 ko. On est très loin « dans la pratique » de fichiers volumineux et d’une interprétation inexplicable des résultats.

Encore une fois, les chercheurs IA français montrent leur incompétence dans leur domaine. Quant aux GAFA, ce sont des menteurs qui s’opposent à une connaissance utile à l’humanité.

Laisser un commentaire