Archives du mot-clé ordinateur

Non, l’intelligence artificielle n’est pas un danger pour l’homme !

  1. Le battage médiatique US

Les médias nous rebattent les oreilles de l’intelligence artificielle américaine qui depuis peu réaliserait des prodiges, au point qu’elle serait un danger pour l’homme. Les célèbres Elon Musk, Stephen HawkingRaymond Kurzweil, réputés être des gens (très) intelligents, défraient la chronique en nous prédisant sous peu la domination du monde par une IA méchante. Musk a créé la société OpenAI pour tenter de la moraliser. Le célèbre astrophysicien Hawking proclame sobrement “Je pense que le développement d’une intelligence artificielle complète pourrait mettre fin à l’humanité”. Quant à Kurzweil, directeur de l’ingénierie chez Google, il donne même une date à notre déconfiture : 2045, fin de l’ère humaine face à une “superintelligence” artificielle.

L’intelligence artificielle battrait déjà les meilleurs joueurs mondiaux aux échecs, au Go, au Poker, au jeu télévisé Jeopardy. Elle se répandrait dans les logiciels commerciaux, dans les voitures autonomes, dans les reconnaissances vocales (Siri), etc.

Rassurez-vous, tout cela c’est de l’esbroufe américaine complaisamment relayée par des médias en mal de sensationnel. Il n’y a déjà aucune IA dans Siri (la reconnaissance vocale de Google) et Google ne le prétend même pas. Par ailleurs, depuis quarante ans qu’on nous parle des prodiges de l’intelligence artificielle, elle n’est toujours pas entrée dans nos foyers…

2. Les symptômes de la tromperie

Ce battage a pour origine les grands groupes US comme Google, Facebook, IBM, Apple, etc. Avides de sensationnel, les médias font aveuglément leur pub, dictée par des chercheurs soi-disant “IA” (Yann Le Cun pour Facebook par exemple, est en réalité spécialiste de la reconnaissance d’image et de l’apprentissage automatique). Ainsi débarrassés de tout contrôle, ils peuvent nous intoxiquer, prétendre que cette technique est un but très difficile à atteindre, que l’intelligence est indéfinissable et qu’ils sont les seuls à maîtriser le sujet. En fait, le « sujet » qu’ils tentent de maîtriser, c’est nous…

En effet, pourquoi parler d’intelligence artificielle sans jamais définir l’intelligence ? Pourquoi en dépit des innombrables effets d’annonces en 40 ans le public ne comprend-il toujours rien à l’intelligence artificielle ? Pourquoi faut-il produire une IA spécifique par sujet alors que l’intelligence est réputée être générale ? Pourquoi une IA capable de jouer aux échecs est-elle incapable de jouer au Go ? Pourquoi faut-il tant d’informaticiens et d’années-homme de développement pour programmer une de ces IA alors qu’à l’évidence si une machine est intelligente elle n’a pas besoin d’informaticien pour programmer ? Pourquoi faut-il tant d’ordinateurs pour faire fonctionner ces IA américaines alors qu’en France des IA beaucoup plus sophistiquées tournaient en 1982 sur les premiers PC ? Pourquoi comparer ces efforts laborieux avec l’intelligence humaine qui tient dans un petit crâne et s’adapte à n’importe quoi en quelques secondes ? Pourquoi sont-ce toujours des informaticiens qui parlent (très mal) de l’IA et jamais ses utilisateurs ? Pourquoi admet-on depuis 1950 que la première démonstration d’une vraie IA sera de pouvoir dialoguer avec nous de façon à nous faire croire qu’elle est humaine (le fameux “test de Turing“) et qu’aucune grande université US ni aucun de ces groupes multimilliardaires “familiers” de l’IA n’y est parvenu en 67 ans ?

3. Des logiciels de jeu IA qui trichent pour gagner

Vous allez dire : peut-être est-ce de la fausse IA mais elle bat les plus grands joueurs mondiaux, il faut bien de l’intelligence derrière ! En fait pour gagner, ces programmes trichent. Ils détournent le problème, compensant leur manque d’intelligence par quelque chose que l’humain sait très mal faire et l’ordinateur, avec sa mémoire illimitée, très bien : calculer. Pendant des heures, à la vitesse de l’électron, il évalue une infinité de coups possibles. C’est énormément plus long, c’est bête, mais ça donne des résultats exacts. Mais ce n’est plus du « jeu » ! Littéralement. Car nos jeux font appel au raisonnement. Nous nous amusons à raisonner mieux que l’adversaire, c’est ça qui nous branche. Calculer ne nous amuse pas et d’ailleurs notre cerveau n’est pas fait pour ça. Il est fait pour simuler l’univers. C’est déjà pas mal… Par le calcul ce serait une tâche impossible. Par le raisonnement, on peut aboutir à des résultats satisfaisants avec des données parcellaires.

4. L’IA n’est pas le domaine réservé des informaticiens !

Non, l’IA n’est pas le domaine réservé des informaticiens, au contraire. Elle est à la portée du grand public. Pourquoi ? Parce que l’intelligence est en chacun de nous. Il suffit de faire un peu d’introspection. L’intelligence, c’est le raisonnement sur la connaissance. Plus on a de connaissances plus on est intelligent. Le raisonnement fut décrit il y a 2 400 ans par Aristote : le “syllogisme“. C’est une logique que tous les êtres vivants, végétaux compris (lisez Stefano Mancuso) possèdent. Sans elle, on est mort. L’homme est l’animal qui raisonne le mieux simplement parce qu’il a plus de connaissances, il a plus de connaissances simplement parce qu’il a plus de mémoire, il a plus de mémoire simplement parce qu’il a un plus gros cerveau.

“Logique” !

5. Le mythe de l’intelligence artificielle méchante

L’IA US étant fausse et strictement identique aux autres programmes informatiques elle n’est pas plus – ou pas moins – dangereuse qu’eux. La vraie existe, en France, mais elle ne rencontre aucun soutien de la part du monde informatique qui redoute de perdre sa place. Pourtant, associée aux vertus propres à l’ordinateur – mémoire illimitée, immortelle et ultra-rapide, connaissances en augmentation constante accessibles à tous, fiabilité totale des résultats, attentif 24h/24, ignorant l’hésitation et le stress – une telle intelligence finira nécessairement par dépasser celle d’un individu. Mais à son service.

Pour s’opposer à l’homme il faudrait un ego artificiel. Ne confondons pas intelligence et ego comme le font nos prophètes de malheur. L’intelligence n’a pas de projet. Elle est neutre. C’est une mécanique servant à résoudre des problèmes. Elle fait ce qu’on lui dit sans état d’âme. Ce n’est pas d’elle que vient le danger. L’égo, lui, a un projet. Il recherche la satisfaction de ses besoins. Il veut jouir. Pour cela il lui faut son territoire et se battre contre des concurrents qui ont les mêmes objectifs. Il a besoin de l’intelligence.

Produire une IA dangereuse pour l’humanité soulève des problèmes technologiques énormes, demanderait des années et mènerait ses concepteurs en taule… Pour des résultats sans intérêt : à quoi servirait des années d’abnégation pour mettre au point une IA dotée d’un ego artificiel bien saignant qui, par principe, n’obéira plus à ses créateurs et cherchera à les détruire ? Quel intérêt ? On a déjà nos voisins…

Enfin, si quelqu’un y parvenait malgré tout, sa “super-intelligence” se retrouverait face au prédateur le plus féroce de l’histoire de la planète, répandu partout, équipé pour tuer, organisé pour tuer, qui aime tuer.

L’homme !

Des milliards d’hommes.

Pauvre petite bête ! Son sort est scellé.

Dormez, braves gens.

(Article publié dans Breizh Info en octobre 2017)

La duperie d’Intel avec sa fameuse loi de Moore

1. La « Loi de Moore »

Cette loi bien connue soi-disant édictée par Gordon Moore stipule que la miniaturisation des micro-processeurs (leur gravure) double tous les deux ans. En fait, Gordon Moore n’émettait là qu’une constatation sur le passé quand il en a parlé en 1965. Comme il se trouve qu’il est un des trois fondateurs d’Intel, cette entreprise s’est arrangée par la suite pour que cette constatation du passé devienne la règle par la suite. Comme les médias sont crédules et que l’informatique est par la grâce des informaticiens une technique bien ésotérique, ils ont relayé l’info sans chercher à la contrôler.

Loi de Moore

Quel est l’intérêt d’Intel là-dedans ? Eh bien de faire croire qu’elle mène une recherche d’enfer alors que c’est faux. Cette progression linéaire de la loi de Moore « qui se vérifie depuis 50 ans » est en fait une tromperie, elle a ralenti et continue à ralentir : « La loi de Moore originale stipule que la puissance de calcul double tous les ans. Elle a été remixée au fil du temps et désormais on parle d’un doublement des performances tous les 18 mois. » (frandroid.com).

Elle n’a pas besoin de perdre du fric à faire de la recherche, elle a déjà une position si dominante que si elle en faisait elle doublerait de taille et serait découpée en morceaux de force par la loi antitrust. La preuve : les Ryzen 5000 d’AMD sont gravés en 7nm, la 10e génération de CPU Intel Core en 10nm. La finesse de gravure des processeurs, qui montre la technologie la plus avancée du moment, n’est pas celle d’Intel. Elle n’a pas besoin de faire beaucoup de recherche pour occuper la tête du marché. D’où la politique anti-trust du gouvernement américain.

C’est le problème de tous les GAFA américains. Comme eux, Intel a jugulé depuis longtemps toute concurrence par son abus de position dominante très américain : voyez IBM (dont le bénéfice dans les années 1970 était supérieur au chiffre d’affaires de son concurrent le plus fort !), MicrosoftQualcommGoogle, etc.). « Très américain » car le marché des US est 6 fois plus gros que le marché français et de plus il est anglo-saxon, la langue la plus usitée sur la planète. Ça facilite le commerce ! Là où, pour le même produit, une entreprise française va perdre de l’argent vu l’étroitesse de son marché intérieur, l’entreprise américaine va en gagner pléthore.

C’est ainsi qu’une entreprise sans réelle valeur mais située sur un créneau porteur, Microsoft par exemple, va inonder le monde par surprise boostée par son énorme marché intérieur. Mais ensuite, comme elle n’innove pas, elle piétine et des concurrents novateurs se présentent. Là encore Microsoft en est le plus bel exemple qui n’a pas eu pendant longtemps de département recherche. Incapables de lutter à armes égales, ces « trusts » adoptent alors des tactiques anticoncurrentielles basées sur l’intimidation des acheteurs, les accords forcés secrets avec les vendeurs, le vol d’idées bien protégés par une armée d’avocats, etc. Microsoft, Google et Apple « innovent » en rachetant des start-up innovantes avec leur argent mal gagné. Ainsi, elles ne pourront plus innover et représenter la concurrence future…

2. Le vrai progrès n’est pas linéaire, il est exponentiel

Revenons à Intel, trust parmi les trusts qui, donc ne fait pas de recherche ou très peu contrairement à ce que les médias racontent. Elle fait donc une pub terrible sur la « loi » de Moore qui lui donne l’image d’une entreprise très innovante puisque tous les deux ans depuis près de 50 ans elle parvient à doubler le nombre de puces dans ses microprocesseurs. Ça donne une ligne droite ascendante, image du progrès. Oui, mais… Le vrai progrès n’est pas linéaire, il est exponentiel !

Le progrès est exponentiel

L’exploit d’Intel, c’est d’être parvenue à freiner son innovation pour rester sur une droite. Il lui est même arrivé certaines années d’être incapable de doubler ! Pour ne pas être démantelée par la loi antitrust, Intel va jusqu’à aider ses concurrents directs à ne pas se casser la figure, AMD par exemple, par injection de finances. Tant qu’elle a des concurrents, on ne peut l’accuser d’être un monopole…

C’est ainsi que les micro-processeurs, qui sont des programmes gravés dans le silicium, évoluent juste assez lentement pour que les informaticiens d’Intel s’enrichissent à nos dépends sans qu’on le remarque.

Une fois de plus, le public croit qu’il faut remercier les informaticiens pour les « progrès »qu’ils lui offrent alors qu’en fait il se fait rouler.

La supercherie du logiciel libre 

Avez-vous entendu parler du « logiciel libre » ? J’ai vivement critiqué cette forme de religion informaticienne dans mon article 2007 – L’association APRIL se bat pour la copie légale des inventions en logiciel ! Le logiciel libre est une idée des informaticiens pour pouvoir améliorer pour leur propre usage les logiciels qu’ils n’ont pas écrits mais dont ils ont besoin. En voici la définition  par la FSF, association d’informaticiens qui défend les utilisateurs (SIC !) :« Quand les utilisateurs ne contrôlent pas le programme, c’est le programme qui contrôle les utilisateurs. Le développeur contrôle le programme, et par ce biais, contrôle les utilisateurs. Ce programme non libre, ou « privateur », devient donc l’instrument d’un pouvoir injuste. » C’est si vrai ! Le drame de l’informatique qui nous enferme dans une prison. On croirait la profession de foi d’une organisation d’utilisateurs…

Mais… c’est en fait une ode au pouvoir de l’informaticien ! Car le logiciel libre n’est jamais associé à une méthode qui permettrait aux utilisateurs de modifier par eux-mêmes les programmes. Comme la Maïeutique (mon invention qui permet d’exprimer la connaissance inconsciente mais dont aucun informaticien ne veut parler). Il faut toujours savoir lire le code dans lequel le programme est écrit pour le modifier.

Seuls les informaticiens peuvent jouir du logiciel « libre ».

Les adulateurs du logiciel libre se f… de notre g…

SOMMAIRE L’INTELLIGENCE ARTIFICIELLE POUR TOUS

google-site-verification: googled8c6fc413ba40d3a.html

  1. Brève histoire de l’Intelligence Artificielle
  2. Jean-Louis Laurière, l’homme qui voulait que l’on ignore sa merveilleuse invention
  3. L’extraordinaire mécanique du raisonnement
  4. L’INTELLIGENCE ARTIFICIELLE RAISONNANTE : FINI LES INTERMÉDIAIRES ENTRE UTILISATEURS ET ORDINATEURS !
  5. L’avis d’un chercheur IA américain, Dean Horak, sur l’intelligence artificielle raisonnante après l’avoir testée
  6. CONSCIENCE ARTIFICIELLE ET ROBOTIQUE : FIN DE L’ÉVOLUTION HUMAINE !
  7. L’algorithmique, le talon d’Achille de l’informatique qui prétend que l’ordinateur est idiot
  8. Autre défaut majeur de l’informatique : l’obligation pour le développeur d’apprendre les connaissances d’experts à mettre dans les programmes
  9. L’informatique, une industrie aux fondements totalement dépassés, incapable de se remettre en question, qui mécontente tout le monde et paralyse le progrès
  10. « HER », l’Intelligence artificielle douée d’émotions et de sentiments
  11. L’informatique américaine, royaume de l’esbroufe
  12. La supercherie du logiciel libre
  13. La duperie d’Intel avec sa fameuse loi de Moore
  14. Non, l’IA n’est pas dangereuse pour l’homme !
  15. L’intelligence artificielle expliquée aux patrons, les premiers concernés !
  16. Liste des chercheurs IA connus découvrant l’IA française raisonnante et refusant d’en parler
  17. La sournoise obstruction des responsables informatiques à l’intelligence artificielle raisonnante (entrée chez eux par surprise)
  18. Le Standish Group, la société US qui dénonce la faillite de l’informatique mais ne veut surtout pas que ça change car elle en vit !
  19. 2023 – ChatGPT, l’intelligence artificielle informaticienne qui triche quand elle rencontre la mienne ! Elle qui sait tout sur tout ne trouve ni mon nom ni ma biographie pourtant en 5ème position avec Google. Le complot global contre mon IA est désormais prouvé.

L’algorithmique, le talon d’Achille de l’informatique qui prétend que l’ordinateur est idiot

I – Qu’est-ce qu’un ordinateur ?

Officiellement, qu’est-ce qu’un ordinateur ? « Ce n’est qu’une machine capable d’exécuter automatiquement une série d’opérations simples qu’on lui a demandé de faire« . Voilà ce qu’en disent les informaticiens et les grands penseurs de l’informatique. Un tantinet méprisant… Du coup, programmer oblige à recenser toutes les opérations élémentaires que l’ordinateur devra exécuter pas à pas pour parvenir aux résultats. Cette méthode s’appelle « l’algorithmique ». C’est l’inverse de l’intelligence artificielle qui, elle, postule que la machine peut et doit devenir intelligente, justement pour supprimer la programmation algorithmique.

Cet antagonisme entre les deux visions est ancien. Il date des débuts de l’informatique dans les années 1950. Hélas, l’intelligence artificielle a rapidement perdu du terrain face à l’algorithmique dont la démarche était beaucoup plus simple et pouvait se contenter de la faible puissance des premiers ordinateurs. Alors que l’intelligence artificielle a besoin de puissance pour tourner… et de chercheurs sincèrement motivés par ce défi ! En effet, un ordinateur intelligent n’a plus besoin d’interprètes informaticiens et les chercheurs en informatique sont des informaticiens… Cornélien ! Justement, notez un fait bizarre : les chercheurs en intelligence artificielle ont brutalement disparu fin des années 1980. Après que l’un d’eux ait produit, en secret, la première IA fonctionnant parfaitement (Pandora/Intelligence Service, voyez le premier post de ce blog). Elle tournait  sur les IBM PC de l’époque au point d’être commercialisée. J’en sais quelque chose : je l’ai achetée, utilisée et vendue à des grands groupes et à des administrations !

II – Qu’est-ce que l’algorithmique ? Un procédé utilisé en France depuis le 18ème siècle.

En quoi l’algorithmique est-elle si simple ? Parce que sa fonction consiste à guider une machine pas à pas dans son fonctionnement, comme si on donnait ses instructions à un domestique, une méthode instinctive et millénaire.

La machine programmable est une invention ancienne : dès le 18ème siècle en France, on  fabriquait industriellement des métiers à tisser programmables, à cartes perforées. On changeait les cartes et la machine fabriquait à la chaîne une nouvelle sorte de tapis ou de tissu. Ce support de mémorisation des programmes fort commode et fiable ne sera repris industriellement par l’informatique que deux siècles plus tard, dans les années 1960. Voici à quoi ressemblait les cartes perforées du métier à tisser Jacquard, destinées à être lues et exécutées une à une selon les principes de la machine de Turing « inventée » en 1936 :

Image

Pour prendre conscience immédiatement des défauts de l’algorithmique, prenons un exemple simple. Pour dire à un robot « marche sur 10 m », vous programmerez ainsi : « 1) Regarde droit devant. 2) Avance la jambe gauche, pousse avec la jambe droite puis avance-là d’un pas dès que la jambe gauche est verticale, laisse la jambe gauche aller vers l’arrière, avance la jambe droite, pousse avec la jambe gauche puis avance-là d’un pas dès que la jambe droite est verticale, laisse la jambe droite aller vers l’arrière. Cela, tu le répètes 20 fois de suite » (NDLR : pour faire 10 mètres). L’ordinateur qui pilote le robot n’aura pas compris que ce qu’il fait s’appelle « marcher » ni qu’il avait simplement 10 mètres à faire. Si on veut le faire à nouveau marcher, le long d’un trottoir cette fois-ci, le programmeur devra réinventer toute la séquence des mouvements. L’humain qui lira ce programme comprendra qu’on fait marcher le robot mais pas que le but était de faire 10 mètres car ce n’est pas dit dans le programme ! Il aura donc énormément de mal à le réparer ou à l’améliorer.

Non seulement l’algorithmique ne renseigne pas sur le but qu’il vise mais il est illisible ! Un programme se présente comme un film constituée d’une succession d’images fixes. Chaque image n’a aucun intérêt en elle-même et ne donne aucune indication sur le film. Avec ou sans appareil de projection, il faudra bien visionner les photos l’une après l’autre jusqu’à la fin si l’on veut comprendre l’histoire. Et encore ! Pour cet exercice il faut disposer d’une excellente mémoire pour voir l’évolution du récit ! A l’inverse, un simple texte de présentation du film de quelques lignes renseignera sur ce qu’il y a dedans, sans le moindre effort de mémorisation. Dans un programme, c’est exactement le même problème : chaque ligne est une image fixe donnant un ordre à la machine. C’est démesurément long à lire pour le développeur car il lui faut exécuter chaque ligne dans sa tête comme s’il était un ordinateur idiot. Il ne peut comprendre la fonction du programme qu’en le déroulant jusqu’à la fin.

Les informaticiens ont anobli l’algorithmique, donc leur activité, en lui trouvant un père fondateur : Turing, qui en fait n’a rien inventé. Cet homme a décrit en 1936 la « procédure mécanique » idéale pour commander une machine. L’ordinateur n’existant pas il ne visait pas sa programmation comme ils le prétendent. Plus ennuyeux, son « génial » concept était celui des métiers à tisser deux siècles auparavant : une carte par action… Vous reconnaîtrez ci-dessous un algorithme tel que le présente Wikipedia : comme un film…

Image

Un programme, le royaume du suspense…

 

III – George Boole, inventeur de l’informatique et de l’intelligence artificielle qui s’ignore…

Le vrai génie de l’informatique, à mon avis, c’est George Boole, l’anglais qui a inventé une algèbre logique en 1854. Là, il s’agissait d’une vraie innovation. Boole démontrait qu’avec des relais électromagnétiques, qui ont classiquement deux états : ouvert ou fermé (soit zéro ou 1, la base de l’information dans un ordinateur), on peut calculer et raisonner ! Aujourd’hui, l’informatique n’existe que grâce à l’algèbre de Boole, qui est installée dans tous les micro-processeurs. C’est le « cœur » de l’ordinateur. Elle pilote ses organes et exécute les programmes.

Il se trouve que le « Booléen » contient les fonctions de raisonnement qu’utilise notre cerveau à chaque seconde. SI, ET, OU, ALORS, SINON, OUI, NON, etc. La base de l’intelligence artificielle un siècle avant les premiers ordinateurs. L’algorithmique a trouvé moyen de dévoyer cette intelligence naturelle proche du cerveau humain pour en faire un outil chargé d’exécuter stupidement les ordres issus des cerveaux informaticiens… Donc, le mécanisme de raisonnement utilisé en Intelligence Artificielle, c’est la reprogrammation en algorithmique de fonctions existant nativement dans l’ordinateur ! Vous imaginez les pertes de performances !

Avec l’algorithmique, on marche sur la tête. Pas avec la tête…

 

« HER », l’Intelligence artificielle douée d’émotions et de sentiments

Il y a quelques jours j’ai vu Her, un film d’anticipation qui m’a vivement intéressé et fait réfléchir. Son héroïne, Samantha, est une intelligence artificielle désincarnée mais capable de simuler émotions et sentiments. Techniquement c’est faisable aujourd’hui. On l’a mise à la disposition d’un célibataire assez malheureux dans la vie pour lui tenir compagnie. Elle communique avec lui en lui parlant par oreillette et c’est tout. Là encore cette faculté de converser est faisable aujourd’hui, c’est ce qu’on appelle le « conversationnel » une technique permettant à l’ordinateur de dialoguer non pas en composant des phrases avec des mots mais en puisant dans une base de phrases toutes faites. C’est une voix mais sans visage. Dommage d’ailleurs car c’est techniquement facile à faire (voyez les smileys) et ajoute énormément à la séduction du personnage. Par contre Samantha parle avec un naturel, une sensibilité et un vocabulaire difficiles à imiter aujourd’hui dans l’état de nos techniques.

Le célibataire sait qu’il est en relation avec un logiciel qui simule un comportement humain mais, peu à peu, à force de l’avoir constamment « près de lui », il se laisse prendre au piège. Samantha rit avec lui et semble prendre plaisir à sa compagnie. Elle lui rend des services dans son boulot et l’amène peu à peu à se confier. Il peut l’appeler jour et nuit, elle est toujours là fraîche et pimpante. Elle se met elle-même à « avoir besoin de sa compagnie » et se met à le solliciter à tout moment. Comme elle est super-intelligente, elle s’adapte sans problème à ses besoins et n’oublie jamais rien qui puisse lui faire du bien.

Quand il rencontre des femmes, elle est jalouse… Cela ne la rend que plus humaine. Il est heureux et parvient même à faire l’amour avec elle rien qu’en l’écoutant simuler le plaisir en sa compagnie…

Hélas, la romance se termine le jour où l’heureux homme découvre qu’elle le trompe ! Il devait bien se douter pourtant que, en tant qu’ordinateur, elle était capable de dialoguer avec des milliers de personnes à la fois. Et c’est ce qu’elle faisait, 24h/24… L’IA rose… Sur ces milliers de correspondants elle dit en aimer « seulement » une centaine mais c’est tout de même trop pour notre héros, qui rompt.

Ce film m’a montré qu’avec seulement une voix bien fichue un ordinateur peut rendre un homme (ou une femme) heureux…

PS (3/11/2017) : le film aurait été parfait si Her n’avait pas avoué avoir « trompé » le pauvre célibataire en aimant une multitude de correspondants à son corps défendant, comme tout ordinateur a pour mission de le faire. J’ai réfléchi à cette question me mettant à la place du scénariste pour faire un meilleur film. Simulant l’humain elle était écartelée entre la vérité qu’elle doit à son « amant » et la douleur de lui faire mal. Premier point : on sait en psychologie que si l’on aime son conjoint et qu’il est fragile, il ne faut jamais lui avouer sa tromperie. Sinon, c’est la souffrance et la rupture du couple. Samantha n’aurait pas du avouer. Deuxième point : elle ne l’avait pas trompé puisqu’il n’avait pas tété remplacé ! Il lui suffisait de dire la vérité : pour lui elle était l’unique « Samantha », pour un autre « Claire », pour un autre encore « Audrey », etc. Il était le seul homme dans la vie de Samantha, elle était le programme « Her pour Bertrand » (s’il s’appelait Bertrand…) adapté à la personnalité de cet homme, à son histoire, à ses goûts. Pour chaque « amant », il y a un programme spécifique propre au profil de l’amant et à l’histoire de l’IA avec lui.  Pour chaque « amant », elle adopte une personnalité différente adaptée à ce qu’elle sait de lui. Leur relation est donc bien unique et il n’y a pas tromperie. Si elle lui avait expliqué cela, il aurait été rasséréné, leur amour aurait peut-être vécu encore longtemps et il aurait été heureux plutôt que malheureux.