16

L’Intelligence Artificielle a ses limites, la preuve par Galilée

.Il y a quelque chose d’intrigant dans la relation que l’homme entretient  avec cette fameuse Intelligence Artificielle. (IA). Elle le fascine autant qu’elle l’effraie. Cette ambivalence n’est pas seulement le fait d’un public de non-experts, elle frappe aussi les experts. J’en veux pour preuve cette pétition lancée, mardi 30 mai 2023 par 350 personnalités du secteur de l’IA :« Atténuer le risque d’extinction de l’humanité par l’Intelligence Artificielle devrait constituer une priorité aussi importante que de combattre les risques de grandes échelles que sont les pandémies et les guerres nucléaires ».. Le risque d’extinction de l’humanité brandi par les signataires de cette pétition est loin de faire l’unanimité.  Il y a dans cette crainte un paradoxe assez fascinant. L’homme rencontrerait sa mort là  même où son génie s’affirme au plus haut degré. Il est vrai que le scénario du robot qui dépasse son créateur et se retourne contre lui est un thème récurrent de la littérature de science-fiction, et a valeur d’archétype. On se souvient de 2001 l’Odyssée de l’Espace et de son ordinateur HAL prenant le contrôle du vaisseau et des robots Terminator de Skynet qui entrent en guerre contre l’humanité.  Cette quête d’ une intelligence de plus en plus performante et la punition infligée aux chercheurs pour leurs découvertes a des accents prométhéens.

L’IA repose donc sur le big data, ensemble énorme de données brutes et silencieuses. Les déductions qu’on peut faire avec les données du big data ont leurs limites. Ce qu’elles disent du futur s’est déjà produit. Elle projettent dans le futur des séquences d’évènements qui appartiennent au passé. Ainsi s’explique la déconvenue du PSG en coupe d’Europe. Vainqueur à Paris 4-0, ils ne trouvèrent aucune prévision statistique les  prévenant qu’une défaite était encore possible. D’où une soirée un peu dissipée la veille du match et le lendemain  « il prirent un 6-0 ».Autre piège des big data, la confusion entre corrélation et causalité. A priori big data ne nous donne que des corrélations. Établir un lien de causalité demande un travail long et difficile. On est encore loin des essais  randomisés en double aveugle, qui sont les golds standard pour prouver le lien de causalité. Je vous laisse  méditer sur cette différence entre causalité et corrélation en compagnie de Coluche. Coluche déconseillait d’aller à l’hôpital au motif que l’on y mourait beaucoup plus souvent que chez soi !

Venons-en à Galilée comme je l’annonçais dans mon titre. Que nous dit Galilée cet immense savant, père de la physique moderne, sur la chute des corps. En l’année 1604, qui fut pour lui l’annus mirabilis, il affirme que les corps tombent tous à la même vitesse quel que soit leur poids, et balaye ainsi d’un revers de main près de deux millénaires d’Aristotélisme. Depuis Aristote il était admis que les corps lourds tombaient plus vite que les corps légers, propriété vérifiable en toutes circonstances.

Galilée  dans le contexte historique où il se trouve, n’a pas les moyens  de fonder son affirmation sur une expérience possible. Dans les biographies falsifiées de Galilée , on le décrit lançant du haut de la tour de Pise des objets de poids différents. C’est là pure légende[1]. Ce genre d’expérience  étant donnée la résistance de l’air aurait sans doute conforté la théorie d’Aristote plutôt que la sienne. La loi de Galilée est vérifiable dans le vide, or à cet époque non seulement on ne sait pas faire le vide, mais on conteste son existence même. Le philosophe Koyré, considère que Galilée est le premier à comprendre que le pari de la physique moderne à rebours de celle d’Aristote consiste à penser qu’on peut « expliquer le réel empirique par l’impossible ».

N’ayant pas la possibilité de fonder sa théorie sur une démonstration expérimentale, Galilée va user d’un tout autre moyen. Il va se livrer à une expérience de pensée. Qu’est-ce qu’une expérience de penser ? C’est une  sorte de mise en scène mentale, où seulement interviennent les idées et les raisonnements.  Supposons exacte la loi de la chute des corps d’Aristote : un corps lourd tombe plus rapidement qu’un corps léger. Attachons par une corde une grosse pierre et une pierre plus petite, et lâchons-les. Que dit Aristote ? Puisque l’ensemble formé par les deux pierres est plus lourd que la grosse pierre seule, il tombe plus vite que la grosse pierre seule. Cependant, comme la grosse pierre tombe plus vite que la petite, elle va tendre la corde qui les relie, si bien que la petite pierre freine la chute de la grosse, à la manière d’un parachute. La petite pierre ralentit donc la grosse pierre : l’ensemble formé des deux pierres tombe moins vite que la grosse pierre seule. L’application de la loi de chute des corps d’Aristote aboutit donc à une aporie, autrement dit une contradiction insoluble, qui invalide la théorie d’Aristote.

Qu’aurait fait big data en la circonstance, il aurait enregistré une profusion de données en faveur d’Aristote ! il vaut mieux compter sur une expérience  de pensée !


[1] Cette expérience fictive a d’ailleurs été retirées des guides touristiques en 2004.

Laurent Vercoustre

16 Commentaires

  1. Qui a inventé ce terme de « intelligence artificielle » qui prête à confusion? Dit-on que les voitures sont des jambes artificielles ? que l’ascenseur est un escalier artificiel? Le terme « informatique » est plus juste et approprié et replace le sujet à sa place, celui d’un outil , performant, utile et pratique . Plutôt que d’échanger par lettre manuscrite envoyée pas la poste , nous utilisons notre ordinateur et internet ce qui est plus simple , cela ne fait pas de cette machine un cerveau . Même s’il est capable de faire plus rapidement des calculs complexes ou de stocker un nombre énorme de données, il ne reste qu’un outil qui fait gagner du temps comme la voiture . Ce n’est pas une raison pour sombrer dans l’anthropomorphisme.

  2. Un viticulteur aurait pu dire : « Atténuer le risque d’extinction de l’humanité en buvant du vin devrait constituer une priorité aussi importante que de combattre les risques de grandes échelles que sont les pandémies et les guerres nucléaires. »
    Par ici les subventions!

  3. Très intéressantes réflexions cher confrère. Je pense qu’il faut rester assez basique, si je puis dire. L’IA n’est qu’un outil, ni plus, ni moins. Elle peut être très bénéfique si elle est bien utilisée. Dans l’élaboration d’un diagnostic, par exemple. Si elle se met à vouloir diriger nos vies c’est parce que un humain ou un groupe humain aura décidé de s’en servir pour nous mettre sous tutelle, voire en esclavage. Une IA ne fonctionne pas toute seule. Intelligente? C’est plus que douteux. Elle ne réfléchit pas. Si elle gagne une partie d’échecs contre un champion c’est en raison de sa mémoire ou sont empilées toutes les solutions possibles. Il faut que nous soyons extrêmement vigilants : on nous oblige déjà (mais pourquoi nous laissons nous faire?) à passer par internet pour la moindre peccadille, supprimant au passage les relations humaines, (un but caché mais capital). Tout est prêt pour nous soumettre à l’IA. Et n’en doutons pas, il y aura quelqu’un aux commandes.

    • Merci pour ce sage commentaire….et ravi de vous retrouver sur mon blog. C’est vrai que tout ce délire autour de l’IA est surprenant, je suis de votre avis sur la douteuse intelligence de l’IA. Pourtant si vous allez voir dans les autres commentaires, l’un deux qui est au coeur de la recherche, à un haut niveau professe que il n’y a pas une délimitation net entre IA et intelligence, pas de discontinuité, pas de différence de nature et il affirme que l’IA est tout à fait capable de démontrer des liens de causalité.Quant à ces robots qui domineraient la planète, j’y crois fort peu et si vous me permettez cette remarque absolument stupide je ne vois pas comment ces robots pourraient fonctionner autrement qu’à l’élctricité, et qu’il n’y ait pas le moyen de couper le courant!!

  4. … je ne vois pas très bien ce qui vous fais dire que l’IA est incapable de trouver des relations causales ?

    • Merci pour votre commentaire. La source de cette information : un philosophe et un homme de science de très haut niveau. Mais e vais faire des recherches pour voir si vous avez en définitive raison.

      • En fait, il y a tout un pan de l’IA qui s’intéresse à la causalité, que ce soit avant ou après la « révolution » Deep Learning.
        Les travaux les plus connus sont ceux de Pearl (qui sont d’inspiration bayésienne, voir son livre ‘Causality’) mais, ce qui est plus dans votre propos je crois, les nouvelles techniques de Deep Learning sont tout à fait adaptées à l’établissement de relations causales, par exemple entre activités de différentes régions cérébrales, ce ce qui est une application classique. Le plus étonnant étant la diversité des méthodes qui fonctionnent : méthode de reconstruction d’espace d’états (ESN), réseaux de neurones sur graphes (GNN), réseaux de neurones adversariaux (GAN)… rappelons que ces méthodes distinguent la corrélation de la causalité dans les séries temporelles par une approches « informationnelle » de la prédiction.

  5. Vous avez traité là une belle matière à réflexion sur un grand débat, on parle constamment de l’IA et des ses possibilités infinies selon certains.
    l’IA est déjà un vielle affaire : https://fr.wikipedia.org/wiki/Risque_de_catastrophe_plan%C3%A9taire_li%C3%A9_%C3%A0_l%27intelligence_artificielle_g%C3%A9n%C3%A9rale
    Extraits : »En 1951, l’informaticien Alan Turing affirmait que les intelligences générales artificielles prendraient probablement le contrôle du monde à mesure qu’elles deviendraient plus intelligentes que les êtres humains « … »Les machines ne seraient pas embarrassées par le risque de mourir, et elles pourraient échanger entre elles pour aiguiser leur intelligence »
    « En 1965, IJ Good est à l’origine du concept désormais appelé « explosion d’intelligence », il a également déclaré que les risques étaient sous-estimés » … »Ainsi, la première machine ultra-intelligente est la dernière invention que l’homme ait besoin de faire, à condition que la machine soit suffisamment docile pour nous dire comment la garder sous contrôle. Il est curieux que ce point soit si rarement évoqué en dehors de la science-fiction. Il vaut parfois la peine de prendre la science-fiction au sérieux. »  »
    et ça c’est ce qui risque d’arriver si on laisse certains lui faire ingurgiter n’importe quoi.
    L’IA n’aura jamais d’empathie, qui la lui enseignera ? Un grand auteur de science fiction, également scientifique, avait défini les lois de la robotique : Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
    Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;
    Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la première ou la deuxième loi.
    Si ces lois étaient appliquées à l’IA ( remplacer Robot par IA) on n’aurait rien à craindre … sauf à scléroser l’intelligence de nos descendants.

    • Merci cher Inoxydable ce dossier Wikipedia est particulièrement bien fait, quelque que soit le sujet vous avez toujours des « munitions » ! Vous êtes un très précieux lecteur de mon blog.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec * Pour information, Laurent Vercoustre ne répondra pas aux commentaires anonymes.