08/01/2023

Chat GPT : quand l’IA franchit un cap…

   Chat GPT d’Open AI est un outil conversationnel fondé sur l’intelligence artificielle et les Big Data. Son objectif de répondre aux questions, sur une large variété de sujets. Et quand on dit « large variété », il faut le prendre au pied de la lettre : recettes de cuisine, poésie, programmation informatique, traduction, économie, histoire profane ou religieuse… On a d’emblée le tournis. Qu’on aime ou non ce qui est en train de se passer depuis ces dernières années autour de l’intelligence artificielle et de l’utilisation massive des données, la marche semble irrépressible. Ces outils supprimeront massivement des emplois au nom de la (nauséabonde) doctrine de « destruction créatrice ». En l’occurrence l’outil Chat GPT, dont on parle beaucoup en ce moment, et à juste titre, est un modèle de conversation qui génère du texte en langage naturel en se fondant sur des données préalablement ingurgitées (jusqu’en 2021). Ce qui rend cet outil aussi impressionnant, et peut-être même « disruptif », c’est 1/ qu’il donne l’impression de comprendre les questions, et 2/ qu’il formule des réponses efficaces, assez concises, et qui sont souvent exactes.

   Comme l’outil est capable, dans une certaine mesure, de tenir compte du contexte récent pour développer ses réponses (quelques milliers de mots ou tokens), on peut se demander s’il est possible d’influencer ou d’orienter les réponses, autrement dit de le « manipuler ». Car l’intelligence, c’est aussi l’esprit critique au-delà des sommes d’informations, n’est-ce pas ? Mes premiers essais en ce sont ne sont pas très concluants. Ce qui est certain, c’est que l’outil n’a évidemment pas de distance critique sur la quantité faramineuse d’informations qu’il a ingurgitée. Ces informations sont considérées comme normatives et fiables, et c’est en en extrayant la substantifique moelle qu’il produit chez l’humain « l’effet wow ». C’est déjà beaucoup, reconnaissons-le. Mais c’est comme converser avec un individu… borné, littéralement.

   Ceci étant dit, ce genre de modèle de langage capable de formuler des énoncés intelligibles en réponse à des questions complexes est tout simplement impressionnant. Google a raison de s’en alarmer, et son concurrent Microsoft (pour son moteur Bing) songe déjà à intégrer l’outil pour la recherche sur le web. Pour les développeurs, une API est disponible. En bref, les choses évoluent vite, et au vu des milliards de capitalisation de la start-up  (29 semble-t-il), et de son potentiel chiffre d’affaire (puisqu’il ne s’agit pas de non-profit comme vous l’aurez subodoré) pour 2024 (estimé à 1 milliard pour l’instant), il est certain que nous entendrons encore parler longtemps de ces sujets, et que l’outil pourrait bien, réellement, devenir disruptif, c’est-à-dire changer la donne : pour la recherche d’information, mais bien au-delà : pour la programmation, les hotlines, le marketing, et bien d’autres domaines. Ce qui est à la fois excitant et très effrayant. Et dans ces cas deux attitudes sont possibles : regimber et disparaître, ou accepter et tirer son épingle du jeu… Je ne suis pas assez optimiste pour envisager d’autres perspectives…

   J’ai essayé l’outil en ligne et via l’application iOS. La consultation en ligne est gratuite après inscription, et l’app propose un essai gratuit de 3 jours, puis un système d’abonnement assez onéreux (9.99€/semaine, 17.99€ ou 22.99€/mois, 34.99€ ou 59.99€/an). Mes premières observations en vrac sont les suivantes : les réponses sont souvent pertinentes et synthétisent « l’état de l’art » sur une question donnée. Ces réponses ne sont toutefois pas toujours exactes, et si l’outil site parfois ses sources (INSEE, ANSM, EMA…), ce n’est pas toujours le cas. Ce qui est très intriguant, c’est que les réponses aux mêmes questions varient quelque peu d’un moment à l’autre. Les réponses peuvent être aussi carrément fausses. Ou discutables. C’est le sel des interactions avec ce type d’outils. Voyons quelques exemples…

A. Soyons chauvins et commençons par le sens du terme ἁρπαγμός…

Réponse impressionnante, rien à dire…

Reposée un peu plus tard sur iOS, voici le nouveau résultat :

Toujours très intéressant, et pertinent !

A la question du sens de ἁρπαγμός dans le contexte de Philippiens 2.6, ça se gâte un peu…

Sur iOS (en premier lieu) :

puis en ligne :

Les réponses ne sont pas dénuées d’intérêt… sans être tout à fait exactes. En tout cas l’outil est capable d’extraire un contexte (l’humilité) dans un passage qui ne mentionne pas le mot explicitement. Donc même si ἁρπαγμός ne peut pas se traduire par « humilité », le sens global véhiculé par le verset en question, et son contexte, est bien celui-ci. Wow…

B. Bible Parser et le nom divin

   J’ai interrogé l’outil sur les meilleurs logiciels bibliques du marché, et autres questions connexes. Je vous laisse faire vos propres expérimentations. A la question du concepteur de Bible Parser, la réponse a été étonnante…

La réponse est fausse, et assez étonnante. Je ne vois pas très bien comment les données en ligne ont pu aboutir à cette réponse (qui a changé depuis)… En réfutant la réponse, l’outil embraie sur une autre réponse, mais qui est déjà 1/ déconnectée du contexte précédant, et 2/ doublement inexacte. En tout cas l’outil allègue utiliser Wikipédia, mais quand on lui demande ce qu’il en pense, c’est également édifiant…

   Un autre réponse très étonnante concerne le nom divin dans les premières copies du NT. On se demande où l’IA tire ses informations qui me conviennent mais qui sont peu orthodoxes !

C. Questions actualité

   Il est difficile de résister aux questions d’actualité, et c’est avec diverses questions sur les gilets jaunes, les médias, la politique, le cinéma, le folklore, qu’on peut évaluer le biais de conformité de ce modèle de langage…

      

D. L’IA est-elle complosophiste (au sens d’A. Haupt) ?

A défaut de pouvoir se servir, à mon niveau, de ce Chat GPT comme d’un outil de tous les jours pour obtenir des informations vraiment fiables – ce qui pourrait arriver un jour, qui sait – il est toujours loisible de s’en servir pour s’en amuser, ou prendre la température du discours ambiant.

 

Étonnamment, l’IA s’en sort pas si mal, bien qu’il y aurait beaucoup à dire et à débattre.

On pourrait dire qu’elle s’en sort en bon élève, très sage et très comme il faut.

 E. Les sujets sanitaires…

   Chat GPT vous recommande généralement d’aller voir un médecin ou un spécialiste, et de faire confiance aux autorités sanitaires. Il a une confiance inébranlable dans les autorités de régulation, même s’il est bien informé des scandales sanitaires. L’outil est donc, là-encore, très sage, et ne devrait pas produire trop de contenus offensants… Cependant il peut donner des informations utiles si on lui pose les bonnes questions.

Un premier exemple sur les conflits d’intérêts :

  

Selon la formulation de la question, Chat GPT peut lui-même introduire un texte de loi pour étayer son propos. Mais il ne le fait pas toujours et à moins de gratter, les réponses peuvent être très insatisfaisantes quand l’outil est aussi capable de faire des étincelles. Moralité il faut le bousculer un peu…

Plus intéressant encore, à la question « faut-il réintégrer les soignants suspendus ? », Chat GPT fait preuve de bien plus d’humanité que les politiciens et me(r)dias français.

   La réponse est consensuelle et se fonde sur un présupposé inexact (la sécurité des patients n’est pas en cause car le sujet est politique ; cette sécurité ne serait pas mise en cause par des soignants non vaccinés pour les simples et bonnes raisons que 1/ la majorité des soignants dits vaccinés ont un schéma vaccinal incomplet [leur « vaccination » est devenue totalement obsolète au bout de deux ou trois mois], 2/ ces praticiens ont été « vaccinés » avec un produit expérimental ne protégeant pas de la transmission de l’aveu même des labos, et 3/ ils viennent de toute façon travailler, sur ordre hiérarchique, quand ils sont infectés par la Covid et pas trop mal en point). Elle est cependant bien plus « humaine » que tout ce qu’on peut souvent lire ou entendre…

   Enfin, et j’arrêterai là les exemples sur le sujet, mais je vous invite grandement à faire vos propres expérimentations, il est notoire que l’outil n’informe pas véritablement toutes ses réponses de ses connaissances, mais qu’il est programmé, ou du moins orienté, pour traité l’information d’une certaine manière (assez « scolaire »). On le perçoit quand on traite les scandales sanitaires ou financiers des labos. Ils sont connus mais ne remettent pas en cause toute la matrice, qui doit rester l’environnement sécurisant où la confiance règne et jamais rien de méchant n’arrive…

   Bon, j’ignore si l’outil est schizophrène mais si vous lui demandez s’il convient de faire confiance à Pfizer au vu de son passif judiciaire, il vous dit non ! Cocasse. Ce qui n’entamera pas sa « confiance » inébranlable en la science : « Trust the science… » est le nouveau crédo, en quelque sorte. Et Pfizer, à ses dires, va « à la vitesse de la science » c’est-à-dire qu’il faut lui faire confiance, sinon vous êtes complotiste (un synonyme de terroriste dans certains pays), mais que, comme les données de la science évoluent, la science peut elle-même évoluer. Trust the moving science…

   Dans ce fatras il est tout de même amusant de constater que l’outil ne capitalise que de manière naïve sur les informations gigantesques dont il dispose. Une véritable « intelligence artificielle » serait capable d’avoir une distance critique vis-à-vis des sources de données – c’est d’ailleurs ce dont on attendait des jeunes élèves et du système scolaire jadis…

F. Quelques pensées bibliques

On peut discuter de tout avec Chat GPT et c’est ce qui est véritablement bluffant. Y compris de sujets bibliques, plus ou moins pointus.

 

Il faut souligner que les réponses (y compris chiffrées) varient d’un jour sur l’autre, mais dans l’ensemble l’outil s’en sort bien.

Il a simplement l’air de se fonder sur une traduction anglaise retraduite en français…

On peut même lui demander son avis, de manière générale :

Ce peut être encore plus technique, et c’est là où vous commencez à comprendre les sueurs froides de Google :

Il y a toujours matière à pinailler et à débattre, bien évidemment, mais ce type de réponses me semble aller dans la bonne direction : être capable d’extirper une information d’une somme de textes pour répondre à une question précise. C’est le principal fonds de commerce faramineux de Google… et l’IA semble bien capable de bousculer sévèrement tout cela !

En résumé

   Chat GPT fournit des réponses bluffantes sur un nombre invraisemblable de sujets. Il peut se contredire ou formuler avec un aplomb de marbre des énormités sans nom, mais globalement sur des sujets non sensibles et factuels c’est absolument remarquable et même renversant. Ce qui rend l’outil aussi efficace semble cette capacité à comprendre l’énoncé, et produire une synthèse de type scolaire qui peut être une base de départ. A surveiller de près !