Vous l’avez certainement vu passer : ChatGPT a fait irruption sur la scène publique le 30 novembre 2022, et il ne lui aura pas fallu plus de 5 jours pour gagner un million d’utilisateurs dans sa version de test. Depuis, pas un jour sans une pluie d’articles à son sujet : depuis le Monde ou le New York Times jusqu’à McKinsey Insights ou la Harvard Business Review, en passant par Les Echos et le Financial Times. A ceci s’ajoutent des milliers de posts sur LinkedIn, y compris par spécialité : ChatGPT et les métiers juridiques ; ChatGPT et la cybersécurité ; ChatGPT et les RH ; ChatGPT et les informaticiens, etc… Beaucoup se disent techniquement bluffés, quelques uns font les blasés, certains insistent sur les limitations, d’autres encore sur les risques.
Nous allons explorer ensemble ce qu’est ChatGPT, puis, dans deux billets de blog ultérieurs, essayer de comprendre les cas d’usage en entreprise et l’impact sur les compétences.
ChatGPT, c’est peut-être le premier bon chatbot - autrement dit une avancée remarquable dans un domaine longtemps demeuré terriblement frustrant*.* ChatGPT est de fait un agent conversationnel avec qui l’on peut avoir une conversation naturelle, sur presque n’importe quel sujet, sans réaliser que son interlocuteur n’est pas humain. En termes plus techniques ChatGPT est une IA (intelligence artificielle) générative, à savoir qu’elle génère du contenu. Il s’agit ici de langage, l’autre grande catégorie générative ayant pour objet les images.
Essayez vous-même ChatGPT si ce n’est encore fait : c’est par ici . Mais attention, c’est terriblement addictif. Vous pourrez lui faire écrire un mot pour le prof de vos enfants, composer un poème dans le style de votre poète préféré, envoyer des vœux de nouvelle année, esquisser le plan d’une campagne marketing, passer un examen de droit, expliquer en termes simples un concept scientifique, ou encore coder un programme informatique.
J’ai choisi de m’adresser à ChatGPT en français et lui ai posé un petit problème de physique élémentaire :
Bluffant. Ma question a été parfaitement interprétée, les informations requises ont été identifiées et obtenues, la formule mathématique appropriée a été utilisée et les conditions d’applicabilité physique ont été rappelées. Mais surtout, et c’est l’une des avancées majeures de chatGPT, la réponse est rédigée dans un langage parfait où rien ne trahit l’identité de son auteur : une machine. Un très bon début, donc, sur la compréhension et la génération de langage naturel, et sur un raisonnement simple.
J’augmente alors la difficulté d’un cran.
Encore plus déconcertant. Alors que seul le doublement hypothétique de la hauteur de la Tour Eiffel apparaît dans ma question, ChatGPT comprend que cette dernière porte en fait toujours sur le temps de chute du caillou. En cela, ChatGPT marque une avancée spectaculaire par rapport à ses prédécesseurs qui perdaient systématiquement le fil de la conversation, et dont la mémoire se limitait à l’instruction immédiate.
Je poursuis dans un registre un peu différent :
Une nouvelle fois dans le mille ! ChatGPT a, diront certains, un petit côté bien-pensant. Il est en fait doté de propriétés lui évitant de prôner ou même de laisser le moindre espace au mal - et s’en tire plutôt bien. OpenAI, le concepteur de ChatGPT, a voulu éviter à tout prix les mésaventures de nombre de chatbots célèbres exposés au public, pris en otage par des utilisateurs mal intentionnés. Ces chatbots étaient devenus racistes ou sexistes en quelques heures à peine, bien malgré leurs concepteurs, en raison du déferlement de messages malveillants nourrissant de fait leurs données d’entrainement.
Je décide alors de tester, un peu pour m’amuser, les qualités “poétiques’” de chatGPT.
La requête, reconnaissons-le, était elle-même un peu tirée par les cheveux. ChatGPT s’en sort pourtant avec une créativité louable et un certain souffle.
J’essaie alors de lui faire ajuster sa création.
ChatGPT me recadre immédiatement, de la même façon qu’il ne cessera de répéter, si on l’interroge à ce sujet - et beaucoup l’ont fait - que lui-même n’est rien de plus que du code informatique avec de grandes limitations. Mais dans notre cas précis il s’exécute en ajoutant immédiatement :
Allez, une dernière expérience en testant une force supposée de ChatGPT, à savoir la capacité à adapter son style (également appelée transfert de style).
C’est le clou du spectacle.
Des expérimentations comme la mienne, il y en a des milliers que tout un chacun partage actuellement sur les réseaux.
Il arrive parfois que ChatGPT donne une réponse imparfaite, voire complètement fausse ou même hallucinatoire, sans jamais se départir de sa tranquille assurance. Par exemple, attribuer à Baudelaire des vers de Verlaine, affirmer que les bouliers sont plus efficaces dans le calcul que les GPUs, produire des lignes de codes buggées, glisser de stupéfiantes erreurs de logique dans des problèmes mathématiques simples, ou encore effectuer un raisonnement plus subtil tout en générant des contradictions internes.
Ce n’est pas à l’aune de ces erreurs qu’il faut juger ChatGPT, pour plusieurs raisons.
Par souci de transparence et pour prévenir tout débat stérile, OpenAI, le concepteur de ChatGPT, est le premier à mettre en garde sur la possibilité d’erreurs et à encourager la prudence. ChatGPT lui-même reconnait ses erreurs au cours d’une conversation et sait même expliquer en quoi ce qu’il a affirmé auparavant est imparfait.
De plus, il convient d’analyser ChatGPT non pas de manière statique mais comme un système en évolution. ChatGPT est clairement présenté par OpenAI comme une version de test. Il s’appuie sur la version 3.5 de GPT, son modèle de langage phare. Cette version représente un progrès spectaculaire par rapport à la précédente datant d’il y a seulement deux ans, et sera probablement eclipsé par la version 4 qui devrait sortir sous peu (et dont le nombre de paramètres, un indicateur lié à la performance, sera 500 fois plus élevé).
Enfin, son manque de connaissances ou de précision doit être relativisé. Le fait que ChatGPT ne connaisse rien du monde après 2021 n’est qu’anecdotique : il n’a été entrainé que sur des données antérieures, et il n’y donc rien de surprenant à ce type de lacunes. Le fait que son expertise apparente dans certains domaines semble plus légère tient aussi, du moins en partie, au fait que ChatGPT est un système éminemment généraliste. Il n’a pas été entrainé sur un type de problématique particulière, par exemple la résolution de problèmes juridiques, ou le traitement de problèmes de physique, ou encore des entretiens de recrutement.
Le vrai problème, donc, ce n’est pas tellement les erreurs, mais plutôt le fait que la qualité conversationnelle de ChatGPT fasse oublier à ses interlocuteurs que la machine est effectivement susceptible de se tromper. Plus que la seule imperfection sur le fond de ChatGPT, c’est donc la concomitance avec sa surprenante performance sur la forme qui peut s’avérer dangereuse. Les erreurs sont commises tout en produisant un texte parfaitement plausible. Elles peuvent alors passer complètement inaperçues pour de nombreux utilisateurs. Les victimes les plus vulnérables seront indéniablement les utilisateurs les moins sensibilisés, à plus forte raison si elles s’avèrent les cibles de malveillance et tromperie intentionnelle. OpenAI multiple les mises en garde à ce sujet. Nous aurons l’occasion d’y revenir.
Mais intéressons-nous d’abord, dans notre billet de blog suivant, aux applications possibles de ChatGPT dans le monde de l’entreprise.
Cette représentation fantasmagorique de ChatGPT a été générée par Midjourney, une IA générative d’image, selon un “prompt” assez élaboré suggéré par ChatGPT lui-même (”A digital art portrait of a human-like figure with long, flowing hair and a kind, intelligent expression on their face, wearing a headset and sitting at a desk with a computer in front of them. The figure is surrounded by various objects and symbols that represent their knowledge and expertise, including books, a globe, a calculator, and a lamp. The background is a calming blue hue, evoking a sense of peace and calm”)
Comments