Tout le monde aujourd'hui utilise ChatGPT
et envoie sur les réseaux sociaux les résultats les plus amusants ou
les plus spectaculaires. La plupart des retours sont admiratifs
devant les performances de ce système d'« Intelligence
Artificielle » (IA) pour répondre à des questions et
générer des textes. Mais il faut nuancer un peu.
Tout d'abord, un sérieux avertissement : je n'ai pas essayé
ChatGPT moi-même, en raison de leur demande
excessive de données personnelles (il faut
indiquer une adresse de courrier et un numéro
de téléphone, et les deux sont vérifiées par envoi d'un code à
retourner ensuite ; on ne peut donc pas tricher). J'ai seulement lu
les résultats de ChatGPT tels que publiés par ses utilisateurs. Si
vous pensez que cela rend cet article sans valeur, arrêtez votre
lecture tout de suite et allez faire autre chose, par exemple
regarder les belles aquarelles d'Aemarielle.
Maintenant, revenons à ChatGPT. On lui pose des questions et il
répond. Le résultat est souvent étonnant, par exemple lorsqu'on lui
demande des textes « écrits dans le style de [telle personne] » ou
lorsqu'on l'interroge sur des questions techniques complexes. Cela
illustre de manière publique les progrès importants des techniques
connues sous le nom commercial d'IA (Intelligence Artificielle),
ainsi que la quantité vraiment colossale de données que ChatGPT a
lues et assimilées. Il est par exemple à noter que ChatGPT écrit des
textes bien meilleurs que ce que font beaucoup d'humains, y compris
dans un environnement professionnel (« écris un communiqué de presse
se félicitant de l'augmentation de X % du chiffre d'affaires de la
société Machin » donnera un résultat indistinguable du
« vrai »). Notamment, il ne fait aucune faute d'orthographe ou de
grammaire.
Est-ce que cela signifie qu'on peut réellement parler
d'intelligence et que les humains sont désormais inutiles ? Pas si
vite. D'abord, l'intelligence, ce n'est pas de savoir exécuter une
tâche, c'est de savoir quelle tâche exécuter. De ce point de vue,
ChatGPT est loin de l'intelligence. Plusieurs personnes ont pu
constater qu'on pouvait lui demander des textes contradictoires
(« explique pourquoi il est important d'augmenter les impôts » puis
« explique pourquoi il faut baisser les impôts », et ChatGPT
s'exécutera).
Ensuite, ce que révèle ChatGPT, ce ne sont pas tellement les
progrès de l'IA que le creux et l'absence de contenu de beaucoup de
textes produits par des humains. ChatGPT sait faire des devoirs
d'étudiants de première année, écrire des communiqués de presse, du
reporting
et produire les discours des ministres. Grâce à ce système, on voit
bien que ces textes n'ont pas tellement de fond et ne nécessitent
pas beaucoup d'intelligence, uniquement la lecture et le traitement
d'une grande quantité d'informations, tâche où les humains sont
certainement inférieurs aux ordinateurs. ChatGPT ne remplacera donc
pas les humains mais lui ou ses successeurs pourront prendre en
charge des tâches qui étaient considérées à tort comme nécessitant
de l'intelligence. Comme le note Stéphane
Mouton, ChatGPT est toujours « correct mais
superficiel ».
Cela va certainement « disrupter » certains secteurs, comme celui
des rédacteurs sous-payés qui écrivent vite et mal. Pour prendre un
autre exemple, j'ai vu
des étudiants de master produire des
notes qui ne valaient pas ce que fait ChatGPT. L'enseignement devra
donc s'adapter. Mais cela poussera à réfléchir à ce que nous voulons
que les humains fassent. Écrire des synthèses fades et sans
originalité ou bien travailler de manière plus créative ?
Mais, diront certains, ChatGPT et l'IA en général vont continuer
à progresser. Les limites actuelles seront forcément dépassées. Eh
bien non, ou plus exactement, c'est plus compliqué que cela. La
marche du progrès technique peut faire croire que le progrès est
forcément linéaire, chaque année marquant une amélioration
technique. Des observations comme la loi de
Moore vont en ce sens. Mais ce n'est pas une règle
générale du progrès. Il y a également des techniques qui stagnent,
ou qui ne progressent que par bonds imprévisibles. L'IA en est un
bon exemple : depuis ses débuts (qui sont à peu près ceux de
l'informatique), elle alterne des bonds spectaculaires avec de
longues périodes de repos, le bond spectaculaire ayant été suivi
d'une constatation qu'on n'arrivait pas à l'améliorer. Peut-être que
ChatGPT va progresser, ou peut-être qu'il ne dépassera pas son stade
actuel avant longtemps, mais on ne peut pas affirmer qu'il fera
forcément mieux dans le futur.
Et sinon, non, petits coquins, cet article n'a pas été écrit par
ChatGPT, Bruce Schneier a fait
la blague avant moi (et je suis d'accord avec la plupart des
commentaires à son article ; l'article est sans erreur mais enfonce
des portes ouvertes et ne fait preuve d'aucune réflexion).