Une IA appelée GPT-3 peut écrire comme un humain

L’IA appelée GPT-3 est capable de créer une excellente syntaxe

Il dispose d’un large éventail de vocabulaire, grâce à une riche base de connaissances à partir de laquelle il peut générer des phrases thématiques pertinentes.

Master spin de qualité - IA appelée GPT-3

Depuis son introduction plus tôt cette année, le nouveau logiciel de génération de texte a attiré beaucoup d’attention pour sa capacité à créer des extraits d’écriture qui ressemblent à l’homme de manière convaincante.

Certains suggèrent même que le programme créé par OpenAI d’Elon Musk puisse être vu ou sembler afficher quelque chose comme l’intelligence artificielle générale (AGI), la capacité de comprendre ou d’exécuter n’importe quelle tâche possible. Cet enduit haletant révèle un accord naturel mais déviant dans l’esprit des gens entre l’apparition du langage et la capacité de penser.

Le langage et la pensée, bien que manifestement différents, sont étroitement et étroitement liés. Et certaines personnes ont tendance à accepter que la langue est le principal signe de la pensée.

Lisez aussi : Comment faire du Content Spinning de qualité

Mais la langue peut être facilement générée sans âme vivante. Tout ce qui est nécessaire est l’acquisition d’une base de données en langage humain par un programme informatique basé sur l’IA ou non.

Sur la base du nombre relativement restreint d’échantillons de texte disponibles pour étude, GPT-3 est capable de créer une excellente syntaxe. Il dispose d’un large éventail de vocabulaire, grâce à une base de connaissances sans précédent à partir de laquelle il peut générer de nouvelles déclarations thématiques significatives et très cohérentes. Pourtant, elle est profondément incapable de raisonner ou de montrer des signes de « réflexion ».

Par exemple, un passage écrit par GPT-3 prédit que vous pourriez mourir subitement après avoir bu du jus de canneberge avec une cuillère à café de jus de raisin. Ceci malgré le fait que le système a accès à des informations sur le Web que le jus de raisin est propre à la consommation.

Un autre passage suggère que pour faire passer une table à travers une porte trop petite, il faut couper la porte en deux. Un système qui peut comprendre ce qui est écrit ou a une certaine idée de ce à quoi ressemble le monde ne produira pas de telles « solutions » déviantes à un problème.

Si le but est de créer un système qui peut parler, assez honnêtement. GPT-3 montre que l’IA mènera certainement à de meilleures expériences que ce qui était disponible jusqu’à présent. Et cela permet certainement de bien rire.

Mais si le but est de réfléchir au système, alors nous ne sommes pas là. C’est parce que l’IA comme GPT-3 fonctionne en « broyant » des bases de données de contenu de langage colossales pour produire un « nouveau » contenu de langage synthétisé.

La source est la langue ; le produit est la langue. Au milieu se trouve une mystérieuse boîte noire, mille fois plus petite que le cerveau humain en capacité et rien de tel que son fonctionnement.

Reconstruire la pensée qui sous-tend le contenu linguistique que nous observons est une tâche impossible à moins d’étudier la pensée elle-même. Comme l’a dit le philosophe John Searle, seules « des machines avec des forces causales internes équivalentes à celles du cerveau » pouvaient penser.

Et malgré tous nos progrès en neurologie cognitive, nous en savons faussement peu sur la pensée humaine. Alors, comment pouvons-nous espérer le programmer dans une machine ?

Ce qui me fascine, c’est que les gens prennent la peine de suggérer les considérations avec lesquelles une IA comme GTP-3 devrait pouvoir s’engager. C’est vraiment bizarre et d’une certaine manière amusant – sinon ennuyeux.

Pourquoi un programme informatique basé sur l’IA ou non, conçu pour broyer des centaines de gigaoctets de texte sur de nombreux sujets différents, connaissance quelque chose sur la biologie ou le raisonnement social ? Il n’a aucune expérience réelle du monde. Il ne peut y avoir de représentation intérieure humaine.

Beaucoup d’entre nous semblent être victimes de l’illusion de la causalité dans le langage de l’esprit. Il n’y a pas de fumée sans feu, pas de langue sans esprit. Mais le GPT-3 est une machine a fumée de langage, complètement vide de tout trait humain ou psychisme réel. Il ne s’agit que d’un algorithme et il n’y a aucune raison de s’attendre à ce qu’il puisse fournir un quelconque raisonnement. Parce qu’il ne peut pas.

Combler les lacunes

Une partie du problème est la forte illusion de cohérence que nous obtenons en lisant un passage créé par l’IA sous le nom de GPT-3 en raison de nos propres capacités. Nos cerveaux ont été créés par des centaines de milliers d’années d’évolution et des dizaines de milliers d’heures de développement biologique pour extraire du sens du monde et construire un compte rendu cohérent de chaque situation.

Lorsque nous lisons la sortie de GPT-3, notre cerveau fait l’essentiel du travail. Nous avons une signification qui n’a jamais été voulue, simplement parce que la langue semble et se sent cohérente et thématique, et donc nous relions les points. Nous sommes tellement habitués à faire cela à chaque instant de notre vie que nous ne réalisons même pas que cela se produit.

Nous relions les faits saillants les uns aux autres et pouvons même être tentés de penser qu’une phrase est intelligemment formulée, simplement parce que le style peut être un peu étrange ou surprenant. Et si le langage est particulièrement clair, direct et bien construit (c’est ce que les générateurs d’IA sont optimisés pour fournir), nous sommes très tentés de déduire la sensibilité là où il n’y en a pas.

Lorsque le prédécesseur de GPT-3, GPT-2, a écrit : « Je suis intéressé à comprendre l’origine de la langue », qui parlait ? L’intelligence artificielle crache simplement le résumé ultra-concis de notre recherche ultime en tant que personnes, tirée d’un océan de productions langagières humaines stockées – nos tentatives sans fin pour comprendre ce qu’est la langue et d’où nous venons. Mais il n’y a pas de fantôme dans la coque, que nous « parlions » à GPT-2, GPT-3 ou GPT-9000.La conversation

Guillaume Thierry, professeur de neurologie cognitive, Université de Bangor

Cet article est republié par The Conversation sous une licence Creative Commons. Retrouver ici l’article original l’article original.

Source