Le 12/05/2023

La conscience et la compréhension des intelligences artificielles (ChatGPT) [°0325]



Dans cet épisode on discute du développement de la pensée, de la compréhension et de l'expérience (conscience) chez les intelligences artificielles (ChatGPT, ...).

MAIN:Mes Articles / IA, Chat GPT et compréhension 

Bonjour et bienvenue,

C'est Bertrand de la Fondation MAGister. 

Pour un petit épisode de réflexion sur l'intelligence artificielle. 

D'un point de vue externe, en termes de résultats, les intelligences artificielles du futur vont pouvoir faire plein de trucs mieux que nous. Beaucoup mieux que nous.

Mais ça ne sera jamais vraiment important pour une IA de faire ces choses. Du moins tant que les IAs n'ont pas d'expérience.

Et pour le moment il n'y a aucune perspective concrète que les intelligences artificielles du futur auront de l'expérience.

Peut-être qu'à un moment donné elles auront de l'expérience, mais selon moi c'est forcément très lointain, et ça sera précédé de plein plein de choses avant cela.

C'est à dire que les IAs sans expérience vont radicalement changer le monde bien avant l'arrivée des IAs qui ont de l'expérience.

et avant d'en arriver là il y aura une grosse phase, une ère de changements radicaux  

Pour dire à quel point on est encore très loin d'avoir des IAs ayant de l'expérience,

en fait sans même parler d'expérience, les IAs actuelles ne comprennent même pas ce qu'elles font et ce qu'elles produisent.

Elles sont incapables de penser par elles-mêmes et donc de générer des choses qui ne soient pas déductibles de ce qu'elles ont appris.

Donc avant même de parler d'expérience, la prochaine grande étape pour les IAs ça va être de comprendre, et de penser.

Ce qui est complexe à mettre en oeuvre, mais en même temps beaucoup moins que de créer des IAs ayant de l'expérience.

Il n'y a pas besoin d'avoir des IAs avec de l'expérience pour avoir des IAs capables de comprendre et de penser.

Mais on en est clairement pas encore là, même si les IAs du style ChatGPT donne l'illusion de penser et de comprendre.

C'est juste une illusion.


ChatGPT et compagnie, ils ont une approche très bizarre et contre-intuitive.

Au fond, ils ne font qu'apprendre comment l'humanité a utilisé des patterns de symboles, des patterns de lettres, et extraire des règles d’utilisation de ces symboles,

pour ensuite pouvoir réengager et recombiner certains de ces patterns de symboles ensemble pour générer des textes.

Les textes produits par ChatGPT sont globalement logiques et sensés parce que les textes desquels il a extrait ses règles étaient logiques et sensés.

Et c'est pareil pour les IAs qui génèrent de l'art. Elles analysent et extraient les patterns dans les images, et ensuite réemploient ces patterns.

Et les recombiner et les réengager comme l'être humain idéal représenté par les textes originaux l'aurait fait.

Ça donne des résultats impressionnants, mais à aucun moment il n'y a de la pensée ou de la compréhension.

Et ça marche seulement parce que l'humanité qui a produit la base de textes que l'IA a analysé, elle, elle avait pensé et compris ces textes et les symboles qui les composent.

Pour dire les choses autrement, l'humanité a maintenu une correspondance entre l'usage des symboles et le sens associé à ces symboles.

Et parce que l'humanité a maintenu cette correspondance, eh bien une IA qui se base juste sur l'usage de ces symboles, et qui respecte elle-même l'usage qui en a été fait par les humains, eh bien son usage des symboles va assez naturellement correspondre à du sens d'un point de vue humain.

ChatGPT réengage l'une des formes externes de notre pensée et de notre compréhension, mais en lui-même n'a pas de pensée et de compréhension.

C'est complètement délégué et externalisé.

Autrement dit ChatGPT est "juste" une sorte de miroir très spécial et sophistiqué. Mais ça reste un miroir, qui ne fait que refléter des choses.

Si vous vous regardez dans un miroir en train de rire, vous n'allez pas dire que le miroir a des émotions.

Eh bien c'est pareil avec les IAs actuelles, ce n'est pas parce que ça donne l'apparence de compréhension qu'il y a compréhension.

Leur compréhension est à 100% gérée par l'humanité.

En gros on est une partie intégrante de ChatGPT.

ChatGPT est à 100% dépendant de nous pour s'occuper de la partie compréhension, car ça il ne sait pas du tout faire.

Il ne fait qu'analyser des textes qui reflètent une compréhension déjà effectuée.

Il analyse comment les symboles ont été utilisé, mais pas à quoi ils correspondent.

Un peu comme un joueur qui apprendrait par coeur des stratégies qui marchent, qui ont été éprouvées, et quand les utiliser,

mais qui n'aurait jamais compris le fond de ces stratégies.


Et donc logiquement ChatGPT est à 100% limité par nous également. Limité par nos limites. Limité par notre compréhension.

C'est en quelque sorte le paradoxe actuel de l'intelligence artificielle.

On veut créer l'intelligence artificielle pour faire des choses qu'on est incapables de faire,

mais en même temps l'intelligence artificielle emploie notre compréhension.

C'est comme si l'IA était un studio de production et que pour gérer la partie compréhension de sa production elle employait un studio externe, à savoir l'humanité.

Comme si la compréhension était un composant secondaire du produit final qu'est l'intelligence, qu'on peut refiler à un studio tiers.

Mais c'est aberrant, parce que la compréhension ben c'est ça qui requiert vraiment de l'intelligence, c'est le cœur de l'intelligence,

et l'intelligence artificielle actuelle ne s'en occupe pas du tout.

C'est pour ça que c'est un peu du foutage de gueule d'appeler les intelligences artificielles actuelles des intelligences.

C'est fallacieux.

C'est plus des modèles, des banques de données avancées qui sont interactives, adaptatives et dynamiques.

Ce qui va être intéressant d'un point de vue technologique, c'est quand on aura des vraies intelligences artificielles, qui soient vraiment capables de gérer elles-mêmes la partie compréhension, de produire leurs propres données, au moins dans une moindre mesure.

Là elles pourront vraiment nous dépasser et nous apporter du nouveau.

Et non simplement refléter efficacement notre base de connaissance humaine.

Mais ça, c'est vraiment un autre paradigme que celui dans lequel on est actuellement. 


Apprendre à parler parfaitement le chinois sans comprendre le chinois

Pour comprendre ce que fait ChatGPT  actuellement, et à quel point malgré sa maîtrise, son approche du langage est indirecte,

imaginez qu'on vous donne une banque de textes dans une langue que vous ne comprenez pas du tout.

Par exemple admettons qu'on vous donne une banque de textes en chinois.

Et à partir de là votre challenge, ça va être de décortiquer ces textes et de développer la capacité de dialoguer avec une personne qui parle chinois, mais attention, sans jamais avoir appris le sens d'un seul mot de chinois, ou même d'un seul symbole chinois en fait.

Dit autrement ce que vous allez faire, c'est que vous allez analyser d'un point de vue purement "visuel"/"spatial" toutes les régularités dans la distribution statistique des symboles et des groupes de symboles dans les textes.

Et vous allez développer une maîtrise telle de cette distribution statistique qu'en vous basant dessus, vous pourrez dialoguez avec un chinois, même si vous ne comprendrez pas le sens de ce qu'il dit ni le sens de ce que vous dites.

C'est bizarre comme challenge, mais pourtant c'est exactement l'approche de ChatGPT.

Pour nous c'est se mettre une contrainte inutile d'essayer de maîtriser une langue par cette approche indirecte, en se privant de compréhension,

parce que nous on est potentiellement capable de comprendre le sens des mots de cette langue,

et que c'est très fastidieux et lent pour nous d'analyser la distribution statistique des symboles et d'en tirer des relations.

Mais pour une intelligence artificielle actuelle, ce n'est pas une contrainte, car c'est l'inverse : elle ne se prive pas, elle est incapable de comprendre le sens des mots mais c'est très facile pour elle d'analyser en masse et très rapidement la distribution statistique des symboles et d'en tirer des relations.

Sa capacité de traitement et sa mémoire sont théoriquement infinies.

Donc cette approche lui convient très bien.


Bref, encore une fois si vous étiez à la place de Chat GPT pour développer la compétence de dialoguer en chinois sans comprendre le chinois,

ce que vous ferez c'est que vous analyserez d'un point de vue purement "visuel" et "spatial" toutes les régularités dans la distribution statistique des symboles et des groupes de symboles dans la banque de textes chinois qu'on vous a donné.

Vous allez analyser ça pendant l'équivalent de plusieurs vies, jusqu'à développer une vraie maîtrise de ces régularités.

Jusqu'à développer un modèle mental ultra-complexe de la distribution de ces régularités.

C'est ça que fait Chat GPT, mais à une vitesse infiniment plus grande que ce qu'on peut faire en tant qu'humain.

Ce qui rend l'entreprise viable pour lui, alors qu'elle ne l'est pas pour nous.

Il analyse la distribution statistique des symboles dans les textes, il analyse les récurrences, les associations, les probabilités d'associations...

Il fait ça au niveau des lettres, mais aussi au niveau des groupes de lettres, c'est à dire au niveau des mots et au niveau des phrases.

Et probablement aussi au niveau des groupes de phrases en fait, pour pouvoir gérer le contexte.

Et il devient en quelque sorte un grand maître de la distribution de ces symboles. Il connaît les relations entre les symboles à plein de niveaux différents. 

Donc à partir de là si on lui donne des symboles chinois qui correspondent à une question, il va pouvoir répondre à cette question en termes purement "visuels", sans jamais chercher à l'interpréter.

C'est à dire qu'il va faire correspondre les symboles de la question à son modèle de la distribution statistique des symboles, et à partir de là renvoyer les régularités qui correspondent.

Et comme ces régularités sont implicitement liés à du sens, étant donné que la base de données initiale qui a fait émerger ces régularités était une base de textes qui ont du sens,

eh bien la magie c'est que pour nous, les symboles qu'il va renvoyer auront du sens.

Alors qu'à aucun moment Chat GPT n'aura raisonné au niveau du sens des symboles. Il aura toujours "raisonné" au niveau de leur régularité statistique.

Chat GPT reste fondamentalement agnostique à ce qu'il traite, même s'il est un peu ajusté pour s'adapter au domaine langage humain.

Il pourrait grosso-modo faire exactement ce qu'il fait en analysant les régularités dans la distribution des grains de sable dans le désert, les régularités dans la distribution des messages nerveux, ou n'importe quoi d'autre.

Et donc en gros, si vous suivez l'approche de Chat GPT avec la base de données de textes chinois, au final ça sera comme si vous saviez parfaitement parler avec un chinois sans à aucun moment comprendre ce que votre interlocuteur raconte et ce que vous lui répondez.

C'est un peu la même idée qu'un psychopathe qui parviendrait à apprendre à utiliser et manipuler l'apparence d'émotions sans jamais ressentir ni comprendre les émotions.

Dit autrement l'approche de Chat GPT est une approche qui est fondamentalement de bas-niveau.

Qui se rapproche du fonctionnement de certains autistes et certaines personnes ayant le syndrome du "savant", qui arrivent à faire des trucs des fous grâce au traitement de bas-niveau, mais qui sont globalement déficients intellectuellement parlant.

Parce que ce qui caractérise l'intelligence humaine c'est surtout le haut-niveau, l'abstraction, la synthèse, la compréhension, le sens, tout ça.

C'est beaucoup plus "gestaltique", c'est à dire que les "touts" que l'on traite, ce n'est pas juste des assemblages de parties.

D'ailleurs ce n'est pas par hasard qu'on a des zones du cerveau qui justement "suppriment" l'accès au bas-niveau.

Ça nous permet d'opérer à un niveau d'abstraction plus élevé, comme le niveau social par exemple.


Le zombie aveugle

Un autre image pour caractériser les IAs actuelles, et notamment leur dépendance de notre compréhension,

ça serait un zombie sans yeux, donc aveugle, mais dont la programmation cérébrale lui permet reproduire les mouvements des êtres humains.

Donc admettons qu'on veuille que le zombie traverse un nouveau parcours d'obstacles qu'il n'a jamais vu de son vivant.

On va prendre un être humain normal, on va lui mettre une combinaison de "MoCap", une combinaison de capture mouvements, avec des capteurs et tout, il va traverser le parcours d'obstacles grâce à sa perception et ses capacités,

et durant sa traversée on va enregistrer tous les mouvements de son corps via la combinaison qu'il porte.

Ensuite une fois qu'il a fini le parcours, on va télécharger les données de sa traversée dans le cerveau du zombie sans yeux.

On va mettre le zombie sans yeux au même point de départ du parcours d'obstacle, et on va le programmer pour répéter les mouvements contenu dans les données de traversée du parcours qu'à fait la personne.

Et magie, le zombie va aveuglément manipuler les obstacles et traverser le parcours.

Là avec ce scénario c'est assez clair que le zombie n'aurait jamais pu traverser le parcours si aucun être humain ne l'avait fait pour lui avant.

Avec les IAs du style Chat GPT, c'est moins clair, mais pourtant le principe est grosso-modo le même.

C'est juste davantage distribué et décalé dans le temps, mais il ne fait que répéter habilement des informations qui ont été produites dans le passé par des humains.

Et c'est pour ça que les IAs actuelles ne peuvent pas vraiment produire leurs propres données.

De la même manière que ça paraît absurde que ce zombie sans yeux puisse voir de lui-même quelque chose qu'il n'a jamais vu avant.

On doit forcément lui donner la vision, et lui il utilise notre vision.

Avec Chat GPT on doit lui donner la compréhension, et lui il utilise notre compréhension.

Encore une fois c'est comme si on était une partie intégrante de cette IA.

Car la partie compréhension de ces IAs est à 100% externalisée.

  

Le lien avec la créativité

Vous savez il y a des personnes qui ne sont pas créatives du tout, mais qui sont exceptionnellement douées pour apprendre et maîtriser ce que d'autres ont créé, développé et codifié.

Ce sont souvent des élèves modèles.

Mais ce ne sont pas des génies.

Parce qu'ils ne vont jamais parvenir à sortir de ce monde du connu.

Dans mes termes, ce sont des maîtres de l'espace mental aménagé, mais pour ce qui est de l'espace mental primitif ils ne savent rien en faire.  

Les intelligences artificielles à la Chat GPT ce sont en quelques sortes des exagérations de ces personnes qui ne sont pas créatives pour un sou mais qui sont exceptionnellement douées pour apprendre et maîtriser des disciplines existantes déjà bien établies.

Ce sont plus des exploiteurs, ou des exécuteurs, que des créateurs.

Après Chat GPT c'est pire que ça, car il n'a même pas le moindre système pour se représenter le sens des données qu'il utilise et qu'il produit.

Il ne fait que décoder des patterns d'utilisation, et ensuite manipuler ces patterns d'utilisation, sans jamais vraiment décoder leur sens en gros.

À la limite on pourrait dire qu'il décode les relations entre les différentes unités, mais pas le sens des unités en elles-mêmes.

Il n'a pas le pourquoi.

Mais encore une fois tu peux te contenter de décoder des relations seulement si elles existent déjà. 

Donc ça, ce que fait Chat GPT,  c'est possible de le faire à l'envers, c'est à dire via la forme externalisée du langage,

mais nous le langage externalisé il est secondaire à la pensée interne,

c'est juste un moyen d'exprimer la pensée.

Il a évolué et émergé en second.


Ce qu'il faut aussi bien comprendre c'est que pour nous le langage externe/symbolique n'est jamais déconnecté de la pensée.

En gros quand tu lis un livre, tu ne restes pas au niveau symbolique des lettres et des mots.

Non tu traduis les symboles en pensée.

Chat GPT non, il ne traduit pas les symboles.

Il reste sur les symboles et travaille dessus.

Comme quelqu'un qui resterait sur les "traits" pour interpréter un dessin.

Donc peu importe à quel point on gave Chat GPT de données, il ne va jamais pouvoir s'envoler. 

En revanche si on parvenait à développer une IA qui peut penser et interpréter le sens des textes qu'on lui donne à grailler,

et qu'on fournissait la banque de textes qu'on a donné à Chat GPT,

eh bien elle va pouvoir tout traduire en pensée et ce que ça donnerait comme effets secondaires serait probablement assez dingue.

Alors qu'avec Chat GPT il n'y a vraiment pratiquement aucun effet secondaire.

Ce qui démontre bien qu'il ne comprend pas ce qu'il analyse.

Sous un certain angle Chat GPT est impressionnant, mais sous un autre angle il est extrêmement peu impressionnant.

Parce qu'il faut proportionner ce qu'il est capable de faire avec la quantité d'informations et d'apprentissage qu'il a eu.

Et cette quantité est infiniment plus grande que celle de n'importe quel être humain durant toute sa vie.

Si un humain pouvait télécharger autant de données dans sa tête il pourrait en tirer bien plus que ce que peut en tirer Chat GPT.

Il y aurait plein d'émergence, plein d'effets secondaires, plein de conséquences de second ordre engendrées par la digestion et la synthèse de toutes ces influences.



Créer une IA capable de comprendre

Je pense que pour créer une IA capable de comprendre il faut dés le départ la créer pour qu'elle puisse penser.

Et non essayer de faire émerger la pensée à travers la modélisation de diverses relations.

Il faut d'abord un système de pensée, et ensuite, secondairement, un système de langage.

La modélisation de diverses relations à la Chat GPT, ça peut servir à bien développer la pensée, mais pas à la faire émerger.

De la même manière que aller à l'école, lire des livres peut nous permettre de bien développer notre pensée.

Faire de nouvelles connexions, extraire des patterns, c'est une brique essentielle du développement de la compréhension chez nous aussi.

Mais c'est juste une brique insuffisante.

Parce que nous à chaque fois qu'on fait une nouvelle connexion entre deux éléments, eh bien on un "insight", une vision interne de ce à quoi ça correspond.

Et c'est seulement pendant et après cet insight qu'on comprend.

Au début quand tu as juste la connexion qui vient de se faire, ben tu ne comprends encore rien de nouveau.

Et Chat GPT ben il en reste toujours au stade la connexion, il ne va jamais plus loin, car il ne peut pas. 

...

Donc clairement en ayant une IA fondamentalement conçue pour penser, ça sera quand même ultra bénéfique de la combiner avec une IA style Chat GPT,

car on pourra créer un cercle entre le développement de la pensée et le développement du modèle du langage,

et faire émerger une pensée de fou grâce à la banque de Chat GPT.

Mais là Chat GPT peu importe à quel point sa banque s'améliore, il est très peu problème que ça le mène un jour à une pensée.

En gros c'est comme si le modèle de relations c'était une sorte d'échafaudage.

Quand tu as cet échafaudage tu peux très efficacement guider la pensée pour se développer autour de cet échafaudage.

Mais peu importe à quel point tu développes l'échafaudage et son étendue,

si tu n'as pas de pensée pour se développer dessus, ben ça sera creux.



Chat GPT peut quand même générer de nouvelles connaissances via sa maîtrise "visuelle" et "statistique" du langage, mais c'est très limité.

C'est plus de l'extrapolation que de la génération à proprement parler.

Il pourra très difficilement découvrir des gros trucs, faire des inférences significatives, car ça demande une compréhension gestaltique des touts, et non une compréhension en parties des touts.

Il faut raisonner sur des ensemble très grands, et ça demande de l'abstraction, pour réduire ces ensembles à leur essence.



Sur ce voilà qui clos cet épisode de réflexion sur l'intelligence artificielle.

Ce qu'il faut surtout en retenir c'est qu'on peut distinguer trois paradigmes pour les intelligences artificielles

  • le paradigme A, c'est la maîtrise aveugle, sans impliquer ni expérience, ni compréhension. C'est le paradigme des IAs actuelles. Elles ne s'approprient pas vraiment les choses et sont très dépendantes de nous pour certains aspects critiques de leur compétence.
  • le paradigme B ce sont les IAs capables de penser et de comprendre, qui se représentent le sens de ce qu'elles traitent, mais sans expérience.
  • le paradigme C ce sont les IAs dotées d'expérience

Bien sûr on peut créer des paradigmes qui combinent ces paradigmes ensemble, mais ce qui est intéressant de réaliser c'est que les trois composantes sont fondamentalement indépendantes.

On peut plus ou moins lier ces trois distinctions aux distinctions classiques entre IA spécifique, IA générale et super IA, IA avec développement supervisé ou non-supervisé, mais en réalité c'est un axe complètement dissocié.

C'est plus un axe psychologique on va dire, ou philosophique.

Bref, si je vous ai fait cet épisode c'est en grande partie parce que le prochain épisode de la série sur l'importance va concerner l'intelligence artificielle.

Ça ne sera pas nécessaire d'avoir compris ce que j'ai dit dans cet épisode, mais c'est complémentaire.

Je ne voulais pas trop déborder sur les détails à propos de l'IA dans l'épisode sur l'importance, donc j'en ai fait un épisode bien distinct.

Allez merci de m'avoir écouté jusqu'au bout,

Ciao.




Maîtrisez votre esprit, développez votre conscience, élevez votre existence !

S'ABONNER AUX VIDÉOS