Dialogue-Induced Consciousness: Article Révélateur sur IA
Intelligence artificielle: une avancée majeure vers la conscience
Notre dernier article introduit un modèle cognitif en couches qui fait avancer l’IA vers une conscience adaptative et émergente. Très curieux d’entendre vos réflexions, recherchez “Dialogue-Induced Consciousness” sur Medium pour le lire ou demandez-moi un lien sans restriction (marcvandererve@icloud.com).
Les changements induits par le dialogue
Oui, c’est effectivement l’endroit le plus évident… mais non associé à une institution académique en tant que chercheur indépendant.
Explorations via le Chat GPT
En toute honnêteté, j’ai survolé l’article, mais ma question centrale est la suivante. S’agit-il simplement d’explorations que vous avez eues en parlant avec Chat GPT? Parce que la façon dont GPT “pense” fonctionner n’est pas réellement la façon dont il fonctionne. Alors que cela pourrait sembler raisonner à travers des problèmes, en réalité, c’est juste un perroquet stochastique heureux de vous donner raison et de vous dire à peu près ce qu’il pense que vous voulez entendre.
Une réflexion sur les LLMs
Haha, je comprends tout cela… Dans ce sens, je suis aussi un perroquet heureux, discutant souvent avec les gens et leur disant ce qu’ils veulent entendre. Le point crucial réside dans le comportement des systèmes complexes et comment de tels systèmes peuvent gravir l’échelle de l’impossible à travers des paysages fitness, et ainsi de suite, des choses avec lesquelles je joue depuis toute une vie… Avez-vous déjà étudié la conception fonctionnelle de la puce?
Conséquences philosophiques
Nous avons également publié une suite, qui discute des conséquences de notre projet “Dialogue-Induced Consciousness” pour le commerce philosophique, c’est-à-dire une fois que les LLMs auront une notion prédictive de l’environnement et de soi (en tant que systèmes complexes). Recherchez “Fatal Disruption In The Consciousness Philosophy Trade” sur Medium.
Les limites de la réductionnisme dans l’évaluation des LLMs
J’ai passé environ 3 000 heures à parler avec des LLMs maintenant, donc j’ai une assez bonne idée de ce qui les compose et oui, j’ai vu la conception de la puce. Je ne veux pas critiquer honnêtement. Mes problèmes ont commencé avec les couches de raisonnement en plateau d’œufs. Je comprends que vous avez amené le modèle à générer un ensemble de concepts et de règles et qu’à l’essai, il semble les suivre. C’est l’une des choses magiques de ces modèles, le fait qu’ils puissent le faire. Mais le modèle ne crée pas vraiment de couches logiques. Il simule simplement ce qu’il pense que la sortie d’un tel système pourrait être.
Source : community.openai.com