A l'issue de la théorie de la connaissance

Pour appréhendé ce texte, il est utile d'avoir lu
- Introduction à la théorie de la connaissance

- la théorie de la connaissance, introduction

Pour comprendre le sens de ce texte, il est nécessaire d'avoir lu
- les éléments de bases
- les mécanismes actifs
- comportement global

Points forts et points faibles
Après avoir fait le tour du modèle, nous allons rapidement regarder quelle est la part de l’objectif initial que nous avons réussi à atteindre.

Adéquation entre la liste des états mentaux et la théorie.
Il est évident que la plupart des mécanismes de la liste ne correspondent pas à une explication simple dans le cadre du modèle, mais à une imbrication très complexe de nombreux mécanismes élémentaires. Il ne s’agit pas ici de donner une explication de tous les états mentaux, mais de constater que les objectifs ne sont pas atteints dans la mesure esperée.
Il est évident que la liste elle-même est très discutable, et cela à tout niveau : sa superficialité, ses manques fondamentaux, l’aspect purement arbitraire de sa « taxinomie », etc…Mais nous allons malgré tout faire un rapide tour du propriétaire pour évaluer l’édifice avec le filtre de notre nouvelle interprétation :
la perception : si l’ouïe, la vue et le toucher, qui sont les sens les plus actifs dans la perception extérieure, semblent relativement bien modélisés lorsqu’on se satisfait d’un aperçu superficiel, les autres sens semblent avoir été négligés et il faudrait une étude plus approfondie pour déterminer si leur modèlisation s’intègre bien au modèle globale. Il faut tout de même préciser que le toucher est un sens nettement plus complexe que les précédents de par son étroit rapport avec l’action. Il est donc probable qu’il y ait des manques encore plus évident sur ce sens. En conclusion de la perception, on peut dire que le modèle apporte une réponse intéressante, en ce qu’elle permet un chemin crédible ente la manifestation extérieure et la perception intérieure ; mais sa crédibilité appelle une perspective d’élaboration plus précise.
l’action : il me semble que pour l’action, des mouvements de la parole, le modèle présente une explication a peu près acceptable. Toutefois celle-ci repose sur un pari gratuit, qui consiste à supposer que les éléments décrits peuvent s’enchaîner pour aboutir à la capacité de pensée telle que nous la connaissons. J’ajouterai même qu’il est peu probable que le modèle fonctionne en tant que tel. L’intérêt consiste à donner un schéma d’explication globale. En cela la méthode me semble original et intéressante quand à sa crédibilité. Le modèle est malgré tout intéressant, car bien qu'il soit impossible d’en mesurer l’efficacité, il est possible d’en apprécier la pertinence.
Le fonctionnement mental : c’est sans doute à ce niveau que le modèle est le plus incomplet. Si certaines parties du fonctionnement présentent une interprétation satisfaisante, nous avons vu qu’une grande partie du fonctionnement mental n’est pas bien expliquée, tout ce qui concerne ce que nous avons désigné sous le terme de psychologie de haut niveau.
En conclusion, le résultat bien que très incomplet me semble plutôt satisfaisant. Le manque consiste en deux aspects : le premier est un manque d'approfondissement technique qui me semblait inévitable dans notre démarche (que ce manque soit évident ou qu'il soit cruel n’est pas fondamental dans notre approche). Le second manque se situe dans le domaine de la personnalité, l'incapacité du modèle à expliquer l'humanité. On peut dire que cette insatisfaction est presque satisfaisant sur le plan philosophique.

Les situations exceptionnelles.
Je pense que le modèle que nous avons développé présente encore d’autres arguments en sa faveur. C’est l’explication naturelle qu’il apporte à certains phénomènes exceptionnels peuvant être délicats à explicquer, sur le plan philosophique. Nous avons vu que le modèle est insatisfaisant quant à expliquer les phénomènes psychologiques de haut niveau. Mais nous pouvons facilement comprendre que ces phénomènes sont construits en étroite liaison avec les phénomènes psychologiques plus mécaniques, et qu’ainsi les défauts de l’un vont entraîner les défauts de l’autre. Nous allons donc présenter quelques situations particulières dont l’explication entrant naturellement dans le cadre du modèle apporte des arguments en sa faveur.

La débilité mentale
Sans entrer dans les détails techniques de la définition, on sait qu’il existe des formes très variées de la débilité. On sait aussi que réduire la définition de débilité à mesure du Q.I serait une réduction maladroite car l’étiologie de la débilité est un facteur déterminant de sa caractérisation. Quand la débilité est proprement dûe à des lésions cérébrales, on comprend facilement que la lésion de certains centres peut apporter un déséquilibre dans le fonctionnement normal du mécanisme. On peut citer aussi les observation sur la galactosémie (déficit de fixation du glactose dû à un problème métabolique) du nouveau né, qui entraîne une arriération mentale. On peut penser facilement que des manques en certains composants chimiques jouant un rôle dans la circulation de l’information cérébrale, entraîne un mauvais fonctionnement. Pour ce qui est du déficit affectif ou socio-culturel, il peut sembler aussi naturel qu’un apprentissage qui ne s’est pas construit sur les bases de la perception du monde à cause d’un déficit de stimulation, d’ouverture et de sécurité donne de mauvaises bases de perception et construit des abstractions mentales qui se dévoloppent de façon interne ; et par la suite inhibent le développement « normal » par la création de circuits fermés ou par le manque de résolution de l’adaptation avant création de processus abstraits élaborés. Il est évident qu’il suffisait de dire que nous n’avons pas avancé beaucoup plus loin que : «  la pensée est dans le cerveau. Si le cerveau est abimé, la pensée pourra être diminuée ». Cet argument n’est pas vraiment en faveur du modèle. Ce qu’il faut voir ici, c’est surtout la compatibilité du modèle avec cette réflexion. Le sens étant apporté de façon mécanique, on constate qu’un défaut de sens est compatible avec un défaut physiologique (défaut de fonctionnement mécanique du système) ou à un défaut environnemental (défaut de stimulation).

La sénilité
Là encore il ne s’agit pas d’étudier la complexité du processus, mais d’observer comme la vieillesse peut avoir des effets importants sur le comportement mental. Le problème philosophique qui s’y joint est celui de la perte de personnalité : on trouve une explication assez claire quand on comprend que l’activité mentale est tributaire d’un processus mécanique . Un défaut, des lésions, un fonctionnent global parvenu à une dégénérescence, une diminution de l’énergie, etc : autant d’explications qui donnent compréhension du principe de dégénérescence de la personnalité.

La folie
Bien que le terme même de folie soit assez difficile à définir et que certains le tiennent pour inadéquate. J'utilise malgré tout ce terme générique pour décrire les comportement dont la très forte incohérence face à l'objectivité du réel ne parvient pas à être justifiée par un bon sens communicable. Ainsi la folie, englobe elle aussi une gamme de phénomènes très variés. La folie peut recevoir les mêmes explications que pour les situation précédentes. Mais une étude précise devrait attribuer à chaque type particulier de déficit une explication apropriée. Parmi tant d’explications possibles basées sur notre modèle, on pourrait en citer une qui prend son intérêt justement dans le cadre du modèle : il serait assez facile d’envisager que certaines formes de folie correspondent à une mauvaise régulation des flux d’ordre chimique (drogue) ou sont dûes à la recherche intensive d’états mentaux psychotropes qui induisent des circuits de compréhension faussée. En résumé, on peut comprendre que certaines formes de folie soient dûe à une circulation non correctement régulée dans le mécanisme ou dans la structure. Je pense que là encore, la prise en compte du modèle pourrait s’avérer pertinent pour apporter un angle de vu théorique pour la compréhension et le traitement de certaine forme pathologique. Cette pertinence demanderait bien sur à être confirmée par les observations cliniques.

Les handicaps sensoriels
Un élément intéressant qui permettrait d’apporter des éléments pour valider ou infirmer le modèle serait l’étude de la perception dans une situation de handicape précoce de certains sens comme la vue ou l’ouïe. L’étude de la nature des concepts abstraits qui permettent la compréhension du monde dans ces circonstances doit se révéler intéressantes. On doit en particulier pouvoir penser que les concepts de perception développés chez des gens qui ont toujours été privé de ces sens soient très différents des concepts d’un individu qui possède ce sens.

L'enfant-loup
La situation assez exceptionnelle de « Victor  l’enfant-loup » étudiée par le docteur Itard, est intéressante face à notre modèle. Vu l’échec du Docteur Itard à éduquer l’enfant au langage et aux symboles sociaux, on pourrait penser que c’est une preuve infirmant le modèle en montrant que l’activité mentale n’est pas de nature essentiellement constructive. Seulement je pense comme je l’ai dit précédemment pour la débilité que le processus de construction mentale suit un parcours global. Cela signifie que si l’apprentissage ne connaît pas l’éveil qui lui est nécessaire, l’esprit va se construire de façon complexe sans cet apprentissage. Le terrain n’étant plus vierge l’énergie est dépensée dans les cycles de compréhension et d’action qui ne permettent plus la construction naturelle en partant d’un esprit vierge. Autrement dit la maléabilité n’est pas complète, car l’historicité joue un rôle irréversible dans le processus de construction mentale. Tout est interprété par rapport à notre histoire de la pensée. Je pense que le statut d’idiotisme mental donné à l’enfant Victor se révèle certainement fondé. L’interaction entre le milieu et l’enfant est en effet plus que fondamental.
Il y aurait beaucoup de situations atypiques à étudier pouvant attester ou invalider le modèle, mais l’objectif de ce paragraphe consistait seulement à ouvrir une fenêtre sur cet aspect méthodologique.

Le sommeil
Vu la part importante que prend le sommeil sur l’activité cérébrale, il semble utile que nous en parlions au moins brièvement.
Là encore, nous n’en donnerons pas d’explication précise et mécaniste, nous nous limiterons à quelques idées qui peuvent laisser envisager l’intégration du sommeil dans le système global. Comme on l’a découvert dans des études neurophysiologique, le sommeil ne se résume pas à un processus unique, mais à de nombreux processus émanant de différentes structures qui sont associées. Il n’entre pas dans le cadre de notre étude d’étudier, ni même de résumer ces différents états. Notre objectif consiste à en donner l’idée d’une intégration au système :
on sait que le sommeil est directement en relation avec l’action de certains centres très précis du cerveau. On peut donc penser qu’il existe un ou plusieurs mécanismes. De même qu'une seule séquence d’ADN peut servir à coder plusieurs protéines en utilisant des sens de lecture différents, il est possible que le cerveau soit organisé en centres complexes qui ne sont pas élémentaires et qui interviennent dans de nombreux processus élémentaires.
On connaît l’importance de certaines ondes à vitesse régulière dans le rôle du sommeil. Il serait maladroit d’essayer de transcrire l’activité électrique du cerveau en flux ; nous en reparlerons plus loin. Mais cela permet de penser à l’existence de flux continus qui agissent sur l’excitation de certaines cellules qui ont un rôle proche du fonctionnement des associations.
Le sommeil est une déconnexion entre la conscience et l’action (nous parlerons du rêve un peu plus loin). Il faut donc pouvoir envisager l’inhibition de certains fonctionnements (voire de la conscience elle même dans certaines phases du sommeil). Toutes ces particularités témoignent de la profonde insuffisance du modèle telle que nous l’avons exposé, mais rien n’exclut la possibilité d’intégrer de tels mécanismes pour le rendre plus proche des découverte et du fonctionnement, car la plupart des mécanismes sont à proprement parler mécaniques et de prime abord, il ne semble pas incompatible avec le modèle.
Faut-il penser que le sommeil possède une réelle utilité en ce qui concerne l’activité intellectuelle ? Certains constats cliniques semblent indiquer qu'il joue un rôle dans la mémorisation. Dans le cadre de notre modèle, les suppositions sont là encore gratuites : on peut lui attribuer un rôle d’équilibre « chimique » rétablissant des valeurs énergétiques globales, on peut imaginer un rôle de synthèse automatique accru (qui est un mécanisme d'organisation de la mémoire), un rôle de nettoyage des mémoires à faible intensité. Etc. qui à moyen terme sont certainement un bénéfice pour la pensée.
Devant de telles suppositions, il est bien évident qu’il est préférable de ne pas statuer à cause de l’ignorance qui concerne ces domaines. Aussi dans le cader d'une implémentation informatique, plutôt que d’envisager une fonction de sommeil à l’intérieur du modèle qui ne remplirait qu’un pur rôle de simulation, il est préférable de ne pas se lancer dans cette voie tant qu’on en connaît pas objectivement le fonctionnment, le rôle et l’importance.

Parlons du rêve maintenant
Une brève description du rêve : il correspond à une phase du sommeil où une activité mentale libre (qui ne connaît pas de contrôle raisonné par le bon sens) nous donne une impression de conscience qui est cependant déconnectée des activités musculaires.
Il n’est pas difficile de simuler ce genre de situation en intégrant un principe d’inhibition similaire au principe d’inhibition musculaire que nous avons évoqué pour le sommeil ; à la différence près que la conscience n’est pas inhibée. Pour cela, il faudrait par exemple prévoir d’inhiber certains flux comme les flux d’adaptations qui servent à résoudre les problèmes concrets. La conscience ne fera donc que se « déplacer » sur des synthèses directes sans résolution de recherches. Ceci expliquerait qu’il n’existe pas de processus de contrôle, et que la conscience suive des chemins beaucoup plus hasardeux que la conscience éveillée. Ainsi, on peut envisager d’interpréter les différences de pensée entre l’éveil et le rêve par une modification des mécanismes d’interaction des flux (ou de certaines « zones d'activité » telle que nous les présenterons dans l'adaptation au modèle du cerveau).

Mais la encore les suppositions sont gratuites, et il est de peu d’intérêt de simuler un processus tant que son fonctionnemnt profond son utilié et son importance n’ont pas été mis en évidence.
Quant à parler de l’utilité du rêve, nous pourrions faire les mêmes remarques que pour le sommeil.

Confirmations de la théorie
Il est évident qu’en construisant le modèle, on espérait décrire et expliquer la réalité du fonctionnemnet de la pensée. N’ayant pas réussi à atteindre cet objectif, ce chapitre qui vise à faire l’apologie du modèle, est un peu déplacé. Mais je pense qu’il peut servir à résumer certains point forts, ainsi qu’à apporter des confirmations extérieures. Je commencerai donc par retracer les idées les plus propres à défendre la théorie :
Plutôt que de voir l’état de conscience mentale comme un mécanisme fort complexes résultant de nombreux processus, il est posé comme phénomène fondamental. Le modèle diffère donc de la théorie déjà ancienne du connexionnisme. La conscience des choses est toujours unique. C’est idée très forte est la base du modèle.
Le fait que cette unicité de conscience donne l’impression de concentrer en un point une multiplicité d’éléments rend aussi bien compte d’une réalité psychique permanente.
Le fait que la conscience se déplace sans cesse en donnant l’impression d’un film.
Le fait que la perception de choses très complexes (autant dans la perception des sens que dans la compréhension du langage) soit quasi-instannée.
Le fait que les actions complexes sont initiées par une simple décision et suive après un déroulement quasi-inconscient.
Le principe d’adaptation qui est à la base de l’intelligence d’action.
Les mécanismes de la mémoire qui semble assez en coïncidence avec le fonctionnemt réel.
Le fait que l’intelligence fonctionne d’abord sur le principe des associations d’idées et non de la logique (non pas en tout sens mais en associations contrôlées).

Sans reprendre en détail tout ce qui a déjà été évoqué, on peut citer quelques arguments importants en faveur du modèle :
Le fait que les souvenirs n’anticipent pas un certain âge (environ 2 à 5 ans), est un argument pour laisser penser que les souvenirs sont construit sur une abstraction importantes, et qu’ils ne subsistent qu’à partir du moment où cette abstraction devient une utilisation constante. Tant que l’abstraction n’est pas assez générale, elle sera dépassée et les souvenirs qui vont avec aussi.
Si les associations diminuent et disparaissent les concepts voient leur sens transformé ou tout simplement disparaître. Ce principe d’usure progressive explique beaucoup de phénomènes de mémoire.
La mémoire à court terme et à long terme: le principe de rémanence explique très bien la mémoire. Peu d’excitation et peu d’association entraîne une disparition rapide. Il faut préciser qu’« impossiblité de se souvenir » diffère nettement de « disparition » : la résurgence des souvenirs d’enfance dans la vieillesse ou en période de sénilité en est le témoignage flagrant. Beaucoup d’excitations, d’associations et de réutilisations impliquent une très forte rémanence qui peuvent fixer une mémoire pour toute la vie.
Le principe de la concentration : tout ce qui est habituel n’interpelle pas la conscience , mais un petit détail nouveau l’appellera aussitôt. Cela possède très bien son explication dans le modèle par la description du mécanisme automatique de la perception.
L’importance de l’inconscient : on a pensé longtemps que l’inconscient et l’intelligence semblait s’exclure mais depuis l’étude des sciences cognitives le rapport étroit qui les lie est devenu manifeste. Le modèle présenté ici en témoigne : la conscience est construite sur la connaissance.
On s’est souvent interrogé sur le fait qu’une même éducation pouvait conduire à des résultat très différents. Il est évident que les mêmes perceptions et le même apprentissage sera perçu différemment par des enfants. Ainsi pour ne citer qu’un exemple issu de ma praique quotidienne, il est manifeste que les enfants (et les adultes) n’ont pas la même perception de la réprésentation symbolique de la troisième dimension dans le plan (le symbolisme du relief). Certains comprennent naturellement ces symboles de relief et d’autre non . Je pense que cela est du à une perception profondément différente de la vision naturelle. Ce qui témoigne de la possibilité d’une perception radicalement différente des mêmes objets (couleur forme son, etc). Cela conduit à penser que même les réalités de base que certains philosophes ont qualifié d’intrinsèque (comme ici l’espace ; mais on pourrait aussi parler du temps) sont issue d'une construction expérimentale. On pourrait faire de semblables remarques dans d’autres disciplines comme la musique, le langage, etc…
L’interaction de l’individu dans ses perceptions : beaucoup d’expériences mettent en évidence que la perception peut-être déformées par des états mentaux internes. Cette subjectivité trouve une explication aisée dans le cadre du modèle.
Etc…
Il y aurait beaucoup de confirmations à donner. Je pense que la meilleure façon de procéder est de s’interroger régulièrement sur ce qu’est notre état mental actuel et d’en cherche l’explication dans le modèle. D'où l'intérêt de la liste des états de conscience précédemment conçues. C’est sur cette base que j’ai façonné le modèle.

Implementation de la théorie
Par implémentation, j’entends la mise en œuvre d’un point de vue mécanique et informatique du modèle ; ce qui en pratique signifie sa programmation informatique.
Il existe déjà beaucoup de recherche qui consiste à imiter l’intelligence. Avant de rentrer de le vif du sujet de l’implémentation de l’intelligence artificielle, commencçons par définir très brièvement quelques contours de l’intelligence.

L’intelligence
Dans la nature, on trouve beaucoup de principes qui se répète, cela permet des classifications, des comparaisons. Certains ont assimiler le classement, la reconaissance avec l'intelligence. C'est peut-êter un bon début, mais il manque quelque chose de fondamentale : la capacité de lier le sens, de fabriquer un nouveau contexte et l'interpréter par les connaissance passée, la capacité de construire ses propres méthode d'investigation, etc...
En fait, le seul modèle d’intelligence que nous possédions est celui de l’homme. Lui seul possède cette capacité que nous appelons intelligence : une faculté d’adpation considérable, une capacité d’abstraction sidérante, une capacité de décomposition analytique, de projection dans l’avenir, sans parler de sa dimension psychique, etc…S’il est difficile de définir l’intelligence sous une simple définition, cela est du à l'unicité du modèle : que retient-on sous le vocable intelligence, les avis sont partagés. Cependant, il semble clair que l’intelligence humaine est dotée d’une capacité nettement plus grande que toute les autres individualités de la nature connue.
Simuler l’intelligence n’a de sens que si l’on définit l’intelligence ou tout au moins les objectifs à atteindre. Sans vouloir donner une définition exhaustive, nous posons la définition suivante pour d'un système intelligence : en deux mots, l'intelligence est la capacité de s'en sortir avec des données complexes. Un peu plus précisément, c'est un système capable de produire un sens (un résultat) complexe, logique et cohérent (pour l'homme) dont la méthode d'obtention n’est pas contenu dans les données de départ (ou les informations de la machine). Et il faut que la différence entre le produit fini et les données d’entrées correspondent à un processus constructif qui demanderait à l'homme une somme de réflexions complexes et vastes, d'analyse de données, d'intégration avec les connaissances acquises, etc.... L’intelligence d’un système est donc fondé par comparaison à l’intelligence de l’homme. Cette définition très primaire fait de l’ordinateur et des systèmes robotiques informatisés, des systèmes intelligents (à moins que l’on joue sur les mots « contenu au départ »). C’est pourquoi la définition peut-être affinnée en ajoutant des ingrédients à volonté. En particulier que la méthode de résolution doit être construite par la machine elle-même (qu'elle ne soit pas implémanter au départ) . On peut ainsi nommer l’adaptation, mais là encore ce n’est pas forcément facile à définir. Etc.

On comprendra que de mon point de vu, il est un ingrédient de l’intelligence qui me semble essentiel : c'est le sens. Il faut qu'un système intelligent puisse reproduire et stocker en lui-même le sens perçu à l'extérieur. Définir le sens en une phrase semble inaccessible (je tenterai cependant de m'y atteler plus tard).  Dans l'idée développée par notre modèle, un comportement intelligent devrait permettre d’integrer des situations nouvelle en se référant et en tissant tout lien de sens possible avec les connaissances déjà développées par l'apprentissage. Ces connaissances devront être organisées entre elles par des liens structurés qui sont une traduction de la réalité extérieure (qui permettent l'anticipation, qui permettent de combler les manques de perception, qui permettent d'étendre la perception à une logique bien supérieure aux seules perceptions, etc..). Cela pourra être perçu dans la capacité d'interaction du système avec la réalité extérieure. Cette définition a l’avantage de se passer de l’intelligence humaine pour définir l’intelligence, mais elle a besoin d’une intelligence pour être mesurée puisqu’il faut comparer l’intérieur avec l’extérieur ; or l’intelligence humaine est la seule mesure possible disponible pour cette comparaison.
En conclusion, s’il est facile de définir des objectifs à atteindre, il est assez difficile de définir l’intelligence de façon brute et précise, en-dehors de cet aspect vague de la comparaison aux capacités humaines. Toute production artificielle ressemblante à une production humaine n'est jusqu'ici ressemblance que d’une infime partie de l'intelligence humaine. C’est pourquoi tout résultats produit un enthousiasme exagéré des optimistes et un mépris (éxagéré ?) des septiques.

Les écoles de l’intelligence artificielle
Simuler l’intelligence est devenu une discipline à part entière : celle de l’intelligence artificielle. Dans cette recherche il existe de nombreuses options, voies et méthodes qui rendent le panorama des recherches assez éclaté. Si beaucoup de résultats appréciables ont été produit dans chacune des différentes voies, aucune n’a réellement produit de comportement intelligent au sens noble. Chacune de ces voies repose sur une position de foi semblable à l’hypothèse établie pour mon modèle, à savoir : « si cette façon de procéder est bien menée, elle aboutira à un raisonnement intelligent au sens noble ».
Je désire donc présenter les différences fondamentales dans ces voies de recherche.
Nous n’étalerons pas la foule de toutes les tentatives variées ou anecdotiques qui ont été menées comme les algorithmes génétiques, les méthodes min-max, les systèmes experts, l’apprentissage symbolique, etc…

Nous ne présenterons que les deux voies les plus connues, qui sont la voie analytique et la voie connexionniste, en les positionnant par rapport au modèle que nous proposons :

La voie analytique est la méthode qui suppose que la base du raisonnement est un principe de logique mathématique. C’est sans doute le constat de performances accomplies par les mathématiques dans toutes les disciplines qui a conduit à ce crédo. Cette méthode de recherche est donc en étroite association avec la logique mathématique. Elle consiste à trouver l’intelligence par les raisonnements de la logique de façon semblable à une démonstration mathématique. Son mode de fonctionnement consiste en l’étude du langage et de la logique mathématique. Il existe de nombreuses voies de recherche utilisant ce principe de base. Je pense qu’il est inutile de s’étendre longuement sur les différences que présente cette voie avec notre modèle. Car nous avons déjà bien expliqué que nous considérons la logique mathématique non pas comme un fondement de l’intelligence mais comme le constat d’une réalité intérieure (issue de l'extérieure) qui n’est qu’un outil pour servir de catalyseur à l’intelligence, mais qui n’est pas un principe d’intelligence. J’ajouterai en conclusion que cette méthode simule un contenu performant de l’intelligence, seulement un contenu. Je pense que l’intelligence analytique est efficace, mais dans le domaine limité de la logique. Il est possible que cette voie possède un avenir prometteur (et on peut dire qu'elle l'a déjà eu avec la programmation qui directement issue des recherche sur la logique formelle), mais elle ne fonctionnera pas sur le mode de l’intelligence humaine, cela me semble assez évident.

La voie connexionniste est la méthode qui suppose que l’intelligence étant dans le cerveau, il faut immiter le principe actif à la base de cette intelligence qui trouve sa définition dans l’interconnexion des neurones. Le pari de cette voie consiste donc à croire que c’est dans la connexion multiple et bien organisée selon les bonnes lois que se trouve la puissance de l’intelligence. L’idée la plus développée consiste alors à appliquer des poids différents dans les centres indépendants et un algorithme qui gère l’échange de ces poids. Si l’on compare cette technique avec la modèle que nous proposons, il y a évidemment des points communs, mais il y a dans nos différents crédos de base des concepts très différents. Dans le connexionnisme le succès repose dans la forme et le bon algorithme, alors que dans notre modèle avant de reposer sur sa forme, le succès repose dans la simulation psychologique et l'idée de sens construit comme sommet d'un système d'association. Le connexionnisme n'est qu'un élément. Pour simplifier, je dirais que la voie connexioniste est encore beaucoup trop analytique. Choisir au fondement la psychologie ou l'algorithmique sont deux visions différentes. Comme toutes les recherches, la voie connexionniste obtient de beaux résultats. Mais une critique lui a été souvent adressée : ses résultats sont des problèmes spécifiquement adaptés à sa forme. Quelques résultats ne suffisent pas à penser que le principe de l’intelligence est contenu dans une forme. En fait, tout dépend de la nature des algorithmes utilisés, il se trouve que le connexionnisme utilise la plupart du temps des algorithmes d’association, de classification, de compilation statistique des données, qui sont beaucoup plus mathématiques et logiques que psychologiques. Tout en étant mathématiques, les algorithmes de mon modèle sont premièrement de nature « psychologique ». Il sont basé sur des constats ou des tentative de simulation de constats psychologique. Cela représente une différence importante. On pourrait qualifier ma méthode de connexionnisme psychologique. (dans ce cas je préfèrerais personnellement l’appeller du psychologisme connexionniste).

Après avoir présenté très sommairement ces deux voies (les plus médiatiques), j’aimerais tout de même parler d’une troisième que se rapproche bien davantage de notre modèle, c’est la voie qu’on appelle apprentissage symbolique. Son crédo consiste en ce que l’intelligence provient de l’apprentissage, c’est-à-dire de la confrontation à des expériences répétées et variées. Il faut alors construire des algorithmes et des structures qui permettent du simuler l'paprentissage en tirant profit des informations antérieur. Et il y a là de nombreuses voies qui ont été explorées : induction, déduction , système inventif, empirisme, rationalisme, flexibilité, dérivation, action, violation des prévisions, exclusion évitement, classification, généralisation, etc… autant de méthodes que de principes psychologiques primaires de raisonnement. Il est vrai qu’on reconnaît là une approche psychologique qui présente bien des points communs avec notre modèle. Quelle en est la différence majeure ? Je distingue deux différences fondamentales : la neutralité et la globalité. Tous ces modèles utilisent des supports d’information déjà très fortement sémantique, l’objectif de leur recherche est de produire un comportement intelligent et non de produire l’intelligence (et donc de définir le sens). Il cherche à produire un comportement qui perçoit un sens de la multiplicité des données apportées, mais toutes les données sont de même nature et l’étude porte bien davantage sur la différenciation des objets entre eux que sur la compréhension de la réalité et des objets eux-mêmes, qui n'est pas envisagée. La neutralité consiste en ce que le cœur du modèle puisse a priori étudier n’importe quelle type d’information. C'est à mes yeux un fondement de l'intelligence. Le modèle ne doit être construit sur aucun a priori sémantique. Voilà ce que j’appelle la neutralité, ce principe me semble une des conditions vitale du processus d’intelligence. En travaillant dans un contexte sémantique déjà établi, il est fort possible que les résultats découverts procèdent plus d’outils discriminateurs que d’un principe réel d’intelligence. Le deuxième point est la globalité : comme nous l’avons dit, l’intelligence consiste d’abord à imiter les capacités du comportement humain, un parfait système intelligent est donc un système qui pourrait avoir une « activité mentale » comparable à l’homme. En effet, on se demande comment l'intelligence pourrait naître vaste et adaptable en dehors d'une capacité de dialogue, d'interraction et de décision mentale. Les mots comparable à l'homme ne donne pas une limite mais une idée de fonctionnement (on peut facilement imaginer des capacités supérieures, l’ordinateur possède des capacités de calcul très supérieure à l’homme). Mais le seul modèle d’intelligence que nous connaissons qui peut s’adapter réfléchir, analyser est l’homme : l’objectif est donc de construire un modèle non pas conforme à l’homme, mais qui simule est capable d'une activité mentale reflexive comme l’homme. Elle consiste à découvrir le fonctionnement de base de cette activité pour définir un modèle global, ou tout au moins suffisamment global pour fournir les capacités essentielles : la neutralité, l’adaptation, l’action et l’abstraction, le dialogue, etc... et je pense qu'il est difficile dans cette optique d'éviter de définir cette capactité étrange qu'est le sens de la réalité (et même un sens plus large puisqu'il y aurait activité intérieur). Ainsi, par comparaison avec la voir de l'apprentissage symbolique, il me semble que l'apport le plus important de notre modèle consiste en ce que le sens des objets est neutre et situé au cœur d’une cellule et que son contenu est définie indépendament de son fonctionnement intime. Le sens est donc posé dès le départ ; et dans la méthodologie, je crois que c’est un point majeur. (Une grande partie de la description de notre modèle consiste en des recherches techniques de simulation du comportement psychologique de base. Ces propositions seront donc contestable et contestée...). Revenons alors sur la deuxième différence importante est la globalité : l’apprentissage symbolique utilise un ou des principes psychologiques élémentaires pour produire un résultat intelligent, alors que notre modèle essaie d’apporter un processus global de l’intelligence en trouvant comment est structuré le principe intelligent. C’est un nuance qui loin d’être négligeable, et qui repose sur l’idée suivante : l’intelligence formé de l'ensemble des principes élémentaire peut aboutir à un comportement globale d'intelligence. Il pourrait exister un seuil : l’intelligence globale n’existerait que par conjonction de cet ensemble de principes élémentaires très structuré et indispensables ; en précisant que je suis loin de prétendre les avoir trouvés (si même ils existent). Maintenant, les mécanismes que j'ai proposé n'ont pas été choisi au hasard au milieu d'un grand nombre possible. Ils sont les mécanismes qui me sont apparu les plus naturels quand on cherche à construire un « sens neutre » sur la base du connexionismes en simulant un bon nombre de constat psychologique. Il est fort possible qu'on trouve ultérieurement bien d'autres mécanismes plus crédibles.

La fonctionnalité du système
Revenons plus particulièrement à l’implémentation de notre modèle. Reppelons-nous que le modèle possèdait deux objectifs importants, le premier étant l’explication de la connaissance (comprendre comment l’intelligence pouvait exister et comment elle était reliée au monde), le second était de produire une explication mécanique et fonctionnelle, ou tout au moins une méthodologie qui nous conduise sur cette voie.
C’est dans ce deuxième objectif que s’insère l’implémentation du modèle. Si l’intelligence peut être traduite de façon fonctionnelle et mécanique, on peut envisager une implémentation informatique. Sous réserve de validité du modèle, il me semble que ce second objectif a bien été atteint. Nous n’avons pas rendu compte de l’ensemble des activités mentales de façon mécanique. Mais la totalité du modèle repose sur une description mécanique. Il est quasi certain qu’il faudra remanier bien des idées pour obtenir un résultat satisfaisant. Mais l’essentiel de notre objectif est atteint. Il consistait à poser des éléments de base, montrant que les fonctions mentales peuvent être imaginnées dans le cadre d’un modèle fonctionnel.
Et même si la description est passé allègrement par dessus certains aspect primordiale du fonctionnement humain, je pense que suffisament de notion et de méthode ont été aborder pour donner une ligne directrice claire.

La validité du modèle.
Si les explications fournies peuvent satisfaire la crédibilité face à un tel système, il est clair qu’elles sont insuffisantes pour en prouver le bon fonctionnement.
Nous avons vu en particulier dans les derniers chapitres l’importance du fonctionnement global du système qui repose sur une interaction en temps voulu du système avec son milieu extérieur. Ce seul principe devrait suffire à émettre de nombreux doutes sur le succès de l’implémentation du modèle. Car il est matériellement impossible de concevoir l’interaction avec un tel millieu et surtout la machine ne peut être conçus avec toutes les fonctionnalités humaines.
Ce manque de crédibilité n’est pas un handicap absolu à son implémentation. Il est possible d’envisager une implémentation partielle du modèle. Nous commentrons ce point plus loin. Mais quels que soient les choix qui conduisent à l’implémentation du modèle, rien en prouvera l’efficacité. D’un côté l’implémentation totale est clairement non envisageable, de l’autre côté l’implémentation partielle ne garantit aucunement le succès de la démarche.

Il est évident que rien ne peut garantir a priori le succès d’une implémentation qui, de plus, ne repose que sur des hypothèses. Aucune étude a priori du comportement global n’a été entreprise, mais peut-elle l’être ? Sans l’exclure, une telle étude me semble difficile à entreprendre pour plusieurs raisons :
la complexité de la plus petite implémentation reposant necessairement sur des interactions complexes entre de nombreux flux, exitations et rémanence s de cellules.
La nature même du problème : pour prouver (mathématiquement) l’apparition d’un comportement intelligent, il faudrait commencer par définir l’intelligence. Ce qui n’est pas une moindre affaire. Il faudrait donc se limiter à certaine forme très particulière de l’intelligence.
Etudier le sens par la logique ne me semble pas être la plus prometteuse des entreprises car il faudrait une définition mathématique du sens : problème de logique en perspective…
Apparemment, la preuve sera donc essentiellement expérimentale.
Et vu l’ampleur de la tâche, il semble qu’il y ait quelques obstacles à franchir avant sa concrétisation.

Les choix du modèle
Comme nous l’avons laissé entendre, l’implémentation du modèle ne devra être que parcélaire. Tout d’abord parce que le modèle ne rend pas compte de tout les phènomènes étudiés, en particulier la psychologie de haut niveau. La mise en « condition humaine » est non seulement impossible mais absurde ; la nature du fonctionnement d’un tel système est forcément différente car n’étant pas biologique, le ssystème ne suivra pas le même parcours d'apprentissage. Sans parler du mileu éducatif qui sera forcément différent (le ventre d’une mère…). L’apprentissage étant différent, l’histoire sera différente, la perception sera donc différente. Même dans le meilleur des cas, un modèle ainsi conçu sera donc d’une « psychologie » forcément différente.
Cette évidence mis à part, on peut s’interroger sur les choix à effectuer pour réaliser une implémentation 

Premièrement, que pourrait être un modèle minimal viable ? Il est évident qu’en reformulant les bases du modèle, on pourrait construire des modèles minimaux très différents. Nous nous contenteront du modèle avancé. Voici donc une proposition d’un modèle minimal :
Des cellules d’entrée pour que le système puisse percevoir des informations venant de l’extérieur. On pourrait se limiter aux lettres ou simplement aux chiffres pour tenter d’engendrer une forme de dialogue ou d’acquisition de mécanismes (par exemple les opérations).
Des cellules de sortie pour que le système puissent communiquer avec l’extérieur. On pourra choisir que les cellules de sorties seraient l’affichage sur un écran de symboles (si l'on choisit des alphabet de langage ou des symboles formels en entrée, on pourrait choisir les mêmes symboles en sortie).
Des cellules pouvant s’interconnecter en grand nombre.
Des flux de perception.
Des flux d’ordre.
Si la conscience n’est pas indispensable, un mécanisme gérant certaines formes de priorités le semble.
Un mécanisme stimulant les ordres (comme le flux de besoin et de satisfaction).
Un mécanisme d’amorçage permettant d’initier le principe de construction des ordres.
Et évidemment une phase sans doute assez longue d’apprentissage (on peut très bien imaginer que cette phase soit effectuée par un logiciel qui stimule et réagit avec le système selon des régles précises pour constater si la machine est capable de s’approrier les connaissances proposées)

Sans avoir évoqué en détail tous les mécanismes nécessaires, on s’aperçoit que beaucoup de modules optionnels ne sont pas indispensables. Tous les modules psychologique (notamment les modules à consonnance philosophiques).
Maintenant il n’est pas exclu d’y adjoindre n’importe quelle option, et même des options qui ne cherchent pas à simuler une réalité humaine, des mécanisme matériel très spécifique ou des centres purement théoriques, visant à un mécanisme que l’on aura anticipé en construisant ses principes d’interaction.
Par ce commentaire, nous voyons que les modèles partiels (et  « additionnels ») peuvent revêtir toutes sortes de forme. Le principe de base étant un signal en entrée, un signal en sortie et un processus interne qui se construit par apprentissage.

Les mises en œuvre technique
Pour réaliser l’implémentation d’un tel système, il est aussi judicieux de s’interroger sur le support technique de mise en œuvre. Il semblerait à peu près clair que l’informatique est le moyen le plus approrié par la puissance de calcul et d’abstraction qu’elle revêt. Mais l’informatique dans sa forme traditionnelle ne semble pas forcément le meilleurs moyen. En effet, un programme informatique se présente grosso modo comme une suite d’actions effectuée linéairement par un processeur. Cela modèle très mal le système que nous avons présenté. Il faudrait envisager la mise en œuvre électronique d’une architecture beaucoup mieux adaptée à notre système. Les contraintes d’un tel système sont nombreuses et délicates : il s’agirait de créer de nombreux centres indépendant pouvant gérer une puissance de calcul limité de façon indépendante, et que chacun de ces centres puissent être interconnectés selon des processus mobiles et très vastes. L’utilisation d’une telle architecture rendrait le système beaucoup plus efficace.
Maintenant l’utilisation d’un ordinateur classique n’est pas à exclure ; dans la mesure où l’on peut compter sur une puissance de calcul et de mémoire importante qui pourrait simuler (sur un mode séquentiel) une activité continue. Le système sera alors construit sur un modèle discret (c’est-à-dire étape par étape) qui consommera nécessairement une grande puissance de calcul (que certains artifices peuvent réduire).
On peut construire dans une même machine une implémentation du système et un programme lui servant de professeur. Le constat d’intelligence sera effectué soit par des tests du programmes, soit par constat du programmateur, une fois l'apprentissage effectué.

Il n’est pas de notre propos de chercher à découvrir l’utilité d’un système intelligent pour l’humanité. Mais estimant que la neutralité de la connaissance n’est qu’un mythe, je pense devoir réveler le fond de ma pensée : toute découverte devrait être utilisée avec beaucoup de précaution. Je pense que la science devrait toujours avancer avec une prudence résolue et que la recherche éthique est souvent d’une aussi grande importance que les découvertes elles-mêmes. Cette réflexion doit être menée à tous les niveaux de l’implication technique, et ce n’est pas peu dire. A mon goût … c’est très loin d’être le cas.

Les difficultés de la mise en oeuvre
Dans le cadre de n’importe quelle implémentation du modèle, les obstacles à franchir sont nombreux avant de pouvoir espérer obtenir un résultat :
La perception : pour obtenir que le modèle se conforme à notre description du mécanisme, il est nécéssaire de trouver un équilibre satisfaisant dans les interactions de tous les flux et vecteurs force. Le concepteur travaillera pratiquement en aveugle. Le contenu sémantique est inaccessible, seul des indicateurs généraux pourront l’orienter dans ses choix d’interaction pour espérer que la perception se réalise effectivement selon un processus satisfaisant.
Il en est de même pour le mécanisme des ordres, qui est certainement un mécanisme encore beaucoup plus délicat à élaborer, car les ordres reposent sur des principes plus nombreux et plus complexes que la perception. Ils reposent d’ailleurs sur la perception.
Il faut ensuite produire un apprentissage suffisament élaboré pour produire l ‘intelligence. Cet apprentissage demandera une multitude d’interactions, ce qui peut prendre un certain temps…
On peut estimer la difficulté d’une telle expérimentation qui à chaque étape travaille en aveugle jusqu’à l’obtention d’un résultat.
La complexité du modèle témoigne de sa difficulté de mise en œuvre. Le manque de résultat n’est donc pas un gage évident de l’infirmation du modèle. D’autant que la complexité n’est pas la seule difficulté ; on peut penser à de nombreux facteurs handicapants, voire stérilisants. Nous avons déjà évoqué la possibilité qu’un nombre restreint de cellules d’entrée ne puisse pas produire un résultat satisfaisant. Leur petit effectif pourrait être insuffisant pour créer une dynamique nécessaire au mécanisme global. On peut aussi penser que certains centres ou mécanismes spécifiques sont indispensables pour générér un comportement satisfaisant, et probablement un mécanisme non encore décrit...

Le modèle et son application au cerveau

Problèmes de fond
Nous avons vu qu’un des objectifs principaux du modèle était d’apporter une explication mécanique de la connaissance et plus généralement de l’activité mentale. Compte tenu des découvertes de neurophysiologie, il semble assez évident qu’il y ait un rapport étroit entre la pensée et le fonctionnement du cerveau. Nous avons tacitement supposé que notre système était un modèle des interactions cérébrales. Or, cette supposition est, on ne peut moins, évidente.

Depuis un certains nombres de décennies maintenant les travaux des neurobiologistes ont apporté une foule de constats résolument objectifs qui ajoutent sans cesse de nouvelles pièces au puzzle de la théorie de la connaissance. Il se trouve que ce puzzle est encore immensément incomplet à l’heure actuelle. A tel point qu’il n’existe encore pas même d’esquisse d’une théorie globale du fonctionnement de la pensée. On ne sait pas comment est stocker la mémoire, ni comment se matérialise la pensée. L’essentiel des travaux se limitent à des constats de rapport direct entre des données physiologiques du cerveau et des comportements mentaux ou musculaires. On connaît un bon nombre d’indice qui élimine clairement de nombreuses théories en lice.
La question qui se pose maintenant est la suivante : est-il raisonnable de penser que la théorie que nous avons présentée soit un modèle global adapté pour décrire les phénomènes mentaux ayant lieu dans le cerveau.
La première réponse est non. En effet, il existe plusieurs arguments majeurs d'incompatibilité entre le modèle présenté ici et les constats neurophysiologiques. Voyons quelques un de ces propblèmes :
le principe de base de ce modèle pose problème: « Une pensée est une cellule nouvellement créée  branchée aux cellules-mère qui lui donne son sens» : il faudrait donc qu'il y ait en permanence création de nouvelles cellules. Dans l'hypothèse naturelle où les neuronnes seraient les cellules servant de support à la pensée, il faudrait qu'il y ait création de cellules en permanence et aussi connexion de de n'importe quel groupe de cellules sur une nouvelle cellule (non utilisé). Ce qui est manifestement faux surtout pour le second point. Il est matériellement presque évident qu'il est impossible de lier les cellules les plus stimulées à un instant donnée sur une nouvelle et unique cellule par des connexions synaptiques. Il faudrait que les dendrites poussent rudement vite, mais aussi et surtout qu'elles se rejoingnent avec la connaissance préétabli du lieu à atteindre.... Ce constat est contraire à toute observation.
Le second point qui pose problème est l'observation clinique qui montre une localisation en fonction de différents types de pensées. Un des éléments qui a permit les plus grands progrès dans la connaissance du cerveau est l'imagerie médicale qui permet de voir en situation de vie « normale » quelles sont les zones 'actives' du cerveau . On peut constater ainsi que certaines zones du cerveau sont activées lors de « certains types de pensées ». On parle ainsi du cortex associatif préfontral, du cortex moteur, du cortex prémoteur, de l’aire somatosensorielle... Une expérience célebre de Penfield a montré que des stimulations focales dans le cortex moteur primaire provoquaient des contractions musculaires très localisées dans le corps.
On discerne que plusieurs zones très différentes sont activées dans un certain ordre pour la préparation des activités musculaires, pour les actions de réflexion, pour les pensées de spatialisation, pour l'usage du langage, etc...
Ces constats sont profondément contraire à notre modèle (la perception éloignée des prises d'ordres musculaires, les perceptions de nature différentes localisée à des endroits différents,...). Ce qui est contraire à ces constat, c'est le principe de neutralité. La notion de neutralité du support est contraire à la localisation en fonction du sens qu'il contient. Cela conduit à une incompatibilité forte avec notre modèle dont la nature est très homogènes.
Il existe encore bien d'autres arguments d'incompatibilité que nous avons observé au parcours de notre théorie. L'un des plus pertinents est le phénomène de capacités innées.
Après tout cela, il faudrait encore rendre compte de chacune des expériences de la pensée qui s'intègre pas toujours très facilement dans le modèle. Pour leur intégration à la théorie, il y aurait bien du travail de remodelage.
Je vais tenter ici d'initier très sommairement cette entreprise pour corriger les plus gros défauts que nous venons de citer...
Pourquoi n'avons nous pas directement établie le modèle final ? Pour deux raison :
la première étant que les concepts fondamentaux du modèle ne nécessite pas cette spatialisation dont l'utilité est une efficacité propre à la physiologie humaine et non l'établissement des connaissances pour elle-même. Il aurait donc été inutilement pesant d'introduire des concepts complexe dès l'origine.
La seconde raison est que notre modèle a aussi été établi dans la direction d'une programmation informatique, dont les mises en oeuvre sont très différentes des dispositions biologiques. Nous avons donc chercher une sorte de dénominateur commun. La spatialisation des informations n'en fait pas partie.
Il reste à savoir si le modèle est viable et en particulier s'il en existe une adaptation possible pour la théorisation du modèle humain. Est-il possible que les bases proposées soit un point de départ pour une théorie globale. Je ne possède pas de réponse affirmative, et cela d'autant moins que je suis ignorant de l'essentiel des connaissances de cette disciplines. Mais avant tout adaptation, il faut éprouver un point fondamental : est-ce que l'idée de base proposant la pensée comme « sens acquis par association » est une explication compatible et utile pour expliquer la pensée? Le cas échant il faudra rendre compte de sont intégration au système complexe tel qu'est la pensée. Nous tenterons de donner quelque pistes essentielles.

La complexité du cerveau
Mais avant cela, commençons par faire quelques constats plus précis sur le fonctionnement du cerveau qui vont nous montrer la réalité du décalage qui existe avec notre modèle.
Commençons par montrer la complexité du cerveau. On sait par exemple que l’information circule dans le cerveau sous la forme électrique dans les synapses et sous la forme chimique à l’interface neuronale. S’il y a quelques années encore, on pensait que le mécanisme chimique était assez simple, on dénombre aujourd’hui une centaine de produits chimiques différents (les neurotransmetteurs) qui caractérisent ces échanges selon des mécanismes qui n’ont rien en commun avec le mot « simplicité ». La complexité de ce seul mécanisme local est effrayante.
Que dire maintenant quand il s’agit d’expliquer la complexité des constats effectués sur l'étude de comportement relativement simple. A titre d’exemple, parlons du mécanisme du sommeil et de l’éveil, le nombre de lieux et de mécanismes cérébraux mis en évidence et directement impliqués dans ce processus sont très nombreux ; sans qu’évidemment aucune théorie globale n’existe encore. D’autant que ces mécanismes sont de natures et de fonctionnement très variés. Si certains faits sont bien établis, beaucoup d’autres ne sont encore que des suppositions. Les différentes interractions existantes entre ces fauts sont souvent inconnues, donnant comme paysage une série d’îlots de connaissances très dispersés.
C'est un constat général sur l'ensemble des connaissances des mécanismes établissant des liens entre la pensée et le cerveau. Si l’on passe en revu l’ensemble des processus connus, ils sont nombreux et fonctionnent chacun selon des processus très différentiés. Si l’on ajoute à cela, tous les processus inconnus qui au vue de notre ignorance du fonctionnement d’ensemble présage d’un nombre important, il y a fort à penser que nous sommes loin du bout de la compréhension du cerveau.
D’autant que comme nous l’avons déjà expliqué, le fonctionnement est probablement étagés sur plusieurs niveaux : le fonctionnement mécanique local utilisant les flux électriques et les processus chimiques, le fonctionnement des principes physiologique élémentaire (ce que dans mon modèle j’appelle centre particulier et optionnel qui en réalité n’ont rien d’optionnel pour l'homme à cause de leur interraction avec l’ensemble du système) , puis le fonctionnemnent des comportements élémentaires, et encore le fonctionnement des comportements globaux. Quelques soit la hierarchisation qui n’est qu’une question de terminologique, il est évident que les processus s’établissent sur plusieurs échelles.
Connaissant la complexité des principes élémentaires, certains en sont venu à penser qu’il est envisageable qu’on ne décrypte jamais leur fonctionnement pour parvenir à une vue globale, il serait d'une complexité innacessible. Si ce constat concerne déjà les fonctions de base de la pensée, que penser des processus de haut niveau d’abstraction.
Il ne s’agit pas ici de dresser le tableau noir de l’ignorance, car tout détail pouvant être mis en évidence posséde en soi une utilité Mais pour ce qui est de découvrir un processus global, il faudra sans doute attendre encore longtemps.
Pour ne citer que la mémoire qui ne semble pas être le plus complexe des mécanismes dans le fait qu'il semble un principe général, on ne sait toujours pas précisément le lieu ou le mode de son exercice (et s’il en possède même un). On sait que ce mécanisme utilise un circuit hippocampo-thalamo-mamillo-cingulaire, mais on ne sait pas si le mécanisme est limité à cela, ni comment il s’organise dans cette étendue en trois dimension qu'est le cerveau.

Pistes d'intégration
Parlons maintenant des possibilités de traduction de notre modèle dans le cadre du fonctionnement cérébrale.
Bien que ces descriptions soit un peu déplacer dans mon état d'ignorance avancée, il me semble utile de montrer que le modèle est très souple et possède donc un avenir devant lui.
Prenons tour à tour les trois incompatibilité majeurs citée en introduction. :

Impossibilité des associations directes
Limitons nous au problème épineux de la perception. En effet la perception impose le branchement de n'importe quel sous ensemble de cellules vers une nouvelle cellule qui en est la perception commune: les neurones étant un ensemble de connexions plus ou moins rigidement établis (les connexions synaptiques qui continuent à s'établir ne ressemblent en rien au proposition de notre modèle), il faut envisager la « création de cellules » à l'intérieure d'un ensemble de cellules déjà rigidement lié.  Cela n'a rien d'impossible. Mais cela impose aussi que les associations puissent être établit à grande distance, c’est-à-dire entre des neuronnes séparé par beaucoup de (ou par quelques?) neuronnes.
Face à ces contraintes j'envisage deux solutions .

Solution quasiment locale
Cette solution consiste à envisager les connexions possibles entre neuronnes aux seules neuronnnes directement lié par des dendrites (cela va de soi a priori, mais on verra qu'une autre solution est possible). Une liaison sera donc établi en activement chimiquement certaine interface synaptique (et éventuellement en inhibant les connexions inutilisé, c'est à dire les interfaces inutilisés). On ne détail pas ici la méthode qui permet l'activation ou l'inhibition de certaines connexion, mais elles sont établis sur un mode très ressemblant aux descriptions de notre modèle (par des flux résonants par exemple).
Ainsi les schémas d'associations donnant le sens seront fabriqués par les circuits de « connexions activées ». Pour l'instant tout se passe comme dans la description du modèle, avec cependant des limitations drastiques sur les connexions possibles :
un neuronne ne peut être lié qu'à quelques milliers de neuronnes tout au plus (pour le cortex cérebrale et beaucoup moins en d'autres lieux).
les connexions sont donc forcément très localisé.

En fait, cette limitation n'est pas si drastique qu'elle en a l'air par l'usage d'une petite ruse : le fonctionnement étagé. Le fonctionnement étagé consiste à utiliser certains neuronnes comme intermédiaires de transports « pour établir la connexion plus loin ». En fonctionnant sur « plusieurs étages de neuronnes », les deux problèmes on presque disparu :
le nombre de connexion est de nature exponentielle en fonction du nombre d'étage
et en allant assez loin dans les étages, on peut supposer que quasiment toutes les cellules activées de base peuvent finalement trouver une cellule commune supérieure. Autrement dit en allant assez loin en avant, on peut toujours trouver une cellule commune pour associer les cellules stimulées. (On peut même envisager qu'il n'est pas nécessaire d'aller très loin, car les cellules sont déjà passablement beaucoup connectée). On doit donc trouver assez facilement des cellules supérieur communes à n'importe quel groupe assez restreint de cellules.

La cellule supérieure commune choisie pour rassembler le sens d'un groupe de cellules stimulé devra bien sûr être une cellule non encore activé comme sommet de sens. Tout notre modèle peut-être adapté à ce type d'environnement « précablé ». Maintenant les contraintes de fixité des connexions nous inciterons naturellement à envisager un mode de fonctionnement légèrement différent :
des cellules trop éloignées se connecteront moins facilement que des cellules proches (cela conforte d'ailleurs l'idée de proximité sémantique qui est la bienvenue pour le modèle).
La notion de proximité sémantique entre alors naturellement en compte dans l'établissement d'un sens : la cellule choisie sera celle qui rassemble le maximum de stimulations « les plus proches ». La cellules s'unira avec des stimulations lointaines seulement si la force de stimulation est suffisante.
Cela nous donne aussi l'occasion d'établir le principe de construction de cellules de « sens intermédiare ». Plutôt que de systématiquement recherche une unique cellulle pour rassembler les stimulations fortes. L'effet de proximité va naturellement construire des cellules ayant des sémantiques de proximité. Celles-ci ne s'uniront plus loin que si les stimulation de création sont suffisantes. Ce principe n'a, en fait, rien de nouveau, nous l'avons déjà élaboré. Il trouve simplement ici une construction naturelle, mais aussi un aspect assez curieux : les sémantiques intermédiaires sont influencée par le schéma des connexions préétablies. A cause des contraintes de liaisons, le sens qui parvient dans la cellule finale est façonnée, endommagée ou limitée, par les cellules et connexions disponibles. Ce constats ne présente pas une gène majeure : il ne s'agit là que d'une interpolation suplémentaire (un petit peu comme les apparreils photos numériques produisent des images en un tableau parfaitement régulier à partir de capteurs disposés beaucoup moins régulierement). La convergence asymptotique a les moyen d'analyser les choses toujours plus finement et peut donc pallier au problème du mécanisme de l'interpolation. Au demeurant, il existe cependant une part d'impondérable dans la construction du sens lui-même. C'est un constat philosophique plutôt assez joli... Ces limites présente donc un intérêt : si cette mécanique rend plus difficile les connexions distantes (et l'impartialité du sens), on peut dire qu'elle présente l'avantage de faciliter les connexions courtes et de renforcer la notion de proximité sémantique.
Mainenant n'oublions pas que le principe de rémanence « rend leur liberté » à beaucoup de cellules relativement rapidement. Le système ne sature donc pas aussi vite qu'on pourrait le penser.

En fait, il faudrait passer beaucoup de temps à reprendre tous les mécanismes élémentaires décrit pour les adapter à un contexte de quasi-fixité associative. La démarche étant entamée, nous nous arrêtrons là.

une solution non locale
Une autre solution consiste à faire perdre son caractère local à la « pièce vide qui contient le sens » (c'est une ironie du sort : le neurone qui nous a donné l'idée de connexion et du sens par organisation des connexions se voit chasser du rôle qu'il a inspiré). L'idée consiste à imaginer que la « cellule » contenant le sens possède une réalité unique mais étendue sur une vaste région de neuronne. Il ne s'agit pas de remplacer un neuronne par une vaste région de neuronne pour étendre sa portée (ce serait une solution quasiment identique à la solution précédente), mais véritablement de délocaliser l'idée de cellule. Sur une seule et même vaste région de neuronnes reposera plusieurs cellules-sens à cheval les unes sur le autres Chaque neuronne contiendrait les information mélangée de plusieurs neuronne. Toutes les cellules étendu se chevauchent les unes les autres (mais ne sont jamais exactement les même région, sinon il s'agirait de la même cellules). Au total il y a autant d'informations que de neurones, mais l'information de sens d'une cellulle est étendue. Comment cela est-il possible ? Il faudrait établir une étude théorique un peu plus poussée, mais il existe en mathématiques en certains nombres d'outils permetant de délocaliser une information sans perdre d'information. On peut citer la transformée de fourrier, par le principe de convolution. Mais le problème n'est pas tout à fait le même ici, il s'agit de gérer en utilisant des flux d'information, des connexions locales dans un système qui lui est équivalent mais non local. Cela semble accessible, reste à savoir si l'on trouve une méthode qui s'intègre avec le mécanisme cerébrale. Mais il reste alors beaucoup d'adaptation délicate Par exemple : il faut donner un sens à des flux délocalisé (étendu) en compatibilité avec l'idée de cellule, il faut expliquer comment les cellules d'entrée localisé prennent leur place dans le systme délocalisé, etc...
N'ayant pas approfondit cette voie (par ma préférence pour la première solution), je ne saurais affirmer si cette perspective est crédible.

Problème de la neutralité des cellules sémantique
Comme nous l'avons dit il semble établi que certains types de pensée sont liés avec certaines zones bien spécifiques du cerveau et cela diffère de l'idée de neutralité des cellules de sens. Comment se peut-il, dans notre modèle, qu'une pensée de type bien définie (un mouvement, le langage, la réflexion abstraite, soit toujours traitée dans une zone spécifique de connexion. Un peu d'imagination nous permet d'étendre la compatibilité...
Si l'on en croit les éminents neurophysiologistes, la plupart des fonctionnements du cerveau réside en des échange entre de petites (ou un peu plus grandes) zone du cerveau. Cela donne l'impression assez forte que ces petites zone sont organisée en petite zones autonomes de fonctionnement réalisant des tâches spécifiques. Les échanges d'informations entre ces différentes zones vont permettre de résoudre les différents problèmes qui se posent à la compréhension (que ces problèmes soient concients ou non). Les actions musculaire elle-mêmes respose sur des échanges d'information entre plusieurs zones fonctionnelles dissociées.
Pour parvenir à une telle régionnalisation en secteur d'activité spécifique, il faut revoir l'organisation neutre de notre système. L'idée consiste à imaginer que le modèle garde sa pleine neutralité à l'intérieure de chaque module de sens imposé. Ainsi rien n'est fondamentalemen t changé en dehors de la création de module de sens. Il faut bien sûr que ces modules soit interconnecté. Comment réaliser une telle gageure : neutralité et spécificité sémantique ?
Une esquisse de solution m'apparait dans deux notions que nous avons préalablement abordé :
les cellules d'entrée et de sorties.
les interfaces perceptive et actives. Ces interfaces consistaient en des modules situés avant le coeur du noyau pour prétraiter les informations.

Une parenthèse futile
Une proposition probablement futile, consiste à imaginer l'ensemble de toute ces zones observées du cerveau comme autant d'interfaces de prétraitement de l'information avant de les introduire dans le système proprement dit. Mais il resterait alors à trouver le noyau dur de la pensée abstraite dans le cerveau. Il n'est pas simple de trouver un tel candidat, mes connaissances ne m'en propose pas. Mais cette approche pose de nombreux problèmes : par exemple, le fait que certaines pensées très abstraites utilisent abondemment des modules très hétérogènes. Cela est difficilement compatible avec un noyau dur. Il faut sans doute aborder le problème différemment. L'idée est alors un systèm modulaire.

Une conception modulaire
Les interfaces sont le tremplin conceptuel vers un autre mode d'organisation : au lieu d'un système central unique, on peut imaginer un système fonctionnant selon les mêmes mécanisme mais organisé en modules séparés. Chacun de ces modules quasiment indépendant sera façonné sur le modèle de notre théorie. On peut donc dire que chacun de ces module est « neutre de sens » au départ. Il faut maintenant expliquer d'où leur vient leur coloration sémantique imposée ? Et bien comme pour le système central unique : tout simplement de leur cellules d'entrées.
Quelles sont alors ces cellules d'entrée de chacun de ces modules ? Ce sont tout simplement les cellules de sorties d'un autre module.
Le schéma étant posé, expliquons plus en détails comment s'établissent les préférences sémantique. On a déjà vu que notre système construit tout le sens à partir des cellules d'entrée, ainsi le sens de ce qui parvient dans un module est donné par ses cellules d'entrées.
Maintenant, il est aussi possible que les cellules d'entrée soient des cellules sensorielles.
Schématisons un exemple : un module établit sur des cellules sensibles de l'oeil va produire en sortie des « concepts de la vision ». Nous allons maintenant imposer un contenu sémantique à ce module par le choix d'une morphologie :
Imaginons que ce module est « réduit en profondeur » en étage de neuronnes disponibles). Cela limitera les abstractions possibles.
Imaginons aussi qu'il possède un nombre de cellules de sortie limité (forcément nombreux malgré tout) par rapport au nombre de cellules que le module contient. Cela donnera une largeur de sortie sémantique limitée.

Comment va évoluer un tel module? (On se placera dans la solution quasi-locale). Par ses limites imposées, on a là une sorte de module de prétraitement du signal sensitif.
Pour optimiser son fonctionnement, nous allons introduire l'idée de « remplacement de sens » : nous l'avons vaguement dit, mais il va de soi qu'une cellule qui possède un « sens activé » protège son existence pour perdurer en empêchant toute modification des connexions de sens qui mênent à elle. Pour cela, il existera des inhibitions dans les flux de création concernant les associations arrivant à cette cellules. L'idée de « remplacement de sens » consiste à assouplir cette règle de protection. Comme les cellules sont fixes et en nombre limité, la recherche de la « meilleure nouvelle cellule » optimale de perception (qui résume par son chemin les sens stimulés) peut facilement poser un problème de proximité : la meilleure pourrait justement être une cellule déjà utilisée pour un autre sens. Comme on a affaire à un système rigide, il semble logique d'imaginer qu'une cellule de sens cède sa place à un sens nettement plus fort (la résonnance de perception étant très nettement supérieure à l'activation du sens de la cellule en place, elle la détrône de son occupation de sens en reconstruisant ses propres associations et en inhibant les anciennes). Avec ce principe de remplacement par un meilleur sens (indépendamment de toute contenu sémantique), le système relativement réduit en quantité de cellules de sortie va évoluer jusqu'à une certaine saturation : les cellulles de sortie en nombre limité correspondront aux concepts les plus utilisés (c’est-à-dire aux reconnaissances visuelles les plus communes).
L'étape suivante est d'introduire ces cellules de sortie comme cellules d'entrée d'un nouveau module. Ces cellules seront alors une partie de l'alphabet sensitif de ce nouveau module. Par exemple le module « réflexe moteur de protection » (nous expliquerons plus tard comment ce module est devenu spécifiquement celui de la protection) a besoin des cellules de sortie de la vision pour « voir le danger ». Les cellules de sortie qui correspondront à des dangers vont tout doucement par le principe des 'succès' être identifié et vont produire un lien (fabriqué avec l'aphabet du danger) qui va déclencher les mécanisme moteur nécessaire à sa protection.
L'exemple est un peu surfait, mais il pemet de comprendre l'idée de module définit par ses cellules d'entrée d'un module relativement indépendant et ses cellules de sortie plongeant dans un autre module.
Comment un module va-t-il acquérir une sémantique bien définie ? Tout simplement par l'ensemble de tous les alphabets qui composent ses entrées.
On comprend dès lors que les modules ne seront pas cablés à la suite les uns des autres, mais selon des relations très complexes entre eux. Ce seront des « unités de calculs plus ou moins indépendantes » qui produiront un type sémantique précis en sortie. Ces sorties seront dirigées dans les entrées des modules qui nécessite cette sémantique en entrée.
Cette théorie possède pour elle les deux fait suivant :
la nature, l'organisation, le contenu physiologique de tous le modules corticaux semble être identiques.
Les cablages du cerveau organisés en faisceau à l'issue de certaines zones délimitée montre bien des liaisons qui pourrait être des «le véhicule des  alaphabets échangés » entre modules. On le voit notamment dans les nombreux modules du cortex (on peut citer le corps caleux, le faisceau arqué ou de nombreuses « fibres en U » reliant des circonvolutions voisines du cortex). Dans notre modèle, ces cablages seraient les échanges de ces alphabets sémantique de la sortie d'un module vers l'entrée d'un nouveau (le mot alphabet doit être pris de façon large : la taille de ces « alphabets » peut être immense, dans la vision nottamment).
Ainsi le système est définie en zones modulaires distinctes dont la sémantique est donné par :
la densité des cellules de sortie
la profondeur des modules
fondamentalement, c'est le choix des cablage entre les modules qui définit la sémantique des cellules d'entrée qui est l'alphabet de la sémantique.
Il faut ajouter à cela que les neuronnes ne sont pas tous identiques selon les zones. La morphologie différente implique très probrobablement un fonctionnement différent. On nottera en particulier que le nombre de dendrites diffèrent selon les zones neuronales.
On peut citer le cas particulier des neuromodulateurs qui face à notre modèle peuvent être considérés comme des régulateurs chimiques de la mécanique neuronnal pour contrôler les paramêtres de fonctionnement des flux. Ainsi à morphologie physiologique identique, on peut supposer que le fonctionnement des neuronnes différe par des paramêtres chimiques variables. Ces paramêtres pouvant : varier d'un module à l'autre ou bien encore être vairable à l'intérieur même d'un module par une action hormonale (c'est le rôle des neuromodulateurs). Pour imager la différenciation d'un modul à l'autre on peut prendre l'exemple du cortex frontal intervenant dans les mémorisations à court terme : on pourrait suggérer que le contexte chimique joue un rôle important sur la durée de la rémanence par une dégradation rapide des flux de contexte (pour parler dans le langage de notre théorie) qui ne serait pas identique dans d'autres modules de mémorisation.

Au résultat, la valeur sémantique d'un module est acquis par le sens de ses cellules d'entrée ; mais aussi par le sens produit dans ses cellules de sortie qui est issue de toute cette liste de paramêtres (et de bien d'autres très probablement).
Dans notre théorie initiale, l'information ne circulait toujours selon une seule orientation qui allait des cellules sensitives aux cellules de perception pour éventuellement aboutir au cellules de sortie. Le chemin était en forme des pyramides convergente (puis éventuellement de chaine d'action). Mais dans les constats de fonctionnement du cerveau, on constate l'existence de nombreuses boucles d'informations entre les différents modules. « Fonctionnement en boucle » ne signifie pas forcément cablage en boucle, mais cela la suggère. Et le fait d'envisager un cablage en boucle dans le schéma globale d'un système modulaire donne une idée de la complexité du sens qui entre dans un module (un sens pouvant bouclé sur lui même, est une forme curieuse du sens, a priori rien ne l'interdit). C'est une idée nouvelle qui pourrait avoir des conséquences non négligeable sur les régime de fonctionement. On peut par exemple s'interroger sur la stabilité du fonctionnement. Les boucles de flux ne pourrait-il pas s'emballer par exemple ? Il est probable qu'il faudra des règles spécifiques pour gérer ce genre de boucles.
Si cette théorie s'avérait fondée (ce dont je doute dans son état de simplicité actuelle), on pourrait aller plus loin dans les constats d'observations effectués sur le cerveau : une interprétation de cesobservation suggère que les modules semblent eux-mêmes organisés en sous-modules ; l'ensemble étant cablé dans une complexité loin d'être évidente.

J'imagine qu'une telle théorie doit être vérifiable par les connexions et aussi (mais plus difficilement) par une estimation du sens des modules à partir de leur cablages respectifs. Maintenat il ne faut pas s'attendre à ce que la sémantique d'un module rentre forcement en coïncidence avec nos concepts culturels. Il peuvent être très « transversaux » et servir à de nombreuses tâches très distinctes et très difficile à cerner ; ce qui semble d'ailleurs être le constat des observations.

Il faut bien entrevoir l'immense apport de cette théorie modulaire par rapport à la théorie du système centrale unique. Non seulement elle est nécessaire pour la compatibilité, mais elle permet aussi d'envisager une nouvelle dimension dans l'implémentation informatique. Cela laisse un champs de prospection immense dans la production sémantique : l'immense possibilité de schémas de cablages entre une quantité de module complètement arbitraire produira probablement des effets très différents. Les différences de densité des connexions préétablies à l'intérieur de chaque module, mais aussi la densité des cablages entre chaque entrées-sortie, les différences de fonctionnement morpho-chimique (tranductible en langage formel) des différentes zones et pourquoi pas la différence morphochimique des flux dans les cablage (le flux d'informations étant moduler par les différents paramêtres présents : besoins, satisfations, connaissances simplement résonnantes, contexte, etc..). Etc... Quand on à considère que chacun de ces paramêtres impose une sémantique globale particulière, cela donne le vertige face à la conscience humaine : la conscience humaine serait une conscience d'une nature conceptuelle particulière. Et c'est aussi une impressionnante diversité quand on pense à l'implémentation informatique.
Avant de terminer, il faut parler de l'utilisation équivoque du mot « cellule de sortie ». Dans notre système central, les cellules de sortie représentaient les cellules issues des ordres. Ce que nous nommons ici cellules de sortie peuvent être issues des ordres, mais peuvent tout autant être des cellules de perception standard qui véhiculent simplement un contenu sémantique (sans chaine d'ordre particulière). C'est d'ailleurs ce sens qui était implicitement utilisé dans nos explications.

Du pain sur la planche
Il est, somme toute, intéressant de constater que le modèle de base est pour ainsi dire inchangé : le système est toujours uniformément constistué de cellules neutres formant des chemins de sens par connexions. Seule des formes et des mécansimes différentiés lui sont imposés. Le principe de neutralité et de sens par association ne sont pas changé. Et si elle le sont c'est encore par association (sauf qu'il s'agit d'une association imposée).

Mais il reste encore bien des difficultés. La toute première est la place des ordres dans les modules. Tous les modules sont-ils conçus sur la dualité percption-ordre. De sorte que les cellules de sortie sont de deux natures : perception ou ordre. A priori ce n'est pas indispensable dans certains modules, en particulier dans les modules de perception pure ; ceux qui correspondent au prétraitement des interfaces perceptives. Mais d'un autre côté, on avait dit que le mécanisme d'ordre peut éventuellement être établi à partir des mêmes cellules que celle de la perception ; on peut alors penser que les ordres s'établiront seulement là où c'est nécessaire. Ainsi nul n'est besoin de fondementalement différentier les modules ayant de l'ordre de ceux qui n'en contiennent pas. Il semble cependant sensé de croire que le réglage de certains paramêtres dans certains module ne sera pas indiférent à la production d'ordre. Finallement, au vu du mécanismes des ordres décrit dans notre modèle , au vu du mécanisme des modules mis en jeux dans les différents type d'apprentissage musculaire, il semble que le mécanisme de l'ordre doive de toute façon subir quelque toilettage plus ou moins important. Quand on observe les action musculaire, on arrive au constat suivant : de même que pour la perception, le mécanisme des ordres semblent différent selon les modules considérés. Il semble qu'il y ait de nombreux traitement réalisé en parallèles dans les différents modules actifs. Il y aura donc à nouveau un petit travail de remodelage de notre théorie pour s'adapter à cette réalité cérébrale.

Montrons plus prosaïquement le genre de problème délicat qu'il faudra traiter dans l'approfondissement de notre modèle. Le cas du célèbre patient H.M. nous impose d'envisager la mémoire sous forme différenciée. Les différents types d'amnésie notamment celles liées à des lésions cérébrales précises ainsi que les expériences de mémorisation observées par l'activitée cérébrale, nous incite à imaginer plusieurs localisations pour des types de mémoire différents.
Comment expliquer la différenciation spatiale de ces types de mémoire (mémoire procédurale, mémoire épisodique, mémoire à court-terme,..) ? Une réponse serait l'existence de modules différencié par la chimie, comme nous l'avons déjà suggéré. Faut-il alors envisager que le même sens arrive identiquement en entrée démultipliés dans ces différentes zones et que seul les paramêtres chimiques de traitement de l'information produise des mémoires diffèrentes ? Cela pose le problème de concordance entre les différentes mémoires et le problème de la production de plusieurs mémoires simultanément. Pour la simulatnéité de la production de mémoire en parallèle, il suffit d'envisager des cablage de sortie multiple et redondant allant dans les différent module de stockage. Pour ce qui est de la conconcordance le problème ne dure qu'un temps assez bref puisque l'effacement des mémoires courtes se fait rapidement, mais il reste tout de même problématique parce qu'il existe forcément des usages simultanée de ces mêmes mémoires (pourtant différentes parce que sotckées dans des modules différents et de nature différente). Maintenant la localisation du langage dans les deux hémisphères tendrait à montrer que le parallélisme de l'information est un type de mécanisme à envisager. (Il semble même qu'aux yeux de certains théoriciens, il y ait là un des mécanisme de base du fonctionnement des différents modules cérébraux...). Pour la mémoire, on peut aussi envisager que les modules sont en chaînes, chaque mémoire récolte le fruit mur du traitement précédent (il faudrait alors le confirmer par les faisceaux de connexions synaptique).
Cela va pour la durée de la mémoire, mais aussi pour le type de mémoire. On constate en effet que les faits sont une mémoire stockée différemment des procédures. Il va donc falloir d'autres astuces pour l'expliquer (par l'organisation global des entrée-sortie qui donne une orientation sémantique, un module pouvant être relié au sens, et l'autre davantage aux ordres mentaux par exemple). Etc...

Un autre problème à considérer et celui des flux de besoins et satisfaction, la simple représentation de l'aimantation est insuffisante pour rendre compte des innombrables modules et des parcours complexe de l'activité cérébrale dans des observations portant sur ces thèmes. Sans forcément remettre en cause le principe d'aimantation, il faudra trouver le lien avec ces mécanismes de bouclage modulaire très nombreux qui ont été constaté dans le cerveau.
On peut se féliciter par contre que les concepts de besoin et de satisfaction semblent effectivement à la base des motivations des ordres. (il faudra peut-être y adjoindre un mécanisme d'hinibition du besoin le SIA de Henri Laborit).
Seulement il apparaît que le principe d'aimantation ne paraît pas le plus adapté, dans la perspective modulaire, il pourrait être remplacé par de simples assocations couplés sur des modules de satisfaction et besoin ; des modules géniteurs du flux de satisfaction (comme le noyau accumbens) et des modules lecteurs de satisfaction (comme l'amygdale, le noyau acubens, le septum ou l'hypothalamus). Les hypothèses son nombreuse, il faut se baser sur une profonde connaissance expérimentale que je possède pas...

A l'instar de ces quelques exemples, il restera beaucoup de phénomènes à intégrer au modèle.

Et pour finir, nous reposons à nouveau notre très cher problème de « la conscience ». Faut-il envisager son existence dans les cellules les plus stimulées d'un seul module particulier qui serait un noyau du sens (il faudra alors evisager que ce module soit connecté sur tout les modules de sens fort avec des connexions assez dense probablement) ? Dans une perspective plus conforme à notre modèle initial, on peut auss envisager qu'elle peut appraitre partout, elle serait alors indépendante d'un module particulier. L'existence de module rend un peu plus difficile l'idée de continuité et d'homogénité de la pensée, mais après tout, la conscience restera probablement le plus grand mystère du fonctionnement. Pour enfoncer le clou : pourquoi aurait-on conscience d'une cellule stiumulé plutôt que d'une pas stimulé après tout... en quoi la stimulation la plus élevée serait une « conscience ». on peut toujours chercher dans d'autres direction mais le phénomène conscience semble terriblement étrangé au phénomène mécanique.
Vu de l'intérieure, sa forme est un peu plus simple : on ne pense bien qu'une seule chose à la fois, même si cette chose peut-être fort complexe. Mais là on en revient au problème de base...

L'inné
Avec beaucoup d'audace, on peut même pousser l'hypothèse modulaire pour expliquer le troisième problème de fond de notre modèle : l'instinct inné. On pourrait le voir comme un rapprochement spatial constitutif du système par l'établissement de certaines connexions entre certaines perceptions et certaines actions musculaires. Encore faudrait-il qu'on justifie l'apparition systématique de ces comportements inné, et puis surtout la haute abstraction des perceptions nécessaire à leur fonctionnement. Il m'apparait que cela devient quasiment insoluble devant les instincts animaux évolués tellement les perceptions nécessaire semble complexe. A moins que cette complexité soit précablé...mais par quel mécanisme ? A moins que la sémantique « transversale » de certains modules traduisent justement ces complexité, mais cette hypothèse un peu facile demande davantage d'objectivité. Il semble donc qu'on soit là devant des propositons de nature très hypothétiques...

Conclusion
Autant l’imagination est fertile autant il est possible d’envisager des remodelages originaux du modèle.
Ma grande ignorance en neurophysiologie m'empêche d'aller trop loin ; à moins que je ne sois déja allé trop loin dans ces modelages beaucoup trop simples face à la réalité. Je prierai donc les érudits et les savants d'excuser ma grande naïveté dans la modélisation de mes connaissances nerophysiologique. Mais il convenait de voir que le principe de base de notre modèle pouvait largement être 'modulé' pour s'adapter aux contraintes pratiques constatées.
On remarquera que notre modèle simple du départ est assez éloigné de la théorie modulaire proposée ici. Cela pose une nouvelle question : cette complexité est peut-être une condition nécessaire à la réussite de l'établissement du sens et de l'intelligence. Dans cette perspective, notre article de foi était alors très naïf... et fort est à croire qu'il l'est encore en dépit de l'ajout de cette hypothése de complexité.

Nous avons essentiellement disserté sur la localisation de l’information, mais il faudrait aborder de nombreux autres problèmes qui conduiraient à autant de remodelages distincts. Notre objectif consiste surtout à montrer que si notre modèle ne semble pas approprié, il existe probablement bien d’autres interprétations avant d’être dûement disqualifié...

S’il est certain que le modèle que nous avons présenté est bien trop simple pour représenté la réalité physiologique du cerveau. Mais pour conclure proposons aussi l'autre hypothèse : ce modèle a peut-être une chance de révèler les pistes essentielles dans la compréhension du fonctionnement de la pensée...

 

Michaël Klopfenstein © 2007



La trame une image de la réalité.


Un regard philosophique sur Les mathématiques


La Science est recherche de la réalité objective partageable.

Le sens est le ressenti instantanné d'un tissu organisé de concepts formant une unité cohérente liée à la totalité de nos aquisitions (qui sont pour chacun un autre sens).