Projet démocratiedirecte
democratiedirecte.net

> 6. Analyses Recommander Imprimer 13 pages màj : 18 fév. 2017

Intelligence collective vs artificielle Recommander màj :

PLAN

  1. Arbre des sciences
  2. Utilitarisme et valeur
  3. Matérialisme et prédation
  4. Intelligence artificielle
  1. Intelligence collective
  2. Conclusion

Arbre des sciences Haut

Homme-Dieu

Selon le point de vue proposé ici la philosophie serait le fondement des sciences parce que le référentiel est l'être pensant, et en particulier l'être humain dans la mesure où celui-ci est considéré comme étant d'une nature particulière sinon supérieure.

Pour formaliser et communiquer ses réflexions l'être humain a conçu des langages, dont l'art et les mathématiques. Progressivement il a développé les sciences, pour comprendre la nature et agir sur elle à son profit. Or nous verrons que la notion de profit implique celle de valeur, qui induit celle d'éthique ...

Le tableau suivant propose une structuration logique des sciences dans laquelle les langages exercent une fonction d'intermédiation entre la pensée philosophique (le pourquoi) et la compréhension rationnelle (le comment).

Utilitarisme et valeur Haut

Utilitarisme

Les sciences consistent essentiellement à mesurer les phénomènes naturels, et à décrire leurs relations. Cependant les connaissances ainsi acquises ne constituent pas nécessairement une explication fondamentale des phénomènes étudiés. Selon une vision "orthodoxe" de la science « la physique ne doit pas s'occuper de ce que les choses sont, mais de comment elles sont liées entre elles » [source p. 99]. Selon cette conception la science a accompli sa fonction utilitariste dès lors que les connaissances acquises permettent de reproduire le phénomène étudié et d'ainsi pouvoir développer des techniques pour améliorer le sort du genre humain.

Autrement dit, dès lors que l'on a compris le "comment cela fonctionne" cette conception orthodoxe considère le "pourquoi cela fonctionne ainsi" comme relevant du domaine philosophique ou religieux, donc de l'éthique, mais pas du domaine scientifique.

Mais quelle est la différence entre le "comment" et le "pourquoi" ? Et qu'entendent exactement ces scientifiques par « ce que les choses sont » ?

Ce qu'ils entendent par là c'est la notion d'éthique. Selon eux les considérations d'ordre éthique ne doivent pas s'immiscer dans la recherche scientifique, car elles auraient pour effet de la "pervertir" (cf. la "neutralité" méthodologique évoquée plus haut). Ainsi ce n'est pas aux scientifiques à décider si, par exemple, la bombe atomique est une mauvaise chose ou pas.

Mais par rapport à quels critères les considérations éthiques "pervertissent"-elles la recherche scientifique ? En posant cette question il apparaît clairement qu'accuser de perversion une pratique éthique de la science est évidemment contradictoire puisque – par le fait même de cette accusation – un jugement de valeur est posé.

Échapper à l'éthique est manifestement difficile. Selon nous ce n'est ni possible, ni souhaitable.

Comment expliquer une telle irrationalité de la part de professionnels de la rationalité ? « Cherchez la femme » recommande le dicton pour comprendre le comportement inexplicable d'un homme. « Cherchez l'intérêt financier », répondent plutôt de nombreux économistes, et vous découvrirez que "l'irrationalité" n'est qu'apparente, ou du moins relative.

Valeur

Intérêt financier disons-nous. Nous parlons donc ici de valeur. Or lorsque l'on tente de comprendre cette complexe notion de valeur, on en arrive inévitablement à celle d'éthique [approfondir]. Tiens donc, c'est justement cela que les scientifiques orthodoxes voudraient maintenir en dehors de leur domaine ...

Mais ce faisant ils sont alors confrontés à un gros problème : dans certains domaines cela est de toute évidence impossible. C'est notamment le cas de la science économique, qui ne peut évidemment faire l'impasse sur la valeur, qu'elle traite d'ailleurs - de façon très (trop ?) réductrice - au moyen des notions de prix et d'utilité.

Afin de contourner ce problème le dogme orthodoxe en est venu à faire une distinction entre d'une part sciences dites "exactes" ou encore "dures" (mathématique, physique, chime, biologie, ...), et d'autre part sciences dites "humaines et sociales" ou encore "molles" (psychologie, sociologie, économie, droit, politique, philosophie, histoire, ...). Or dans le vocabulaire utilisé pour nommer les protagonistes il est difficile de voir autre chose que l'idée selon laquelle les sciences humaines et sociales seraient moins ... scientifiques que les sciences "exactes". Décidément cela ressemble fort à une excommunication des hétérodoxes par des orthodoxes.

Répression et soumission. Ce vocabulaire dénigrant de sciences "molles" a pour effet que de nombreux chercheurs en sciences humaines et sociales tentent d'échapper "au bûcher" en évitant les thématiques impliquant les notions d'éthique et de valeur. Et plus cet évitement est difficile à réaliser sans paraître pour un scientifique "au garde à vous", plus on observe un comportement compensatoire prenant la forme d'une mathématisation à outrance. Ce phénomène de compensation et d'enfumage atteint logiquement son paroxysme dans la science économique.

Est-il rationnel de croire que l'on pourrait isoler les scientifiques - et partant leur production scientifique - des réalités psychiques, sociologiques, politiques, juridiques et économiques que tentent de comprendre les sciences humaines ? Cette croyance n'est-elle pas justement le signe que la distinction entre sciences exactes ("dures") et humaines ("molles") est factice ? Autrement dit : toutes les sciences, étant fruits de l'activité humaine, sont humaines par nature. Toutes doivent être constamment "durcies".

Intelligence artificielle : une solution ? Même s'il s'avère que ces limitations sont réelles, il me semble que "l'intelligence artificielle" n'y changera rien car les robots qui apprennent par eux-mêmes et se "re-programment" ont a l'origine été créés par des humains, et nous verrons plus loin que - selon nous - le temps qui passe ne changera rien au caractère déterministe de la programmation originelle par des humains (de même les logiciels prétendus pouvoir générer des signes aléatoires ne font que simuler un hasard qui n'est en réalité qu'une complexité programmée). Quant à la réponse à la question « les humains ne sont-ils pas que des machines biologiques, donc eux-mêmes "programmés" ? », qu'elle soit affirmative ou négative, change-t-elle fondamentalement la problématique ?

Une explication

Dans la suite de cet article nous allons montrer que la domination des sciences "exactes" sur les sciences "humaines" n'est pas étrangère au fait que les premières ont la faveur de l'idéologie actuellement dominante : le "libéralisme". On notera à cet égard la concomitante montée en puissance d'une autre distinction, non plus entre les sciences mais cette fois au sein de chacune d'elles : entre recherche fondamentale (phase amont) et recherche appliquée (phase aval). Cette distinction est apparue au début du 20° siècle, soit en même temps que le capitalisme financier moderne, lequel est caractérisé par un marché financier dont la taille est devenue substantielle par rapport à - voire déconnectée de - la sphère réelle. S'agit-il d'un hasard, ou bien ces deux phénomènes sont-ils intimement liés ?

Matérialisme et prédation Haut

Matérialisme

C'est lors du passage de la phase de recherche fondamentale à la phase applicative que la problématique de la valeur et de l'éthique se matérialise pleinement. Par le biais de leur financement toutes les sciences sont soumises à la dynamique rétroactive développement applicatif recherche fondamentale. Or l'effet rétroactif de la phase du développement applicatif sur la phase de la recherche fondamentale est de plus en plus déterminé par des critères de maximisation du profit au bénéfice d'une minorité de la population. Ainsi les domaines de recherche à haut contenu technologique (et donc capitalistique ...) sont privilégiés au détriment de domaines à faible contenu technologique.

Falsifications. Ce phénomène est d'autant plus inquiétant qu'il existe de nombreux exemples de recherches "scientifiques" ayant été falsifiées dans le but de "confirmer" le "bien-fondé" de certaines idéologies et politiques. Cela aussi bien dans les sciences humaines (histoire, économie, ...) que dans la R&D chère aux sciences "exactes" (cf. les graves dérives en chimie et biologie : exemple).

Ce phénomène est intimement lié à la vague "néolibérale", idéologie des grandes sociétés privées globales initiée dans les années 1980 :

La place prise dans l'économie mondiale par les grandes sociétés est illustrée notamment par celles liées à Internet (Google, Apple, Facebook, Twitter, Amazon, eBay, Uber, AirBnB, ...). Ces entreprises, toutes US, et actives partout dans le monde :

Le démantèlement des services publics est d'autant plus problématique qu'une fonction fondamentale de l'État est de garantir une allocation optimale des richesses, que ce soit pour la consommation ou la production.

Prédation

Il est donc flagrant que l'apparente irrationalité de la science orthodoxe dans son rejet des notions d'éthique et de valeur est particulièrement utile aux stratégies de prédation de la richesse collective par une oligarchie.

Selon Bernard Friot, professeur émérite à l'université de Nanterre, c'est la lutte des classes qui détermine ce qui vaut dans tout ce que nous produisons : « la valeur n’a pas d’autre fondement que politique, elle est le lieu d’expression de l’enjeu de pouvoir inhérent à toute production, à tout travail. (...) La classe capitaliste, en tant que classe dirigeante, exerce une dictature sur la production de valeur en la mettant au service de l’accumulation du capital : les richesses produites hors de son emprise (par les retraités, les fonctionnaires, les travailleurs indépendants, les chômeurs) sont déclarées sans valeur, tandis que valent des biens et des services parfaitement inutiles ou dangereux, dont la production alimente le capital » [source].

Toujours selon Friot, la lutte de classes est l’affrontement irréductible entre deux pratiques antagonistes de la valeur. Elle se joue dans :

Commander
des humains
à distance

Des technologies permettant de commander des humains à distance existent depuis au moins 2013 [source]. Des développeurs ont déclaré (cf. source ci-avant) : « il n'y a absolument aucune possibilité d'utiliser notre système sur une personne qui ne serait pas consentante ». On notera cependant qu'ils n'affirment cela que pour leur système. En outre d'autres technologies ont démontré qu'il est possible de forcer un animal à agir contre sa volonté. Il fait peu de doute que cela sera, ou est déjà possible sur des humains [source].

Intelligence artificielle Haut

Dans l'arbre présenté plus haut le lecteur aura remarqué la position/fonction particulière du langage mathématique, faisant lien entre le "pourquoi" (l'esprit ?) et le "comment" (la matière ?).

Les mathématiques traitent des formes, des nombres et des relations. Les outils majeurs en sont le calcul différentiel & intégral [1] et - particulièrement depuis l'avènement de la mécanique quantique au début du 20° siècle - le calcul probabiliste.

Objets et méthodes des mathématiques
ObjetsMéthodes

On notera que :

Transhumanisme

Le lecteur attentif constatera que l'entropie ontologique que décrit "l'évolution transhumaniste" (sic) permet de "justifier" l'affirmation (enseignée comme vérité scientifique dans les facultés d"économie) selon laquelle le capital serait ‐ à l'instar de l'être humain ‐ un facteur/agent de production (et non pas seulement un moyen/objet de production). On est ici en plein dans l'idéologie "libérale" considérant l'humain comme une marchandise dont le prix se négocie sur un "marché du travail". Cette idéologie ‐ dont on observe actuellement la fusion avec une laïcité radicale ‐ ressemble de plus en plus à une nouvelle religion des temps modernes, dont les économistes académiques sont les prêtres. Cette religion sert particulièrement bien les intérêts d'une oligarchie oeuvrant à la régression vers l'état de nature ("le renard libre dans un poulailler libre") par le démantèlement des nations, ce qui conduit à l'uniformisation culturelle et la déconstruction de l'État providence et de l'État de droit (mondialisation = entropie sociétale).

Dalaï Lama et George Bush

Le Dalaï Lama fête son 80e anniversaire avec Georges Bush ... [source].

On notera la cohérence entropique de cette idéologie "évolutionniste" fondée sur une double dynamique "technologisation-mondialisation" induisant :

In fine, cette dynamique entropique dissipe la distinction entre local et global, entre individu et société, ce qui n'est pas sans similitudes avec une conception bouddhiste du monde.

N'est-ce pas à une régression vers la loi de la jungle ("l'état de nature") que conduirait nécessairement une intelligence artificielle qui ne serait pas sous contrôle de l'intelligence collective ? Une jungle technologisée est toujours une jungle : gare à l'illusion technologiste !

Intelligence
artificielle

L'exploration de données, l'apprentissage automatique et les systèmes experts sont les trois principaux constituant des systèmes d'intelligence artificielle (SIA). Une question fondamentale est : quelle est la relation entre intelligence collective et intelligence artificielle ?.

Limites intrinsèques. Ces deux formes d'intelligence sont de natures très différentes. Ainsi Vincent Blondel, professeur en mathématiques appliquées et théorie informatique à l'UCL, a montré dans sa thèse de doctorat qu’un problème mathématique particulier ne pouvait pas être résolu au moyen d’un algorithme car les algorithmes et les ordinateurs, aussi puissants soient-ils, possèdent des limites intrinsèques insurmontables [source].

L'une est l'oeuvre de l'autre. L'intelligence artificielle est le fruit de l'intelligence collective, non seulement au niveau de sa conception mais également de son utilisation. En effet c'est la collectivité qui constitue la source des bases de données, la "matière première" des systèmes experts.

Les 3 bugs majeurs du big data (4m54s - 2015)
Intelligence artificielle

Lutte des classes. La nature de cette relation est du même type que la relation entre facteurs/agents et moyens/objets de production. Il est flagrant que l'idéologie "libérale" vise à ne pas faire la distinction entre facteurs (agents) et moyens (objets) de production, donc non plus entre humains et machines, les premiers (du moins les salariés ...) étant assimilés à des marchandises au même titre que les secondes (cf. le "marché de l'emploi"). Or les facteurs/agents de production conçoivent et utilisent les moyens/objets. S'ils deviennent objets c'est nécessairement au profit de leurs "employeurs/propriétaires". Il y a donc bien une proximité étroite entre salariat et esclavagisme.

Dans le même ordre d'idées il est selon nous fondamental que l'intelligence artificielle demeure subordonnée à l'intelligence collective. En effet la complexité grandissante du fonctionnement des systèmes experts a pour effet que le risque existe d'une perte de contrôle des machines dites "intelligentes. À cet égard notons que même les systèmes d'apprentissage automatique sont fondés originellement sur des algorithmes écrites par des humains. Or ce travail de programmation est influencé par les intérêts propres aux programmateurs ou à leurs commanditaires. Autrement dit le contrôle ne sera pas perdu pour tout le monde : pour les commanditaires des moyens de production que sont les systèmes experts il est même inscrit dans le marbre de la complexité technologique ...

Ces considérations nous conduisent logiquement à la section suivante, qui traite des mécanismes et de la problématique de l'intelligence collective.

Intelligence collective Haut

Vaste sujet. Procédons donc pas étapes, en commençant par cerner le seul concept d'intelligence. Nous verrons ensuite dans quelle mesure il est possible de l'étendre de l'individu vers le collectif.

IntelligenceTop

Capacités et
comportements

Nous commencerons par proposer une approche de définition aussi large que possible : nous entendons ici par "intelligence" « des capacités voire aussi de simples comportements, qui distinguent l'homme des autres animaux ainsi que des machines» .

Les capacités de traitement de données, telles que le volume de stockage (mémoire) et la vitesse de calcul, ne sont pas typiquement humaines puisqu'elles sont également (i) reproductibles par des machines (qui peuvent dépasser les capacités humaines en la matière), et (ii) observées chez les animaux (les capacités humaines étant généralement supérieures en la matière). Par contre l'humour apparaît comme spécifique au genre humain, avec lequel les autres animaux partagent - mais dans une mesure nettement moindre - l'esthétique, l'invention et la projection idéalisée dans l'avenir. Mais aussi la souffrance et la jouissance. Tout cela les machines ne peuvent que l'imiter (ce qui est déjà pas mal, et d'autant plus lorsqu'il y a amplification, notamment dans le cas de l'invention).

Les programmes qui modifient voire "créent" des programmes ont a la base été créés par l'homme, en particulier les règles d' "auto"-modification des règles. Machines pensantes, sans doute, mais machines conscientes ?

Quelques comportements qui distinguent l'homme - ou du moins certains humains - de l'animal et de la machine sont la religiosité, la volonté de comprendre les lois de la nature, ou encore le suicide ...

Spiritualité

Émotion. Si l'impulsivité et l'émotivité extrême risquent de nous faire prendre de mauvaises décisions, la rationalité peut nous y pousser tout autant. Ainsi les travaux d'Antonio Damasio auprès de personnes souffrant de lésions au niveau du lobe frontal du cortex cérébral, ayant pour effet de supprimer toute émotion, ont montré que ces personnes n'étaient plus aptes à prendre de bonnes décisions [source].

Conscience. La notion de conscience implique celles de libre arbitre, volonté et responsabilité. Ainsi le philosophie et physicien Dominique Lambert résume comme suit les traits distinctifs de l'humain :

Dans son roman "Pantagruel" écrit en 1532, François Rabelais fait dire à Gargantua écrivant à son fils Pantagruel : « science sans conscience n’est que ruine de l’âme ».

Cependant une expérience réalisée en 1983 par Benjamin Libet montre que l’activation cérébrale (supposée inconsciente) précède la décision consciente. Dans une autre expérience réalisée en 2008 par Chun Siong Soon l'activation cérébrale est observée jusqu'à 10 secondes avant la décision consciente, et en outre l'observation des zones cérébrales activées permet dans 60% des cas de prédire correctement le type de décision que l'individu observé prendra. En 2011, utilisant une autre technologie Itzhak Fried obtient un taux de prédiction correcte de 80%, 700 millisecondes avant la décision consciente [source]. Doit-on en déduire que le libre-arbitre ne serait qu'une illusion rétrospective sur nos actes ? Ne serions-nous que des feuilles balancées par le vent du déterminisme ?

Résultat de l'expérience de Libet [source]
Expérience de Libet

Quelques questionnement et faits viennent tempérer une éventuelle réponse affirmative à ces questions :

Physique
biologie
sociologie

Définition thermodynamique. Le physicien François Roddier définit l'intelligence en terme de thermodynamique : « Pris isolément, tout animal cherche à maximiser ses chances de survie (de dissiper de l’énergie). Pour cela, il répond à des stimuli (informations venant de l’environnement) en déclenchant des actions appropriées (travail mécanique). Le comportement le plus intelligent est celui qui déclenche le plus rapidement les actions les mieux appropriées » [source].

Fondements biologiques. Roddier fait remarquer que « les ordinateurs ont démultiplié le pouvoir de son cerveau rationnel, le néocortex. Quoique plus puissants que lui, ils lui sont pourtant entièrement soumis. De la même façon, notre néocortex est soumis à notre cerveau limbique, siège de nos émotions, qu’on appelait autrefois le "cœur". Notre cerveau limbique est lui-même au service d’un cerveau encore plus ancien, le cerveau reptilien. Ce dernier a été créé par nos gènes pour les servir. C’est pourquoi Richard Dawkins les qualifie d’égoïstes. Simples molécules, nos gènes obéissent quant à elle aux lois de la thermodynamique » [source].

Culture. On sait aujourd'hui que le comportement humain n'est que partiellement déterminé par ses gènes. Les interactions entre chaque individu et son environnement sont également déterminantes, et ont même pour effet de modifier la structure du cerveau (cf. par exemple les mécanismes neuronaux de modification plastique expliquant la différence entre mémoire à court et long terme), voire semble-t-il sur les gènes eux-mêmes ! Cela concerne l'ensemble du règne animal, sauf que l'aspect culturel (et donc social) jouerait un rôle bien plus important chez les humains que chez les autres animaux, notamment en raison des capacités humaines particulièrement développées en matière de langage (vocabulaire, syntaxe, grammaire, informatique, Internet, ...).

Évolution. Depuis le début du siècle, le QI baisse ... en Occident, de sorte qu'aujourd'hui le QI moyen est de seulement 98 en France et aux USA, contre 108 à Hong Kong et Singapour. Une des causes pourrait être la qualité et les budgets de l'enseignement, plus élevés dans les pays asiatiques.

Baisse inquiétante du QI en Occident (3m39s - 2017)

... collectiveTop

Intégration
démocratique
du savoir

L'intégration des savoirs relève nécessairement d'un processus collectif, car aucun chercheur ne peut connaître et comprendre la totalité des connaissances, même de sa propre branche. Ce processus fonctionne dans le cadre d'un réseau mixte, c-à-d à la fois pair-à-pair et centralisé : des échanges de savoirs sont opérés "individuellement" dans le cadre d'un réseau pair à pair, et d'autre part une intégration des savoirs est opérée "globalement" qui requiert nécessairement une forme ou l'autre de centralisation.

Réseau pair à pair VS centralisé

Types de réseau

De plus en plus de logiciels concernent des applications de réseau (mail, navigateur, Facebook, ...). Celles-ci sont conçues sur base de deux types possibles de réseau :

Avantages et
inconvénients

Le coût total d'un serveur (matériel, local, maintenance, sécurité, ...) est bien plus élevé que celui d'un terminal "pair". En revanche une application en réseau pair à pair est confrontée à une plus grande complexité, et même - selon le théorème CAP - à des limitations induisant d'inévitables arbitrages entre critères de performance des fonctionnalités de l'application.

Exemple. Un moteur de recherche décentralisé est confronté à la difficulté d'opérer de façon décentralisée les fonctions suivantes :

  1. apprendre la topologie des nœuds du réseau (annuaire des utilisateurs, ...) ;
  2. rechercher l’information sur tous les nœuds ;
  3. recevoir une réponse d’un nœud répondant aux critères de recherche.

Exemple d'arbitrage : garantir que toute recherche obtient un résultat peut impliquer que deux mêmes recherches n'obtiendront pas le même résultat.

Réseaux sociaux
et monopole

Le réseau pair-à-pair est difficilement compatible avec un modèle d'entreprise privée. Concernant les applications dite de "réseau social", les utilisateurs préférant logiquement le réseau le plus populaire, celui-ci devient inévitablement un monopole. Le modèle d'entreprise du "réseau social" semble donc difficilement compatible voire incompatible avec le principe de concurrence (cf. Facebook). Dans ces conditions ne serait-il pas préférable qu'un réseau social soit géré par une entreprise publique ?

NB : le fait que Facebook sera probablement remplacé un jour par un autre monopole privé, ne change rien à la problématique.

Décentralisation :
une illusion ?

Selon nous il n'existe à ce jour aucun réseau complètement décentralisé et désintermédiatisé. Ainsi même le réseau Bitcoin (crypto-monnaie) :

La technologie de chaîne de blocs va sans doute permettre aux entreprises de faciliter l'externalisation de certaines de leurs activités et de réduire les frais des opérations de compensation. Mais il reste à démontrer qu'un système "décentralisé" peut l'être intégralement. Et dans l'affirmative il reste à démontrer qu'il serait plus efficace qu'un réseau mixte combinant des fonctions centralisées avec des fonctions décentralisées.

Local
global

La problématique de l'arbitrage entre centralisation et décentralisation est évidemment liée à la relation entre individus et société c-à-d entre niveaux local et global. On notera que les sciences "exactes" sont également confrontée à une problématique d'intégration entre niveaux local et global. Ainsi selon l'état actuel des connaissances en physique quantique, il semble qu'en-dessous d'une taille "charnière" située entre les niveaux moléculaire et atomique (niveau microscopique) les lois naturelles seraient différentes de celles observées au niveau macroscopique [vidéo de vulgarisation].

Pourtant, le global/macro étant composé du local/micro, on pourrait s'attendre à une cohérence d'intégration entre les deux dimensions ... (PS : ce principe de cohérence vaut aussi bien pour les sciences exactes que pour les sciences humaines).

Indétermination quantique. Cependant cette absence apparente de cohérence ne se manifeste que lorsque l'observateur est (ou s'est mis) dans l'incapacité d'identifier - parmi plusieurs comportements possibles des particules - celui va déclencher la mesure du phénomène observé ... (situation dite d'indétermination quantique) [vidéo de vulgarisation].

Auto-organisation

Le physicien François Roddier estime que « le concept de réseau neuronal peut s’appliquer à toute structure dissipative considérée comme un ensemble d’agents échangeant de l’énergie et de l’information. On sait aujourd’hui que ces agents s’auto-organisent pour maximiser la vitesse à laquelle ils dissipent l’énergie (principe d'entropie maximale). C’est apparemment le cas des molécules d’air dans un cyclone, des bactéries dans une colonie, des fourmis dans une fourmilière comme des neurones dans notre cerveau. C’est aussi le cas des sociétés humaines. Peut-on leur appliquer à tous le même modèle d’auto-organisation ? » [source]. Le physicien danois Per Bak a montré que tous s’auto-organisent suivant un processus qu’il a baptisé "criticalité auto-organisée" par lequel les structures dissipatives s'organisent à la manière des transitions de phase continues, comme le passage de l’état liquide à l’état solide, c-à-d au passage d’un état désordonné (l’état liquide) a un état ordonné (l’état cristallin). Des avalanches de bifurcations produisent des arborescences fractales : amplification des fluctuations --> rupture de symétrie (avec invariance par changement d'échelle) --> apparition et mémorisation d'information.

Selon Roddier, en biologie l'ontogenèse correspondrait à une transitions abruptes, et la phylogenèse à une transition continue. Les transitions abruptes nécessitent un apport extérieur d’information sous la forme d’un germe. Lors des transitions continues - cas des structures dissipatives - de l’information apparaît progressivement au fur et à mesure que la phase ordonnée se développe. Ces informations se propagent par percolation au sein de domaines d'Ising. En biologie, l’information est mémorisée dans les gènes. Les êtres vivants qui partagent les mêmes gènes forment des domaines d’Ising appelés espèces animales ou végétales. Chez l’homme l’information est principalement mémorisée dans son cerveau. Les sociétés humaines mémorisent à leur tour de l’information dans les livres, plus récemment dans les ordinateurs. C’est ce qu’on appelle la "culture". Les individus qui partagent la même culture forment des domaines d’Ising sous la forme de sociétés humaines. Les lois de la thermodynamiques expliquent donc aussi le phénomène sociologique d'auto-organisation [source1, source2].

Exploitation. On notera que l'exploitation des salariés est fondée sur l'appropriation de la plus-value collective - fruit du phénomène d'émergence - alors que les salariés sont payés selon un salaire déterminé.

François Roddier note que les sociétés humaines forment un réseau neuronal d'agents interconnectés On peut lui appliquer le modèle de cerveau de Bak et Stassinopoulos. La figure suivante montre un schéma de ce modèle. Dans les simulations numériques l'information reçue se limite à un signal binaire (par exemple un feu devient vert ou rouge), de même que l'action mécanique qui en résulte (si vert alors appuyer sur pédale droite, si rouge appuyer sur pédale gauche). Lorsque le bon levier est choisi, tous les neurones reçoivent le même signal de récompense/satisfaction lié à un apport d'énergie (par exemple le cobaye reçoit de la nourriture).

Cerveau de Bak-Stassinopoulos
Le modèle de cerveau de Bak et Stassinopoulos reçoit de l’information (Q2) de l’environnement sur lequel il agit (W=Q1+Q2) de façon à obtenir de l’énergie (Q1).

« Les neurones excités (cercles gris) forment un domaine d'Ising. Lorsque ce domaine percole, il connecte une information reçue à une action (travail mécanique). Le modèle s'auto-organise de façon à maximiser l'énergie reçue. La figure ci-dessus représente un réseau régulier de neurones mais les simulations faites avec des réseaux quelconques marchent également. Dans le cas d'une société humaine, chaque agent peut aussi bien recevoir de l'information que déclencher une action. Il peut aussi communiquer à distance avec n'importe quel autre agent » [source].

Le modèle de Stassinopoulos et Bak implique que le cerveau s’auto-organise, à l’aide d’oscillations de part et d'autre d’un point critique, seuil de percolation. Deux paramètres sont impliqués : l’intensité des connections entre les neurones, et le seuil à partir duquel l’information est transmise d’un neurone à l’autre. Ces paramètres oscillent au cours du temps de façon à maximiser la «satisfaction» générale. Par analogie avec les cycles de Carnot les seuils jouent le rôle d’une température. Des seuils bas facilitent leur franchissement, comme le ferait une température élevée; des seuils élevés empêchent leur franchissement comme le ferait une température basse. L’intensité des connections joue le rôle d’une pression. Elle mesure un flux de charge comme la pression mesure un flux de particules qui frappent une paroi [source].

Roddier note que « ce modèle peut servir à modéliser l'économie dans une société faite d'individus tous interconnectés entre eux (...). Dans le cas d'une économie humaine, on peut assimiler l'excitation des neurones à la richesse monétaire des individus. Les signaux d'entrée expriment le besoin en produits ou services. La transmission des signaux correspond à des transactions financières. En l'absence de percolation, ces transactions se limitent à des placements financiers. Lorsque le réseau percole, il conduit à une offre commerciale. Dans ce schéma, l'économie financière représente les réflexions du cerveau global. L'économie de production traduit ses actions réelles » [source].

Émergence

L'émergence est un phénomène selon lequel le tout serait plus que la somme de ses parties, et dont les automates cellulaires sont une illustration.

Dans le chapitre 3 est présentée une méthodologie appliquée à la conception et au développement d'un système de gouvernance de démocratie directe. Cette méthodologie active le phénomène d'émergence au moyen de trois principes fondamentaux : les comparaisons croisées, les validations itératives et la redondance initiale. Pour résoudre le dilemme de l'oeuf et de la poule (développer démocratiquement un système de démocratie directe, alors qu'il n'existe pas encore d'outils pour le concevoir et développer démocratiquement) est proposée l'intervention d'un meneur de jeu initial et temporaire [pour approfondir lire "Initialisation de la DD"] .

Trois formes d'intelligence collective dans le règne animal
Formations d'oiseaux Formations de poissons Pont de fourmis

Conclusion Haut

1. Décision et propriété. Le concept d'intelligence collective conduit à la problématique du processus de décision, et partant à celle des de la propriété.

Voir à cet égard, au niveau de la gestion des organisations, la notion de parties prenantes ("stakeholders" en anglais). À noter qu'il ne s'agit là que de la généralisation du principe de consultation, sans remise en question de la centralisation du processus de décision. Cette notion de partie prenante est de plus en plus mise en avant dans la gestion des entreprises privées comme "publiques".

2. Maîtrise de l'outil.Il importe que l'intelligence artificielle soit subordonnée à l'intelligence collective, afin de prévenir la prise de contrôle d'une intelligence "sur-humaine" soit par des machines "intelligentes" elles-mêmes (à supposer que ce soit possible ...), soit par leurs propriétaires privés (thèse nettement plus probable).

En fait il ne s'agit pas que de prévention mais aussi de neutralisation, puisque cette perte de contrôle collectif est déjà la norme pour ce qui concerne le second risque (la plupart des super-ordinateurs ne sont-ils pas la propriété de grandes sociétés privées ?).

3. Ouverture. Une condition nécessaire à la maximisation de l'intelligence collective est que le processus de diffusion et d'intégration des connaissances soit accessible à tous.

4. Service public. L'État peut participer à la réalisation des deux points précédents au moyen d'entreprises publiques dont la mission serait de fournir aux autres agents économiques (ménages et entreprises privées) :

Une Confédération des États-nations pourrait à son tour fournir le même type de plate-forme pour l'intégration des plate-formes nationales.

Ces principes ne correspondent-elles pas au concept de noocratie et noosphère ?

Thématiques induites :

[1] À noter que les phénomènes naturels sont généralement continus tandis que les machines électroniques ne peuvent traiter que des données discrètes.