VII. Intelligence collective

email Facebook Twitter
Màj : 26 jan. 2023   –   # pages : 35

Introduction

https://democratiedirecte.net/intelligence-collective#intro

Nous traitons ici de l'intelligence collective (IC) au niveau macro-social.

Pour une approche de l'IC au niveau micro-social, voir philosophie.jortay.net/parcours-de-vie#relation-a-autrui

Entre les deux niveaux, il y a le cas de notre méthodologie de conception et implémentation de notre système de DD. Au niveau théorique, son analyse est particulièrement intéressante car elle exploite le phénomène d'auto-organisation (/methodologie). Cette méthodologie joue donc le rôle de structure dissipative, de sorte l'on peut parler "d'organisation de l'auto-organisation" ...

Trois formes d'intelligence collective dans le règne animal
Formations d'oiseaux Formations de poissons Pont de fourmis

Sciences et savoir

https://democratiedirecte.net/intelligence-collective#sciences
 1. Arbre des sciences
 2. Mathématiques
 3. Méthode scientifique
 4. Limites du savoir

Arbre des sciences

https://democratiedirecte.net/intelligence-collective#arbre-des-sciences
intelligence-collective.jpg

Selon le point de vue proposé ici la philosophie serait le fondement des sciences parce que le référentiel est l'être pensant, et en particulier l'être humain dans la mesure où celui-ci est considéré comme étant d'une nature particulière voire supérieure.

Pour formaliser et communiquer ses réflexions l'être humain a conçu des langages, dont l'art et les mathématiques. Progressivement il a développé les sciences, pour comprendre la nature et agir sur elle à son profit.

Le tableau suivant propose une structuration logique des sciences dans laquelle les langages exercent une fonction d'intermédiation entre la pensée philosophique (le pourquoi) et la compréhension rationnelle (le comment).

Mathématiques

https://democratiedirecte.net/intelligence-collective#mathematiques

On peut voir le langage mathématique comme un lien entre le "pourquoi" (l'esprit ?) et le "comment" (la matière ?).

Les mathématiques traitent des formes, des nombres et des relations. Des outils majeurs en sont le calcul différentiel & intégral (*) et – particulièrement depuis l'avènement de la mécanique quantique au début du 20° siècle – le calcul probabiliste.

(*) À noter que les phénomènes naturels sont généralement continus tandis que les machines électroniques ne peuvent traiter que des données discrètes.

Objets et méthodes des mathématiques

ObjetsMéthodes

On notera que :

  • la géométrie se situe à la frontière entre le concret du monde physique et l'abstraction des nombres ;
  • dans la mesure où l'informatique matérialise la fusion entre le concret physique et l'abstrait informationnel, entre l'objet et le sens, cette technique tend peut-être à dissiper la frontière entre non-vivant et vivant (cf. le computationnalisme puis le transhumanisme).

Méthode scientifique

https://democratiedirecte.net/intelligence-collective#methode-scientifique

Le développement d'une science est le résultat d'un cycle rétroactif composé de quatre phases : observation --> théorisation --> prédiction --> expérimentation --> observation --> ...

Cette méthode repose sur une hypothèse forte : dans chacune de ces phases le scientifique serait en mesure – pour autant qu'il respecte certains principes méthodologiques (notamment les protocoles d'expérimentation) – d'être "neutre", de sorte qu'il n'influencerait pas le résultat de son travail.

L'évaluation_par_les_pairs permet d'évaluer collectivement la qualité d'une production scientifique.

Limites du savoir

https://democratiedirecte.net/intelligence-collective#limite-du-savoir

Au moins trois théories suggèrent l'existence de limitations (intrinsèques ?) au savoir : théorie de la complexité, théorie de la calculabilité, théorie du chaos. Une question fondamentale est de savoir si certaines de ces limites sont intrinsèques, c-à-d physiquement infranchissables.

Théorie de la complexité. La théorie de la complexité traite des limitations techniques au savoir. Pour ce faire elle établit des classes de complexité fondées sur les contraintes de ressources nécessaires à des systèmes informatiques (ordinateurs) pour résoudre un problème algorithmique. Ces contraintes sont de nature quantitative (temps et/ou espace mémoire) et qualitative (résistance à la chaleur, niveau de miniaturisation, ...) [approfondir].

Théorie de la calculabilité. La théorie de la calculabilité traite des limitations logiques au savoir. Selon cette théorie certains problèmes mathématiques ne peuvent être résolus au moyen d’un algorithme car les algorithmes et les ordinateurs, aussi puissants soient-ils, possèdent des limites intrinsèques insurmontables en raison de leur nature logique. [approfondir].

Théorie du chaos. Celle-ci concerne les systèmes dynamiques complexes, et sensibles aux conditions initiales, tels que les phénomènes météorologiques ou économiques. Dans ce type de phénomènes des différences infimes dans les conditions initiales peuvent entraîner des résultats fortement différenciés, rendant en général toute prédiction impossible à long terme (effet "papillon"). Cependant il n'y a pas indéterminisme au sens que « des causes identiques produiraient des effets différents », mais identification incomplète et mesure imparfaite des paramètres. Il n'y a donc pas remise en cause du déterminisme, mais plutôt des limites de son utilisation : cette limitation de nos capacités de mesure est-elle surmontable par le progrès scientifique et technologique, ou bien constitue-t-elle une impossibilité physique ? Selon le principe d’incertitude de Heisenberg il y a bien une limitation physique insurmontable : en physique quantique toute amélioration de la précision de mesure de la position d’une particule se traduit nécessairement par une moindre précision de mesure de sa vitesse et vice-versa [approfondir].

  • Selon le physicien François Roddier « le phénomène non linéaire de sensibilité aux conditions initiales remet en cause l’idée de déterminisme et nécessite une révision de la notion de causalité. Les biologistes s’aperçoivent aujourd’hui que les gènes coévoluent avec leur environnement sans qu’il y ait nécessairement une relation de cause à effet » [source].
  • Les voies du Seigneur ... Ces trois théories conduisent à la réflexion suivante : s'il existe des phénomènes naturels dont les lois seraient intrinsèquement insaisissables, on peut alors interpréter le phénomène religieux comme une perception et expression intuitive de la nature insondable de certains phénomènes (cf. « Les voies du Seigneur sont impénétrables »).

Intelligence

https://democratiedirecte.net/intelligence-collective#intelligence

On pourrait commencer par définir l'intelligence (individuelle ou collective) comme « une capacité à comprendre notre environnement et à y déterminer l’action à réaliser pour amélioration des conditions de vie ». Ainsi selon cette définition un simple savoir livresque et les capacités requises pour répondre à des tests ne relèvent pas de l'intelligence [source].

Cette capacité de raisonnement est fonction des capacités du sujet en matière de traitement d'informations (données) :

  1. perception (collecte) ⇒
  2. mémorisation (stockage) ⇒
  3. calcul (vitesse) ⇒
  4. restitution (application) ⇒ 1.

On notera que la suite des quatre étapes ci-dessus constitue un cycle rétroactif, de sorte que l'intelligence a comme propriété de pouvoir agir sur elle-même : elle peut améliorer continuellement ses performances, via l'apprentissage.

Cycle diurne du cerveau

Le physicien François Roddier note l'analogie entre l'activité cyclique du cerveau telle que mesurée par électro-encéphalogramme (ondes thêta, bêta, alpha et delta), et le cycle convectif, ou encore le cycle des saisons [source].

CerveauConvectifSaison
Sommeil paradoxal (θ : 4-8Hz)RéchauffementHiver (germination)
Réflexion (β : 15-30Hz)Ascension (extension)Printemps (croissance)
Méditation (α : 9-14Hz)RefroidissementÉté (apogée)
Sommeil profond (δ : 1-3Hz)Descente (compression)Automne (régression)

Cycle convectif

cycle-convectif.png
Pseudo-
intelligence

On notera que la définition supra pourrait s'appliquer aussi bien à l'intelligence naturelle (entendez "des organismes vivants", humains ou non) qu'artificielle (entendez "non-vivante") dès lors que le sujet peut être une machine, ce qui participe à flouter sinon supprimer la frontière entre "vivant" (= "qui fonctionne") et "non vivant" (= "qui ne fonctionne pas").

Mais avons-nous là cerné l'intelligence dans toute la subtilité et diversité que l'on constate chez les humains ? Dans le doute répondons par la négative, et considérons qu'à ce stade de notre travail de définition nous n'avons cerné qu'une forme réduite "d'intelligence", que nous appellerons "pseudo-intelligence".

Raisonnement

Dans notre définition développée jusqu'ici il reste à préciser ce qu'on entend par "raisonnement". Selon nous cette méthode de l'intelligence est une capacité à synthétiser une problématique c-à-d à identifier les facteurs explicatifs d'un phénomène et à décrire leur relations, de sorte que la connaissance de la synthèse (dont l'expression la plus réduite peut-être une formule mathématique) permet de maîtriser le phénomène (le reproduire et l'utiliser comme outil).

On notera que les capacités instinctives (par exemple la capacité des animaux à se soigner) ne rentrent pas dans cette définition.

Une méthode de synthétisation est la théorie des graphes, dont des applications peuvent prendre la forme d'algorithmes. Python est un langage très populaire pour coder des algorithmes.

Mais avons-nous beaucoup avancé ? Des animaux ou des machines ne serait-elles pas capable de "raisonner" au sens défini ci-dessus ? Il nous faut encore creuser, et pour ce faire une méthode consiste à analyser des cas réels d'intelligence humaine. Mais avant, développons la notion d'intelligence artificielle, ce qui nous permettra ensuite de cerner "en creux" l'intelligence humaine.

Intelligence artificielle

https://democratiedirecte.net/intelligence-collective#IA
Définition

Nous définissons l'IA comme « l'apprentissage automatique par des machines ("machine learning"). Celui-ci peut être réalisé par des ordinateurs appliquant des boucles de rétroaction ("feedback") à partir de l'exploration de données ("data mining") et le raisonnement logique » (algorithmes).

IA-schema.png

L'apprentissage automatique permet à des machines de faire des prévisions météo (notamment au moyen de la technique du réseau bayésien) ou encore de jouer aux échecs, tout en améliorant leurs performances au fur et à mesure des expériences.

Le web des objets permet de collecter des données de toutes sortes en temps réels. D'autre part, grâce au progrès technologique, la vitesse de calcul et la capacité de mémorisation des ordinateurs ont dépassé les capacités humaines (ou les ont étendues, selon l'interprétation transhumaniste), et sont en voie d'être démultipliées par des technologies telles que réseau neuronal et calculateur quantique.

Commercialement très porteur, le concept d'IA fait parfois l'objet d'interprétation abusives, notamment par l'exagération des capacités de technologies qualifiées d'IA.

Les 3 bugs majeurs du "big data" (4m54s - 2015)

Plus fort que le "big data" ? « Il y a quelques années, des chercheurs ont appris à un ordinateur à jouer aux échecs en entrant dans sa mémoire les millions de combinaisons des jeux existants, et il a été capable de battre le champion du monde. Plus récemment, une machine à qui on a appris à jouer, sans lui injecter les données, aurait atteint le meilleur niveau mondial en quatre heures » [source, à confirmer par une source scientifique ...].

Problématiques

Finalement l'IA est un forme évoluée de ce que l'on appelait au vingtième siècle les systèmes experts, qui étaient conçus et perçus comme des outils d'aide à la décision. Avec l'IA il y a un changement de paradigme : dès lors que les capacités de traitement des données (vitesse de calcul, et quantité de mémoire) par les ordinateurs on dépassé les capacités humaines individuelles on assiste à un déplacement de paradigme : les outils "d'aide à la décision" deviennent des instruments "de décision" (cf. les véhicules autonomes), capables "d'apprendre" par eux-mêmes c-à-d de se reprogrammer. L'on passe ainsi subrepticement du « politique, contestable parce que compréhensible par l'homme » au « scientifique, incontestable car incompréhensible par l'homme ».

Intelligence artificielle

Des scientifiques ont ainsi exprimé leur crainte que l'IA dépassant l'intelligence humaine, elle puisse la soumettre à son contrôle voire détruire le genre humain. D'autre scientifiques rétorquent que ce risque peut être neutralisé par la technique consistant à contraindre l'IA par des "contrats intelligents" dans des chaînes de blocs [source]. Il importe également d'utiliser des logiciels, du matériel et des données libres/ouverts.

La notion, résolument optimiste, de transhumanisme étend la problématique à une transformation disruptive des capacités psychiques et physiques des humains.

Le physicien François Roddier fait remarquer que les ordinateurs ont un effet semblable à une démultiplication des capacités de la partie du cerveau humain traitant la rationalité, le néocortex. « Quoique plus puissants que lui, ils lui sont pourtant entièrement soumis. De la même façon, notre néocortex est soumis à notre cerveau limbique, siège de nos émotions, qu’on appelait autrefois le "cœur". Notre cerveau limbique est lui-même au service d’un cerveau encore plus ancien, le cerveau reptilien. Ce dernier a été créé par nos gènes pour les servir. C’est pourquoi Richard Dawkins les qualifie d’égoïstes. Simples molécules, nos gènes obéissent quant à elle aux lois de la thermodynamique » [source].

Mais l'intelligence se résume-t-elle à des concepts informatiques : qu'en est-il de la sensibilité, de l'humour, du sens critique ou encore de la notion plus collective de culture ?

Intelligence individuelle humaine

https://democratiedirecte.net/intelligence-collective#intelligence-individuelle-humaine
 1. Capacités et comportements
 2. Conscience
 3. Subjectivité
 4. Émotion
 5. Ethique

Capacités et comportements

Le physicien François Roddier définit l'intelligence d'un individu humain ou animal en ces termes : « Pris isolément, tout animal cherche à maximiser ses chances de survie (de dissiper de l’énergie). Pour cela, il répond à des stimuli (informations venant de l’environnement) en déclenchant des actions appropriées (travail mécanique). Le comportement le plus intelligent est celui qui déclenche le plus rapidement les actions les mieux appropriées » [source].

On pourrait proposer une définition alternative, de nature anthropocentrique, en définissant l'intelligence comme « un ensemble de capacités et comportements qui distinguent l'homme des autres animaux ainsi que des machines ». La problématique est ainsi déplacée de "vivant vs non-vivant" à "humain vs non-humain" (c-à-d animale ou non-vivant).

Nous avons vu que les capacités de traitement de données, telles que le volume de stockage (mémoire) et la vitesse de calcul, ne sont pas typiquement humaines puisqu'elles sont également (i) reproductibles par des machines (qui peuvent dépasser les capacités humaines en la matière), et (ii) observées chez les animaux.

Les autres animaux partagent avec l'homme la souffrance et le plaisir psychique. Peut-être sont-ils même capables de capacités intellectuelles évoluées telles que l'esthétique, l'invention, la projection idéalisée dans l'avenir (bien que cela reste à confirmer, et à distinguer d'une interprétation anthropomorphique).

Par contre l'humour, la volonté de comprendre les lois de la nature, le sentiment religieux, ou encore le suicide semblent spécifiques au genre humain et le distinguer de l'animal et de la machine.

Les machines ne peuvent qu'imiter ces capacités (ce qui est déjà pas mal, et d'autant plus, dans certains cas, lorsqu'il y a amplification).

Conscience

https://democratiedirecte.net/intelligence-collective#conscience

La notion de conscience implique celles de libre arbitre, volonté et responsabilité. Ainsi le philosophie et physicien Dominique Lambert résume comme suit les traits distinctifs de l'humain :

  • dépasse sans cesse les limites du langage pour l'interpréter et donner du sens ;
  • sort de ses propres représentations décrivant sa nature ;
  • assume des risques en dehors de ce qui est rigoureusement calculable (N.D.A. : Lambert cite cet élément dans le cadre d'une argumentation contre l'abandon de nos décisions à des systèmes d'intelligence artificielle, notamment dans la justice) ;
  • capacité à limiter sa toute-puissance et sa toute-maîtrise pour faire place à l'autre (N.D.A. : n'est-ce pas propre à tous les animaux ?) [source].

Dans son roman "Pantagruel" écrit en 1532, François Rabelais fait dire à Gargantua écrivant à son fils Pantagruel : « science sans conscience n’est que ruine de l’âme ».

Conscience artificielle ? Pourrait-on fabriquer des machines conscientes ? Oui affirme la théorie computationnaliste, à l'instar du psychologue Philip Johnson-Laird qui énonce les conditions suffisantes à vérifier pour créer des ordinateurs conscients [source : « A computational analysis of consciousness » 1988]. Au contraire le mathématicien Roger Penrose soutient que les ordinateurs, considérés comme des machines de Turing ou des systèmes formels, sont fondamentalement dans l'incapacité de modéliser l'intelligence et la conscience. Les ordinateurs étant des systèmes déterministes, ils sont soumis aux limitations des systèmes formels, par exemple l'insolvabilité du problème de l'arrêt ou le théorème d'incomplétude de Gödel. Selon Penrose, l'esprit d'un authentique mathématicien est capable de surmonter ces limitations, car il a la capacité de s'extraire au besoin du système formel dans lequel il raisonne, quel que soit celui-ci [source].

Inconscience. Une expérience réalisée en 1983 par Benjamin Libet montre que l’activation cérébrale (supposée inconsciente) précède la décision consciente. Dans une autre expérience réalisée en 2008 par Chun Siong Soon l'activation cérébrale est observée jusqu'à 10 secondes avant la décision consciente, et en outre l'observation des zones cérébrales activées permet dans 60% des cas de prédire correctement le type de décision que l'individu observé prendra. En 2011, utilisant une autre technologie Itzhak Fried obtient un taux de prédiction correcte de 80%, 700 millisecondes avant la décision consciente [source]. Doit-on en déduire que le libre-arbitre ne serait qu'une illusion rétrospective sur nos actes ? Ne serions-nous que des feuilles balancées par le vent du déterminisme ?

Résultat de l'expérience de Libet

Expérience de Libet

Source

Quelques questionnement et faits viennent tempérer une éventuelle réponse affirmative à ces questions :

  • L'activation neuronale précédant la décision n'est-elle pas déterminée par la participation volontaire de l'individu à l'expérience ?

  • Si nous subissons en provenance de notre environnement des influences dont nous n'avons pas nécessairement conscience, il demeure que c'est justement le laps de temps entre intention/volonté et décision qui permet éventuellement à l'individu de ne pas passer à l'acte. Ainsi la conscience est liée à la réflexion, laquelle procède selon un mécanisme de boucle de rétroaction et d'inférence bayésienne [source].

    Le phénomène étudié dans les expériences mentionnées ci-dessus ne doit pas être confondu avec le réflexe, qui est une réaction musculaire stéréotypée et très rapide à un stimulus, sans intervention du cerveau et de la volonté consciente

  • Des expériences ont montré que les individus qui croient dans le déterminisme de l'être humain, ont plus tendance à se comporter de façon malhonnête que des individus croyant dans leur libre arbitre. Ainsi, fondée ou non, la croyance dans le libre-arbitre présente l'avantage d'être socialement éthique.

Rationalité. Les individus n'étant généralement pas conscient de leurs biais cognitifs, l'interaction avec des systèmes intelligents peut aider à faire émerger ces biais dans la conscience.

Perception et conscience (2020, 2m22s)

Axel Cleeremans est professeur de psychologie cognitive à l'Université Libre de Bruxelles.

Non localité ? La conscience serait-elle ce qui relie le corps à une conscience collective, de sorte que l'on pourrait considérer que la conscience individuelle dépasse spatialement voire aussi temporellement le corps (notion de "conscience non-localisée" proposée par le cardiologue Pim van Lommel : source ; approfondir : scholar.google.com/scholar?q=nonlocal+consciousness) ?

Subjectivité

Différence entre information (données) et savoir (connaissance) : la première est objective tandis que le second est subjectif (interprétation). L'on pourrait penser à priori que l'absence de subjectivité des machines leur confère un avantage en matière de traitement des données. Mais la subjectivité ne constitue-t-elle pas un avantage dans certaines circonstances ?

Émotion

Si l'impulsivité et l'émotivité extrême risquent de nous faire prendre de mauvaises décisions, la rationalité peut nous y pousser tout autant. Ainsi les travaux d'Antonio Damasio auprès de personnes souffrant de lésions au niveau du lobe frontal du cortex cérébral, ayant pour effet de supprimer toute émotion, ont montré que ces personnes n'étaient plus aptes à prendre de bonnes décisions [source].

Il semble que le débat social fonctionne largement sur le mode émotionnel. Ainsi en politique et en économie, que l'on cherche à "gauche" ou à "droite", il devient de plus en plus difficile de trouver des discours qui n'exploitent pas le registre de l'émotionnel. C'est notamment le cas des débats sur le climat, l'immigration, le libre-échange ou encore l'Union européenne, où stigmatisation et moralisme confrontent leurs simplismes respectifs. Mais c'est notamment au travers de ce débat que l'intelligence collective peut opérer, pour autant que la liberté d'expression soit préservée.

Nous entendons par intelligence émotionnelle, la capacité à maîtriser nos émotions, à percevoir celles d'autrui, et à maximiser notre bien-être émotionnel sans réduire celui d'autrui.

Analysons cette définition :

  • Les pervers narcissiques excellent généralement dans la maîtrise de leurs émotions et dans la capacité à percevoir celles d'autrui ... mais à des fins malveillantes.

  • Ce que l'on appelle abusivement "l'intelligence artificielle" pourrait être capable de percevoir les émotions des humains avec plus d'acuité que les humains eux-mêmes. Cependant, pour qu'une machine puisse maîtriser ses propres émotions il faudrait d'abord qu'elle soit capable d'en éprouver ...

Quelle est la nature de la relation entre intelligence émotionnelle et ego ?

Ethique

L'éthique et la morale, dans la mesure où elles distinguent le genre humain du genre animal, pourraient constituer un élément majeur de l'intelligence. Il ne s'agit donc pas de performances mécaniques (vitesse de travail, capacité de mémorisation, ...) mais plutôt relationnelles.

Ainsi dans le cas du délire collectif autour de COVID-19, force est de constater le rôle coupable joué par la grande majorité de la communauté scientifique, qui s'est laissée emporter par le délire collectif. Non seulement elle n'a pas assumé sa responsabilité scientifique – "scientia vincere tenebras" – mais elle a carrément participé a répandre les ténèbres en ne dénonçant ni l'hystérisation médiatique, ni l'utilisation abusive des modèles mathématiques.

Nous en identifions diverses possibles explications :

  1. l'info-dépendance;

    Je ne suis plus info-dépendant depuis longtemps. À la fin des années 1990 j'ai compris à quel point était présomptueux (et anti-scientifique) le raisonnement suivant : « je suis conscient que globalement la télévision influence négativement les capacités cognitives, mais contrairement au reste de la population, moi je suis capable de "faire le tri" ». Je ne m'informe pas auprès des médias "d'information", mais me documente auprès des sources originelles, et lis des articles scientifiques. Chaque jour je constate à quel point l'immédiateté et l'omniprésence de la prétendue "information" nuisent au sens critique et à l'intelligence collective. Ce phénomène fait des ravages même dans la communauté scientifique.

  2. un conformisme de classe (celle des bourgeois respectables et bien-pensants), qui va généralement jusqu'à la compromission avec le pouvoir politique;
  3. des scientifiques considérant être injustement méconnus, et espérant que la fréquentation des plateaux de télévision et les contributions dans les colonnes de la presse écrite, leur permettra d'enfin briller sous les spotlights (ce que j'appelle les "scientifiques médiatisés");
  4. l'incompatibilité croissante de la spécialisation scientifique avec l'indispensable interdisciplinarité, ce qui a pour effet d'éloigner toujours un peu plus les spécialistes par rapport au monde réel;
  5. doctorats attribués selon des critères de moins en moins exigeants et masqués par le fétichisme réductionniste et technologiste des modèles mathématiques ("singes savants").

Les points deux et trois suggèrent qu'un diplôme universitaire n'a de valeur que s'il est complété par des valeurs telles que le sens critique, le courage, ou encore l'honnêteté.

Comparaison humain vs animal

Les autres animaux partagent avec l'homme la souffrance et le plaisir psychique. Peut-être sont-ils même capables de capacités intellectuelles évoluées telles que l'esthétique, l'invention, la projection idéalisée dans l'avenir (bien que cela reste à confirmer, et à distinguer d'une interprétation anthropomorphiste).

Par contre l'humour, la volonté de comprendre les lois de la nature, le sentiment religieux, ou encore le suicide semblent spécifiques au genre humain et le distinguer de l'animal et de la machine.

Langage. Quand on compare les langues humains et les systèmes de communication des primates non humains, on constate qu'il n'y a pratiquement pas d'aspect combinatoire chez ces derniers. Ils ont bien un lexique, composé uniquement de mots, et peuvent composer des énoncés, mais ne dépassant quasiment jamais l'addition de deux mots. Il n'y a donc rien d'équivalent à la récursivité du langage humain, qui permet de créer une infinité potentielle de messages [source].

Civilisation. À une étudiante qui lui demandait ce qu’elle considérait comme le premier signe de civilisation l’anthropologue Margaret Mead ne mentionna pas les traditionnels silex ou l'usage du feu mais ... un fémur cassé qui avait guéri. Mead expliqua que dans le règne animal, un individu dont la patte est cassée sera éliminé par des prédateurs en l'espace de quelques jours voire quelques heures, s'il ne peut les fuir. Un fémur cassé qui a guéri est la preuve que quelqu’un a pris soin du blessé jusqu’à son rétablissement. « Aider quelqu’un d’autre à traverser la difficulté c’est le début de la civilisation » conclut l’anthropologue [source].

Comparaison humain vs machine

https://democratiedirecte.net/intelligence-collective#humain-vs-machine
 1. Gestion de l'incertitude
 2. Bilan énergétique
 3. Subjectivité et diversité humaine

Des systèmes informatiques sont aujourd'hui capables de battre les meilleurs joueurs de jeu d'échec (première : superordinateur Deep Blue en 1997) et même du jeu de Go (première : programme AlphaGo en 2015).

Cette performance est due aux capacités supérieures des ces systèmes en matière (i) de stockage de grandes quantités de données et (ii) de vitesse de traitement de ces données, qui rendent possible des fonctions d'apprentissage automatique.

Gestion de l'incertitude

Voici une série de capacités cognitives propres aux êtres humains, et dans certaines mesures à l'ensemble des organismes vivants :

  • gestion de l'incertitude (NB : automatisable notamment au moyen de la technique du réseau bayésien) ;
  • extrapolation ;
  • "erreurs" commises par l'imperfection humaine mais qui produisent parfois de grandes avancées ;
  • capacité à prendre des décisions relativement adaptées à la situation malgré un manque substantiel d'informations en entrée (ce que l'IA réalise parfois très mal en comparaison avec les humains) ; ...

    On rejoint ici les notions d'intuition et d'art (du diagnostique médical par exemple), voire d'âme.

Comment les machines peuvent-elles reproduire ces comportements autrement qu'en les simulant. Mais simuler est-ce reproduire au sens de produire ? Si cette distinction est effective ne serait-elle pas liée à celle entre décision (par des humains) et aide à la décision (par des machines - exemple).

Bilan énergétique

Mais il serait intéressant de voir si l'apparente supériorité de l'intelligence artificielle (IA) sur l'intelligence humaine/naturelle résiste à l'analyse économique et plus particulièrement à l'aune du ratio "performance / consommation d'énergie". Pour une vitesse déterminée d'un traitement déterminé d'une quantité déterminée d'informations, l'intelligence artificielle consomme-t-elle moins, autant ou plus d'énergie que l'intelligence naturelle/humaine ?

La réponse est sans appel : L'intelligence artificielle consomme énormément d'énergie tandis que le cerveau fonctionne dans une économie d’énergie époustouflante : l’équivalent de deux bananes par jour ! [source].

Rien d'étonnant à cela. D'une part l'intelligence naturelle, étant le résultat d'un processus évolutif de plusieurs millions d'années, est probablement d'une efficacité redoutable. D'autre part, en raison du premier principe de la thermodynamique (la matière et l'énergie ne peuvent être créées ou détruites mais seulement transformées) la supériorité apparente de l'intelligence artificielle sur l'intelligence humaine ne peut "venir de nulle part", et doit très probablement impliquer une consommation plus élevée d'énergie.

Les coûts cachés
du numérique

L'intelligence artificielle est souvent évoquée comme moyen de rationaliser la consommation d'énergie. Ainsi Deepmind, la filiale IA de Google, a optimisé la consommation énergétique de ses centres de données et de ses systèmes de refroidissement grâce à l’apprentissage machine. Il a ainsi augmenté l’efficacité énergétique de ses centres de données de 15% [source p. 128].

Il importe cependant de souligner le caractère souvent illusoire de ces "économies d'énergie".

Il y a d'abord l'effet rebond – encore appelé "paradoxe de Jevons" – phénomène de "fuite en avant" par lequel, quand on augmente l’efficacité avec laquelle une ressource est employée, la consommation totale de cette ressource a toutes les chances d’augmenter au lieu de diminuer. Or s'il s'avère que le réchauffement climatique (i) est essentiellement d'origine entropique et (ii) nuisible au développement durable, alors la "supériorité" de l'IA est une victoire à la Pyrrhus. Peut-on alors encore parler "d'intelligence supérieure" ?

Il convient en outre d'évaluer correctement l'apport de l'IA en matière de rationalisation énergétique, en intégrant dans les calculs la totalité des coûts directs et indirects, notamment l'énergie consommée pour fabriquer, utiliser et recycler le matériel, dont les processeurs et leur système de refroidissement.

Un processeur, c’est comme une résistance : presque toute l’électricité qu’il consomme est dissipée en chaleur. C’est pourquoi, en plus de consommer de l’énergie pour faire tourner ses serveurs, un data center doit être climatisé afin de préserver l’intégrité des circuits électroniques.

D'après une étude réalisée par Digital Power Group publiée en 2013 [source] les coûts énergétiques du numérique sont largement cachés, la partie connue n’étant que la pointe de l’iceberg. L’économie numérique de la planète consomme déjà 50% d’énergie de plus que l’aviation du monde entier. Les datacenters ne représenteraient que 20% de l’électricité consommée par les appareils et réseaux numériques, les 80% restants étant très dispersés. Selon DPG la demande d’usage des centres de données augmentera plus vite que leurs gains en efficacité énergétique. Ces tendances vont rendre nécessaire l’usage de plus de charbon, estime l’étude, qui est sponsorisée par deux organisations du secteur minier, la National Mining Association et l’American Coalition for Clean Coal Electricity [source].

Si l’on considère la totalité de son cycle de vie, le simple envoi d’un mail d’1 mégaoctet (1 Mo) équivaut à l’utilisation d’une ampoule de 60 watts pendant 25 minutes, soit l’équivalent de 20 grammes de CO2 émis. On ne s'étonnera donc pas de constater que le secteur des nouvelles technologies représente à lui seul entre 6 et 10 % de la consommation mondiale d’électricité, soit près de 4 % de nos émissions de gaz à effet de serre. Environ 30 % de cette consommation électrique est imputable aux équipements terminaux (ordinateurs, téléphones, objets connectés), 30 % aux data centers qui hébergent nos données, et 40 % aux réseaux, les fameuses "autoroutes de l‘information" [source].

Selon certaines estimations, à la fin des année 2020 la consommation d’énergie des appareils informatiques consommera 60 % de la quantité totale d’énergie produite, et deviendra totalement insoutenable d’ici 2040. Une solution consiste peut-être à remplacer les actuels processeurs électroniques (qui utilisent des électrons) par des processeurs optiques (qui utilisent des photons, lesquels ne génèrent pas de chaleur et se propagent plus rapidement) [source].

Enfin la consommation énergétique des nouvelles technologies n’est qu’un aspect du défi environnemental qu’elles posent. Ainsi nos smartphones contiennent des dizaine de différents métaux et terres rares (or, cuivre, nickel, zinc, étain, mais aussi arsenic, gallium, germanium, thallium, tantale, indium, ...) qui sont extraits du sous-sol en utilisant des techniques particulièrement destructives et des produits nocifs pour l’environnement comme l’acide sulfurique, le mercure et le cyanure [source].

Subjectivité et diversité humaine

Pourrions-nous construire une machine capable :

  • de ressentir :
    • des sensations de plaisir et de douleur (avec toutes les subtile intermédiarités, telles que le plaisir de l'effort physique pouvant aller jusqu'à la souffrance) ;
    • des sentiments de joie et de tristesse (avec toutes les subtiles intermédiarités que l'on résume par la notion d'émotions) ;
    • de la jalousie et de la colère par rapport à autrui (que l'on peut regretter lorsqu'elles ont des conséquences nuisibles, mais qui sont parfois à l'origine de brillantes réalisations humaines).
  • de rêver (NB : une activité que nous ne contrôlons pas) ;
  • de faire preuve de sens de l'humour (sous toutes ses formes : pince-sans-rire, absurde, grivois, ...) ;
  • de comprendre les points de vue de deux parties à un conflit, et de prendre des décisions de justice plus efficacement que des humains ? ...

Comment pourrions-nous en outre faire en sorte que les différentes reproductions de cette machine puissent se distinguer les unes des autres (et ainsi reproduire l'infinie diversité des personnalités humaines), tout en étant capables de constituer des groupes partageant des valeurs communes (cultures, ethnies, ...) et par rapport auxquels ces machines éprouveraient un sentiment d'appartenance, ... mais qu'elles pourraient par ailleurs rejeter, par exemple en raison d'un parcours "personnel" devenu incompatible avec celui du groupe ?

Mais quel serait le sens d'une telle démarche "créationniste" ("pour quoi faire"), et quel en serait son coût (*), notamment environnemental ?

(*) À cet égard la bio-ingénieurie permet de ne pas "réinventer la roue" (ou d'inventer la roue vivante ...).

Culture

https://democratiedirecte.net/intelligence-collective#culture

Si l'on définit simplement la culture comme étant « tout stockage d'information » la culture ne serait plus l'apanage des humains. Mais si l'on se situe dans le cadre de notre définition anthropocentrique de l'intelligence, nous devrions définir la culture comme « tout stockage d'information dans le cerveau humain ». D'autre part la culture ne peut être réduite simplement au stockage d'informations : il y a également l'aspect relationnel, qui correspond à des échanges/partages d'informations.

On sait aujourd'hui que le comportement humain n'est que partiellement déterminé par ses gènes. Les interactions entre chaque individu et son environnement sont également déterminantes, et ont même pour effet de modifier la structure du cerveau (cf. par exemple les mécanismes neuronaux de modification plastique expliquant la différence entre mémoire à court et long terme), voire semble-t-il sur les gènes eux-mêmes ! Cela concerne l'ensemble du règne animal, sauf que l'aspect culturel (et donc social) jouerait un rôle bien plus important chez les humains que chez les autres animaux, notamment en raison des capacités humaines particulièrement développées en matière de langage (vocabulaire, syntaxe, grammaire, informatique, Internet, ...).

La dimension culturelle c-à-d sociétale de l'intelligence humaine peut-être analysée au prisme de deux phénomènes que sont la religiosité et l'instinct :

  • religiosité : la croyance en un dieu est très liée aux notions d'éthique et de justice, lesquelles sont typiquement sociales puisqu'elles impliquent les relations entre individus.
  • instinct : nous humains, nous nous considérons plus intelligents que les animaux malgré que – sans enseignement spécifique – nous sommes incapables d'identifier les herbes médicinales, alors que les animaux en sont tous capables instinctivement ; nous humains y arrivons certes par la voie moins intuitive de la science et de l'enseignement, dans laquelle la relation dynamique entre individus et société joue un rôle déterminant.
Différences
culturelles

Depuis le début du siècle, le QI baisse ... en Occident, de sorte qu'aujourd'hui le QI moyen est de seulement 98 en France et aux USA, contre 108 à Hong Kong et Singapour. Une des causes pourrait être la qualité et les budgets de l'enseignement, plus élevés dans les pays asiatiques [source]. Une étude plus récente suggère un éventail plus large de facteurs explicatifs : déclin des valeurs éducationnelles, dégradation des systèmes éducatifs et scolaires, télévision et médias, dégradation de l'éducation au sein des familles, dégradation de la nutrition, dégradation de la santé [source], mais confirme le rôle prépondérant de l'éducation. Ces études sont cependant contestées par d'autres chercheurs selon qui, si l’on prend en compte l’ensemble des données internationales, il n'y aurait pas de baisse mais plutôt stagnation, qui pourrait s'expliquer par l'approche de limites intrinsèques à l’espèce humaine [source].

Intégration : P2P et contrats intelligents

https://democratiedirecte.net/intelligence-collective#integration
Client-serveur
vs
pair à pair

L'intégration des savoirs relève nécessairement d'un processus collectif, car aucun chercheur ne peut connaître et comprendre la totalité des connaissances, même de sa propre branche. Ce processus fonctionne dans le cadre d'un réseau mixte, c-à-d à la fois pair-à-pair et centralisé : des échanges de savoirs sont opérés "individuellement" dans le cadre d'un réseau décentralisé (ou encore "pair à pair"), et d'autre part une intégration des savoirs est opérée "globalement" qui requiert nécessairement une forme ou l'autre de centralisation.

Une application de réseau décentralisé est la technologie de chaîne de blocs ("blockchain"). Ethereum est un protocole de chaîne de bloc conçu pour le développement, la gestion et l'utilisation d'applications décentralisées (dApp, dont des cryptomonnaies) au moyen de contrats intelligents. Se développe ainsi aussi bien une organisation autonome décentralisée (DAO, forme de contrats de long terme qui contiennent des actifs numériques et codent des règlements pour une organisation entière) qu'un ordinateur global sous la forme d'une machine virtuelle.

De nombreuses applications pourraient fonctionner sur un réseau tel que Ethereum : gestion d'identité et de réputation, traçabilité des produits alimentaires, location d’appartements ou de voitures, bornes de ravitaillement électrique, achat de crédit d’énergie, instruments financiers auto-exécutifs, enchères, marchés de prédiction, etc. Les DAO sont notamment supposées réduire les coûts de vérification, d’exécution, d’arbitrage et de fraude [source].

Local
vs
global

La problématique de l'arbitrage entre centralisation et décentralisation est évidemment liée à la relation entre individus et société c-à-d entre niveaux local et global. On notera que les sciences "exactes" sont également confrontée à une problématique d'intégration entre niveaux local et global. Ainsi selon l'état actuel des connaissances en physique quantique, il semble qu'en-dessous d'une taille "charnière" située entre les niveaux moléculaire et atomique (niveau microscopique) les lois naturelles seraient différentes de celles observées au niveau macroscopique [vidéo de vulgarisation - 9m59s].

Indétermination quantique. Cependant cette absence apparente de cohérence entre relativité générale et mécanique quantique ne se manifeste que lorsque l'observateur est (ou s'est mis) dans l'incapacité d'identifier – parmi plusieurs comportements possibles des particules – celui va déclencher la mesure du phénomène observé ... (situation dite d'indétermination quantique) [vidéo de vulgarisation - 19m22s].

Pourtant, le global/macro étant composé du local/micro, on pourrait s'attendre à une cohérence d'intégration entre les deux dimensions ... (PS : ce principe de cohérence vaut aussi bien pour les sciences exactes que pour les sciences humaines).

Émergence

https://democratiedirecte.net/intelligence-collective#emergence

L'émergence est un phénomène selon lequel le tout est plus que la somme de ses parties. Des exemples d’intelligence émergente se trouvent chez les groupes d’animaux sociaux, comme les fourmis ou les abeilles, qui font montre, à l’échelle du groupe, d’une forme d’intelligence qu’on ne trouve pas à l’échelle de chaque animal séparé [source].

Dans le groupe de humains les cas de lynchages collectifs montrent certes que les foules peuvent être cruelles et irrationnelles. Mais le travail de groupe peut participer à rehausser le niveau moyen de capacité de l'ensemble des individus : ainsi par exemple, on chante plus juste à plusieurs de tout seul, car on se corrige en écoutant les autres [source]. Et cela sans aucune forme d'organisation.

L"organisation, l'information et la formation des individus peut évidemment améliorer les performances d'un groupe. Ainsi la délibération est une technique pouvant produire des effets d'émergence. Elle peut opérer comme suit [source] :

  1. répertorier les informations ;
  2. classer les arguments en "bons" et "mauvais" ;
  3. obtenir un consensus (et si celui-ci s'avère impossible il faut alors voter).

Diverses théories pourraient expliquer le phénomène d'émergence [source] :

  • théorème du jury de Condorcet :
    • thèse : plus les membres d'un groupe de votants soumis à la règle de la majorité simple seront nombreux, plus la probabilité de la vérité de la décision sera grande : la limite de cette probabilité sera la certitude (voir aussi théorème central limite) ;
    • hypothèse principale : votes indépendants ;
  • miracle de l'agrégation :
    • thèse : des expérimentations montrent que les réponses moyennes d’un grand nombre de personnes à des questions ayant une solution vérifiable tendent à être remarquablement correctes, car les erreurs des individus étant distribuées de manière symétrique autour de la bonne réponse, elles se compensent au niveau général ;
    • hypothèse principale : distribution aléatoire des erreurs ;
  • diversité cognitive :
    • thèse : (i) L’erreur collective d’un groupe équivaut à l’erreur individuelle moyenne moins la diversité prédictive collective ; autrement dit, lorsqu’il s’agit de faire des prédictions, la différence cognitive entre les votants est tout aussi importante que la compétence individuelle ; (ii) le groupe fait nécessairement de meilleures prédictions que son membre moyen ; en outre, le gain en précision prédictive du groupe par rapport à son membre moyen augmente avec la diversité cognitive du groupe ;
    • hypothèse principale : existence de corrélations négatives entre les modèles prédictifs des individus (sinon l'agrégation les accroît).
Diversité
cognitive

Lu Hong et Scott Page auraient établi (2004) qu’en raison des bénéfices de la diversité cognitive (c’est-à-dire la diversité des intelligences et des perspectives), des groupes non experts mais diversifiés sont souvent meilleurs, dans la résolution de problèmes complexes, que des groupes d’experts [source]. Ainsi selon Hélène Landemore : « il vaut souvent mieux avoir un groupe de personnes cognitivement diverses qu’un groupe de personnes très intelligentes qui pensent de la même manière. En effet, alors que des personnes très intelligentes qui pensent de la même manière vont avoir tendance à s’arrêter rapidement sur la solution qui leur paraît la meilleure sans chercher plus loin, les membres d’un groupe cognitivement plus divers ont la possibilité de se guider les uns les autres dans l’exploration d’autres possibilités : ils ne s’arrêtent pas à la solution commune retenue par ceux qui pensent pareillement et se donnent ainsi une chance de trouver la meilleure solution entre toutes (l’optimum global) » [source].

À cet égard il importe de distinguer :

  • réductionnisme (enseignants et modélisateurs) : qui réduit le complexe au simple;
  • spécialisation (experts) : qui développe une connaissance toujours plus complexe d'un domaine toujours plus réduit.

Dans les deux cas il y a risque de décrochage par rapport au réel, et d'entrée dans le "religieux" (cf. le climato-épidémisme). La diversité cognitive est clairement une voie pour neutraliser ce risque.

Ceci dit, l''émergence ne remet évidemment pas pour autant en question l'utilité des experts, notamment lors de la phase 1 de la délibération (cf. supra).

Prendre en compte l'intelligence collective (juin 2020- 0m52s)

Machines

L'émergence concerne aussi les machines, comme l'illustrent des expériences sur automates cellulaires. Une équipe de chercheur de l'ULB a ainsi montré que des robot peuvent, collectivement, séquencer des actions dont l’ordre d’exécution est à priori inconnu [source].

Démocratie

Il résulte de l'effet d'émergence que la démocratie pourrait s'avérer supérieure à l'oligarchie d'un point de vue épistémique. Mais qu'en est-il du passage de la démocratie représentative à directe ? Pour Landemore « il y a une limite théorique à l’augmentation de l’intelligence collective par l’introduction de toujours plus de points de vue. Dans l’agrégation de jugements, la diversité cognitive n’est pas une fonction linéaire du nombre de jugements agrégés et il y a un retour sur apport qui, au-delà d’un certain seuil, va s’amenuisant. (...) Ce problème de seuil suggère a priori la supériorité épistémique de la démocratie représentative sur la démocratie directe dans les sociétés de masse » [source].

Cette thèse de non linéarité (il y aurait un plafond) reste à prouver. Mais même en supposant sa validité théorique, il est hautement probable qu'en pratique le progrès technologique augmente constamment cette limite de sorte qu'il y a au moins linéarité. Ce progrès technique et technologique est illustré par notre méthodologie de conception et développement d'un système de gouvernance de démocratie directe. Cette méthodologie active les phénomènes d'auto-organisation et d'émergence au moyen de trois principes fondamentaux : les comparaisons croisées, les validations itératives et la redondance initiale. Elle organise le travail collaboratif de plusieurs milliers de personnes, et il n'est pas évident d'identifier une limite théorique ou pratique au nombre maximum de participants ...

Médias vs réseaux sociaux : qui dit la vérité (2016, 1m5s)

Lorsqu'il s'agit de classer les causes de mortalité par ordre d'importance, les réseaux sociaux sont plus proches de la vérité scientifique que les médias "d'information". Est-ce une illustration de l'intelligence collective, ou de la propension des médias au sensationnalisme [exemple] ? L'intelligence collective serait-elle plus performante sans l'influence de la presse ?

Auto-organisation

https://democratiedirecte.net/intelligence-collective#auto-organisation
 1. Modèle de Bak et Stassinopoulos
 2. Physique --> biologie --> sociologie
 3. Imprévisibilité

Modèle de Bak et Stassinopoulos

https://democratiedirecte.net/intelligence-collective#autorganisation-modele-bak-stassinopoulos

Bak et Stassinopoulos ont conçu un modèle de l'apprentissage. Ce modèle repose sur un jeu proposé à un singe : lorsque le voyant est vert il doit appuyer sur la pédale de droite, et quand il est rouge sur la pédale de gauche. À chaque réussite il reçoit une récompense (une cacahuète). Au début la distribution des résultats est aléatoire, mais progressivement elle se rapproche de 100% d'essais réussis : l'apprentissage est alors réalisé. Le graphique suivant permet d'expliquer le mécanisme de cet apprentissage. Chaque essai correspond à un chemin entre la perception de la couleur et l'action qu'elle provoque (ou pas). Les connexions neuronales des chemins correspondant à des essais réussis serait progressivement renforcées (on dit que leur seuil est abaissé) tandis que les chemins correspondant à des essais ratés seraient progressivement inhibée (seuil renforcé) [source].

Cerveau de Bak-Stassinopoulos

Le modèle de cerveau de Bak et Stassinopoulos ci-dessus reçoit de l’information (Q2) de l’environnement sur lequel il agit (W=Q1-Q2) de façon à obtenir de l’énergie (Q1). Ainsi, à l'instar d'une machine thermique, ce modèle repose sur deux entrées et une sortie : l'une des entrées correspond aux calories apportées sous forme de nourriture (et correspond à l'apport de calories de la source chaude de la machine thermique, c-à-d à une entrée d'entropie), tandis que l'autre entrée correspond à un apport d'information (et correspond à la source froide de la machine thermique, c-à-d à une sortie d'entropie).

Lorsqu'un neurone reçoit des signaux d'autres cellules il se charge électroniquement. Lorsque la charge dépasse un certain seuil le neurone est excité et transmet l'information à d'autres neurones. On observe alors des avalanches d'excitations. Les neurones excités (cercles gris) forment des domaines d'Ising d'autant plus étendus que les seuils sont faibles. (c-à-d que "les barrières sont basses"). La probabilité pour qu'un de ces domaines connecte les neurones sensoriels (ligne d'entrée dans le haut du graphique) aux neurones moteurs (ligne de sortie dans le bas du graphique) s'obtient en résolvant un problème mathématique dit de percolation [source p. 89-90].

François Roddier souligne que le modèle de Stassinopoulos et Bak relève de l'auto-organisation, et que celle-ci procède à l’aide d’oscillations de part et d'autre d’un point critique, seuil de percolation. Deux paramètres sont impliqués :

  • l’intensité des connections entre les neurones (l'amplitude des avalanches d'excitations) : par analogie avec les cycles de Carnot elle joue le rôle d’une pression : elle mesure un flux de charge comme la pression mesure un flux de particules qui frappent une paroi ;
  • le seuil à partir duquel l’information est transmise d’un neurone à l’autre : par analogie avec les cycles de Carnot les seuils jouent le rôle d’une température : des seuils bas facilitent leur franchissement (comme le ferait une température élevée) tandis que des seuils élevés empêchent leur franchissement (comme le ferait une température basse).
seuil-intensite.jpg

Le graphique ci-contre expose la dynamique entre seuils et intensités, au regard du cycle diurne du cerveau (cf. supra #intelligence).

Ces deux paramètres oscillent au voisinage d'un point critique de sorte que l'apport énergétique est maximisé (cf. les cacahuètes qui récompensent les essais réussis du singe). Ces oscillations sont très utiles car si trop de neurones moteurs sont excités la valeur des seuils sera augmentée, et inversement (ainsi pour réfléchir le cerveau doit être dans un état entre le sommeil et l'hyperactivité) Les fluctuations aléatoires permettent que le système ne reste pas piégé dans un optimum secondaire (cf. les oscillations de la température dans l'algorithme de recuit simulé, ou encore les équilibres ponctués en biologie) [source p. 89-90].

Roddier souligne que le modèle de Bak et Stassinopoulos permet d'expliquer :

  • pourquoi le cerveau demeure capable de réapprendre même après ablation partielle : le système peut continuer de fonctionner même après suppression d'une partie des colonnes du graphique supra ;
  • pourquoi très souvent au moment du réveil une solution apparaît au problème qui nous accaparait la veille : c'est à ce moment là que le cerveau traverse l'état critique [source p. 89-90].

Le modèle se prête particulièrement bien à la programmation informatique (algorithmes), de sorte que l'apprentissage n'est plus limité aux organismes vivants, on parle alors "d'apprentissage automatique".

Soulignons enfin que si l'intelligence collective peut certes relever de l'auto-organisation, celle-ci n'est pas en soit intelligente, ni ne conduit automatiquement à l'intelligence collective. Un contre-exemple malheureux est illustré par le phénomène du "moulin de fourmis".

Moulin de fourmis (40sec)

Physique --> biologie --> sociologie

https://democratiedirecte.net/intelligence-collective/#autorganisation-physique-biologie-sociologie

Per Bak a montré que l'auto-organisation relève d'un processus qu’il a baptisé "criticalité auto-organisée" par lequel les structures dissipatives s'organisent à la manière des transitions de phase continues, comme le passage de l’état liquide à l’état solide, c-à-d au passage d’un état désordonné (l’état liquide) a un état ordonné (l’état cristallin). Des avalanches de bifurcations produisent des arborescences fractales : amplification des fluctuations --> rupture de symétrie (avec invariance par changement d'échelle) --> apparition et mémorisation d'information.

Les transitions abruptes nécessitent un apport extérieur d’information sous la forme d’un germe. Lors des transitions continues – cas des structures dissipatives – de l’information apparaît progressivement au fur et à mesure que la phase ordonnée se développe. Ces informations se propagent par percolation au sein de domaines d'Ising. Le modèle s'auto-organise de façon à maximiser l'énergie reçue (cf. les cacahuètes récompensant les essais réussis par le singe).

Selon Roddier « le concept de réseau neuronal peut s’appliquer à tout système dissipatif considéré comme un ensemble d’agents échangeant de l’énergie et de l’information. On sait aujourd’hui que ces agents s’auto-organisent pour maximiser la vitesse à laquelle ils dissipent l’énergie (principe d'entropie maximale). C’est apparemment le cas des molécules d’air dans un cyclone, des bactéries dans une colonie, des fourmis dans une fourmilière comme des neurones dans notre cerveau. C’est aussi le cas des sociétés humaines. » [source].

Peut-on leur appliquer à tous le même modèle d’auto-organisation ? La figure supra représente un réseau régulier de neurones mais les simulations faites avec des réseaux quelconques de noeuds reliés par des connexions arbitraires fonctionnent également. Le modèle de Bak et Stassinopoulos permet donc de modéliser la dynamique cognitive d'une population dont chacun des individus peut échanger de l'information avec n'importe quel autre et déclencher une action. On peut alors parler d'intelligence collective ou de "cerveau global" [source].

Selon Roddier, en biologie l'ontogenèse correspondrait à une transitions abruptes, et la phylogenèse à une transition continue. L’information est mémorisée dans les gènes. Les êtres vivants qui partagent les mêmes gènes forment des domaines d’Ising appelés espèces animales ou végétales. Chez l’homme l’information est principalement mémorisée dans son cerveau. Les sociétés humaines mémorisent à leur tour de l’information dans les livres, plus récemment dans les ordinateurs. C’est ce qu’on appelle la "culture". Les individus qui partagent la même culture forment des domaines d’Ising sous la forme de sociétés humaines. Les lois de la thermodynamiques expliquent donc aussi le phénomène sociologique d'auto-organisation [source1, source2].

Exploitation. On notera que l'exploitation des salariés est fondée sur l'appropriation de la plus-value collective – fruit du phénomène d'émergence – alors que les salariés sont payés selon un salaire déterminé.

Le modèle peut également expliquer la dynamique du progrès scientifique : « les sociétés humaines s’auto-organisent en formant un cerveau global capable de mémoriser toujours plus d’information. Cette information leur permet de dissiper de plus en plus d’énergie. C’est ce que nous appelons le progrès scientifique et technique. (...) Un réseau neuronal reçoit de l’information de sa source froide: c’est le cas du cerveau global que forme notre société. (...) La température de cette source froide peut s’exprimer en Euros dépensés par bits d’information mémorisée. Cela soulève le problème du coût de la recherche scientifique. Plus ce coût est important, plus la température de notre source d’information est élevée et plus le rendement de Carnot de notre société est bas. (...) Les sociétés humaines s’effondrent lorsque leur rendement de Carnot est trop bas » [source].

Imprévisibilité

https://democratiedirecte.net/intelligence-collective/#imprevisibilite

Une propriété importante des systèmes auto-organisé est qu'ils sont largement imprévisibles.

Selon François Roddier « un système qui s'auto-organise a une évolution plus ou moins imprévisible. En effet si l'on pouvait parfaitement prévoir son évolution, celle-ci ne nous apporterait aucune information. Notre connaissance du système resterait inchangée. Le fait que son entropie diminue montre que ce n'est pas le cas : notre connaissance du système augmente. Il y a apparition d'informations nouvelles imprévues. Cela explique les difficultés des prévisions météorologiques. Cela explique aussi pourquoi le comportement des êtres vivants est largement imprévisible. L'évolution d'une société humaine l'est aussi. Au contraire l'évolution d'un système isolé est largement prévisible : un mélange d'eau chaude et d'eau froide donne toujours de l'eau tiède [source p. 35] ».

Une question vient alors à l'esprit : le phénomène d'auto-organisation est-il suffisant en soit pour organiser efficacement la société (thèse de l'idéologie anarchiste/libérale) ? La réponse est évidemment négative : la probabilité que des phénomènes naturels auto-organisés correspondent systématiquement aux besoins des humains en tout lieu et à toute époque est quasiment nulle !

La question suivante est alors : comment organiser efficacement et durablement la société humaine globale ? Pour répondre à cette question il convient de comprendre la nature des interactions entre organisation humaine globale et son environnement auto-organisé.

Liberalisme : marchés efficients ?

https://democratiedirecte.net/intelligence-collective#liberalisme-marche-inefficients

Roddier extrapole le modèle de Bak et Stassinopoulos à l'économie en assimilant l'excitation des neurones à la richesse monétaire des individus. Les signaux d'entrée expriment le besoin en produits ou services. La transmission des signaux correspond à des transactions financières. En l'absence de percolation, ces transactions se limitent à des placements financiers. Lorsque le réseau percole, il conduit à une offre commerciale. Dans ce schéma, l'économie financière représente les réflexions du cerveau global. L'économie de production traduit ses actions réelles [source]. Mais qu'en est-il de l'efficience ?

Selon la théorie économique classique l'allocation des ressources entre les agents économiques serait opérée plus efficacement par "les marchés" que par la planification étatique.

Un des fondement des cette école "libérale" est la théorie de la main invisible (sic), proposée par Adam Smith (1723-1790), selon laquelle l'ensemble des actions individuelles des acteurs économiques, guidées uniquement par l'intérêt personnel de chacun, contribueraient à la richesse et au bien commun. Cette théorie de l'auto-organisation suggère donc que la collectivité peut progresser sans intervention d'un pouvoir planificateur.

Une étape supplémentaire (et plus sujette à caution) est ensuite franchie avec la thèse de supériorité des marchés (relativement à la planification) pour maximiser le bien-être collectif tout en préservant la liberté individuelle. En laissant les agents économiques déterminer "librement" quels biens & services produire/consommer et en quelles quantités, et pour autant que la concurrence soient parfaite, ces biens & services seraient alors alloués de façon optimale entre les agents économiques, en ce sens qu'on ne peut plus améliorer la situation de certains agents économiques sans diminuer celle d'autres agents ("optimum" de Pareto).

Mais existe-t-il une preuve qu'en concurrence parfaite (qui n'existe jamais dans la réalité) l'équilibre entre offre et demande globale (dont il n'est pas prouvé qu'il existe) serait un optimum de Pareto ?

Pour tenter de fournir une preuve certains adeptes de l'idéologie des marchés avancent alors la notion d'efficience "informationnelle" (l'efficience parétienne étant "allocative"), imaginée par le prix Nobel Eugène Fama : « un marché dans lequel, à tout moment, les prix "reflètent pleinement" l’information disponible est appelé "efficient" » [source]. Mais que signifient exactement "refléter pleinement l'information disponible", ou encore "information non disponible" ... ? Ces questions ne semblent pas préoccuper les adeptes des marchés financiers. Leur raisonnement est le suivant. Dans la mesure où des études empiriques montrent qu'un gestionnaire de portefeuille ne peut obtenir de façon récurrente des rendements supérieurs à ceux du marché ("battre le marché"), sauf à détenir systématiquement des "informations privilégiées" (à nouveau une notion vague), si l'on suppose que l'efficience informationnelle en est la cause, alors on peut en déduire que celle-ci est bien réelle. Autrement dit, pour qu'elle existe, il faut supposer qu'elle existe ... ce qui est une tautologie ! Mais peu importe, les adeptes des marchés poursuivent leur "raisonnement" : ce serait l'efficience informationnelle qui rendrait possible l'efficience allocative (au sens de Pareto). Ainsi donc il y aurait efficience allocative car il y aurait efficience informationnelle. Soit, mais même en oubliant la tautologie, cela ne démontre pas que l'équilibre supposé est un optimum de Pareto. Et ce n'est pas tout ...

Une série de conditions fortes (entendez "rarement voire jamais vérifiées simultanément") ont été identifiées, sans la vérification desquelles l'allocation des biens & services via le mécanisme des prix de marché ne serait pas efficiente au sens de Pareto. Ces conditions portent sur les marchés (concurrentiels), les prix (flexibles) et les agents économiques (rationnels et intègres) :

  • marchés en concurrence parfaite, c-à-d qu'ils vérifieraient intégralement les six hypothèses suivantes [source] :
    • atomicité : pas de position dominante des agents économiques (ménages, entreprises et État, que ce soit en tant que producteurs ou consommateurs) ; or il existe notamment des cartels voire des monopoles ;

      Cette hypothèse implique que les agents économiques sont tous "price takers".

    • fluidité : pas de barrière à l'entrée/sortie des agents ; or il existe des barrières réglementaires, techniques ou financières ;
    • homogénéité : biens/services substituables ; or il existe des biens/services pour lesquels il n'existe pas de véritable substitut (par exemple les véhicules électriques ne peuvent encore être considérés comme des substituts aux véhicules à essence notamment en raison d'insuffisances techniques) ;

      Cette hypothèse implique que seul le prix détermine le choix d'un vendeur plutôt qu'un autre, et que donc il n'existe pas de marketing (ou qu'il est sans effet).

    • mobilité : facteurs de production mobiles ; or divers phénomènes limitent la mobilité des facteurs de production (notamment le travail en raison de la langue, ou de l'attachement à son milieu social) ;

      Cette hypothèse implique que les coûts de transaction sont négligeables relativement aux prix des biens & services ;

    • transparence : information intégralement disponible pour tous les agents économique, or l'on constate plutôt des asymétries d'information ;
    • commissaire priseur : en concurrence parfaite les agents économiques sont "price takers", ce qui graphiquement se traduit par une courbe de demande horizontale, donc un prix unique ; or pour déterminer ex-ante ce prix unique la théorie classique doit supposer l'existence d'un commissaire priseur c-à-d d'une autorité de planification ; mais alors quel est le sens de l'expression "marché libre", et pourquoi parler de système auto-organisé ?
  • prix flexibles à la baisse comme à la hausse ; or l'on constate des rigidités voire des effets de cliquet ;

  • agents économiques :
    • rationnels ; or l'on constate des comportements irrationnels, même en détention de toute l'information requise et disponible (à noter en outre que par "agents économiques" la théorie économique classique entend non seulement des personnes physiques mais également des personnes morales ...) ;
    • intègres ; or le pouvoir est le champs par excellence de la corruption, du pouvoir politique (corruption passive) par le pouvoir économique (corruption active), mais aussi entre entreprises privées (la corruption passive pouvant notamment être le fait de la personne en charge de la sélection des répondants à un appel d'offre) ; cette hypothèse est ajoutée par nous, nous n'avons à ce jour trouvé aucun manuel la mentionnant ...

L'article Wikipédia anglophone "Perfect competition" identifie quant à lui une dizaine de conditions ...

Mais, et à supposer que ces hypothèses puissent être intégralement vérifiées, est-il vrai que leur vérification implique nécessairement celle du critère Parétien ... ?

Système
complexe

Les théoriciens de l'économie classique ne voient pas de problème fondamental dans le fait que les hypothèses sur lesquelles reposent la notion de marchés parfaits (et donc "efficients" ... au sens de Pareto) ne sont généralement pas, voire jamais vérifiées simultanément. Selon eux l'important est de tendre vers une situation de marchés parfaits, et ainsi l'on tendra vers l'optimum (de Pareto).

Mais le problème est ici que le système économique fondé sur les marchés libres est un système complexe. Or une propriété des systèmes complexes est leur sensibilité aux conditions initiales, de sorte qu'il n'est pas possible de prévoir leur évolution à long terme (cf. théorie du chaos), en l'occurrence vers un supposé "équilibre" entre offre et demande, qui plus est "optimal" (l'optimalité induisant la stabilité de l'équilibre). Autrement dit le réductionnisme de la théorie économique classique (entendez "libérale") n'est peut-être pas applicable au système économique ... libéral.

Mais même en faisant abstraction de la question "réductionnisme vs système complexe", demeure celle de l'optimalité ...

Expression
abusive

Si les hypothèses requises pour l'efficience au sens de Pareto sont vérifiées, alors une politique redistributive est toujours "sous-optimale" (au sens de Pareto). Par conséquent l'efficience parétienne n'est pas souhaitable pour la majorité puisqu'elle est incompatible avec la redistribution des richesses, d'une minorité de plus riches vers une majorité de la population. Par conséquent dire que le critère de Pareto est un critère "d'efficience" est abusif : en réalité il s'agit seulement d'un critère de non-redistribution ! De même parler "d'optimum de Pareto" plutôt que de "limite de Pareto" est également abusif.

Milan Vujisic fait justement remarquer qu'une définition plus précise de l’optimum aurait été de considérer qu’une situation économique est optimale lorsque l’on ne peut pas améliorer la satisfaction d’un individu sans détériorer celle d’au moins un autre individu dans une proportion égale ou supérieure. Cette nouvelle définition réduit énormément le nombre de situations optimales. Mais est-elle applicable si l'utilité est ordinale et non pas cardinale ? [source].

Conclusion

Comment alors expliquer que malgré ses nombreuses et considérables déficiences conceptuelles le modèle d'équilibre général (supposé décrire des marchés supposés "efficients"), fondement de l'idéologie libérale, est enseigné dans les facultés d'économie comme étant la seule théorie économique pertinente à ce jour ? Une explication possible est que pour être reconnu en tant que scientifique il importe de publier un maximum d'articles dans des revues scientifiques de référence. Celles-ci étant quasiment toutes anglo-saxonnes, et surtout états-uniennes, il est quasiment impossible de publier des articles qui ne vont pas dans le sens de l'idéologie "libérale".

Il existe pourtant des voies théoriques alternatives pertinentes (et plus récentes), dont l'éconophysique", selon laquelle l'équilibre en offre et demande serait déterminé par la relation de Gibbs-Duhem.

La croyance dans l'efficience des marchés ne règne pas que dans les facultés. Ainsi cette même croyance a conduit, depuis la fin des années 1980, à substituer à la réglementation des marchés financiers par l'État, celle des banques par elles-mêmes, ce qui a conduit à la crise économique mondiale initiée en 2008 ...

Théorie des jeux

https://democratiedirecte.net/intelligence-collective#theorie-des-jeux
 1. Équilibre non-collaboratif
 2. Jeux répétitifs

Équilibre non-collaboratif

Le dilemme du prisonnier est un fondement de la théorie des jeux. Le tableau suivant montre les règles de ce jeu, l'objectif des joueurs/prisonniers étant de minimiser leur peine, alors qu'ils ne connaissent pas la stratégie adoptée par l'autre, et n'ont pas de moyen d'influencer celui-ci.

PS : on pourrait reformuler le jeu de sorte que l'objectif est de maximiser un gain, cela revient au même.

Les règles sont les suivantes :

  • si les deux accusés se chargent l'un l'autre (trahison), le juge les condamne à 5 ans chacun ;
  • si les deux accusés collaborent pour se couvrir, le juge confronté au doute les condamne chacun à la peine minimale de 1 ans ;
  • si l'un couvre l'autre (COL) mais que celui-ci l'accuse (TRA), le premier est condamné à la peine maximale (10 ans) tandis que le second est libéré.

On peut résumer ces règles sous forme de matrice.

dilemme-prisionnier-2.png

Le tableau suivant est une présentation plus intuitive.

dilemme-prisionnier.png

Lecture ligne 3 : si A trahit et B collabore alors A est libéré tandis que B est condamné à 10 ans de prison (NB : les joueurs ne connaissent pas le choix de l'autre).

La colonne E montre que ce jeu (i) n'est pas à somme nulle (la colonne contient des valeurs non nulles) ; et (ii) est à somme variable (les valeurs de la colonne ne sont pas identiques).

Paradoxe. Ce jeu est conçu de telle sorte que son résultat est paradoxal :

  • chaque peine individuelle minimale correspond à la trahison : ce sont les cases C3 et D4 qui minimisent la peine individuelle de chaque joueur, et elles correspondent à la trahison pour A (C3) comme pour B (D4) ;
  • la peine collective minimale correspond à la collaboration : 2 est le minimum de la colonne E, et il correspond à la collaboration pour A comme pour B.

D'autre part l'incertitude concernant le choix opéré par l'autre joueur (par exemple A) a pour effet (étant donné les valeurs du tableau) que :

  • si A trahit, alors B minimise sa peine en trahissant (5 < 10) ;
  • si A collabore , alors B minimise sa peine en trahissant (0 < 1).

On constate donc que les dans les deux cas (c-à-d quelque soit le choix fait par A) B a intérêt à trahir. Et comme les situations de A et B sont symétriques la même conclusion vaut également pour A. Chacun des deux joueurs devrait donc trahir l'autre (ligne 2). Or dans ce cas la peine obtenue ne correspond ni aux peines minimales individuelles ni à la peine minimale collective, et cela alors que le comportement des joueurs est pourtant supposé rationnel.

La cause de ce paradoxe est double : (i) les règles du présent jeu (qui en l'occurrence sont fondées sur la logique du système judiciaire) sont conçues pour inciter à la trahison ; (ii) l'incertitude quant au choix opéré par l'autre joueur conduit à minimiser le risque d'obtenir la peine maximale (c-à-d à maximiser la probabilité d'obtenir un temps libre maximum).

Stratégie dominante. Dans un jeu dont la stratégie optimale est indépendante de l'anticipation faite par le joueur quant à l'action simultanée/inconnue des autres joueurs (ici, A a intérêt à trahir quelque soit le choix fait par B), la stratégie optimale est dite "dominante".

Interprétations. Le résultat du dilemme du prisonnier requiert deux commentaires importants :

  • L'on pourrait très bien concevoir des jeux dans lesquels les joueurs n'ont pas d'autre choix rationnel que de collaborer (programmation du résultat théorique). On ne peut donc extrapoler le résultat du dilemme du prisonnier à tous les jeux possibles et imaginables, et conclure que le dilemme du prisonnier démontrerait que dans la vie en général les individus n'ont pas intérêt à collaborer ou ne sont pas enclins naturellement à le faire. Comprenons donc bien que le dilemme du prisonnier ne révèle absolument rien sur la nature humaine en général (*), mais par contre il nous en dit sans doute un peu sur ses concepteurs, qui ont préféré illustrer le principe de stratégie dominante par une stratégie non-collaborative plutôt que de collaborative ...

    (*) Néanmoins, les expérimentations de ce jeu permettent d'évaluer la propension d'une population de joueurs à collaborer ou trahir. En l'occurrence une expérience aurait donné 20% de collaborations et 80% de trahisons. Dans une autre expérience la répartition serait plus proche de la parité (question : la plus grande proportion de collaborations s'explique-t-elle par une plus large connaissance du dilemme du prisonnier parmi les joueurs ?).

  • Il faut se garder d'associer systématiquement un caractère positif à la collaboration et négatif à la non collaboration (trahison) : tout est relatif au point de vue (c-à-d au référentiel). Ainsi un cartel peut maximiser ses revenus (au détriment du reste du monde ...) en convenant (i) de quotas de production et (ii) de punitions en cas de dépassement des quotas. Pour neutraliser cette collaboration l'État (ou une autorité internationale) peut par exemple assurer une quasi-immunité au membre du cartel qui révélera l'accord à la justice (trahison) et permettra ainsi de punir les autres membres du cartel [source p. 155].

Utilité/applications de la théorie des jeux :

  • permettre à une organisation d'influencer (programmer ?) le comportement de ses membres (NB : dans l'intérêt de la collectivité ... ou des seuls dirigeants de l'organisation) ;

    Exemples :
    • quelles modifications apporter au mode de fonctionnement d'une organisation pour améliorer l'efficacité de la collaboration entre ses membres ?
    • quels éléments du mode de fonctionnement d'une organisation non démocratique permettent-ils de neutraliser le risque de révolution démocratique ?
  • indiquer aux individus quelle stratégie adopter pour minimiser les risques (maximiser les chances).

Jeux répétitifs

Si le jeu devient répétitif chaque joueur peut alors observer les choix précédents des autres joueurs, et implémenter des stratégies visant à influencer leur comportement. Selon une expérience réalisée en 1979 par Robert Axelrod la stratégie socialement et individuellement optimale dans nos relations avec autrui est la suivante : coopérer à la première partie, puis adopter systématiquement le dernier choix fait par l'autre joueur (coopérer s'il a coopéré, trahir s'il a trahi) [source].

Selon une estimation, dans les jeux répétitifs, le pourcentage de trahisons serait proche de ... 100%, du moins lorsque les joueurs n'ont pas connaissance des conclusions d'Axelrod.

Cette stratégie dite "donnant-donnant" est de type "à mémoire courte" car elle consiste à ne tenir compte que de la dernière action de l'adversaire (coopération ou trahison) en faisant table rase du passé (même si le passé de l'adversaire n'est fait que de trahisons !).

Application. On notera que cette règle relève du bon sens et peut être appliquée aussi bien dans le travail professionnel avec les collègues que dans le travail éducatif avec les enfants (P.S. Appliquer ces conclusions exige donc de vaincre notre rancune tout autant que notre gentillesse. La raison doit l'emporter sur nos états d'âme ...). Au niveau des États, la stratégie "donnant-donnant" peut être appliquée dans la négociations des accords de libre-échange.

Encore mieux. En 2012 des chercheurs ont trouvé un type de stratégies supérieures au donnant-donnant : les stratégies "à déterminant nul". Celles-ci sont cependant éthiquement un peu plus problématiques, et cela pour deux raisons : (i) elles reposent sur un procédé statistique relativement complexe (et avantagent donc les individus capables de les comprendre/appliquer) ; (ii) elles consistent à contraindre la partie adverse. Pour ce deuxième point la problématique éthique est cependant tempérée dans la mesure où (a) il s'agirait d'une contrainte généreuse (résultat gagnant-gagnant) ; (b) dans les grandes populations qui évoluent l'optimum ne serait plus cette contrainte généreuse, mais la coopération [source].

Une excellente vidéo de vulgarisation (14m36s) sur la théorie des jeux.

Classe dirigeante

https://democratiedirecte.net/intelligence-collective#classe-dirigeante-et-auto-organisation

On pourrait considérer qu'une classe dirigeante est une démocratie limitée à ses membres, ou encore que dans une démocratie directe la classe dirigeante serait constituée de l'ensemble de la population (de sorte que la notion de classe ne ferait plus sens). Dans ces phénomènes politiques et économiques la part d'auto-organisation ne doit pas être sous-estimée.

Complots ? Ainsi la réalité opérative de classes dirigeantes peut s'expliquer bien plus simplement comme relevant d'un phénomène d'auto-organisation, plutôt que comme le fruit d'une organisation volontariste. Les intérêts des parties prenantes – plus ou moins bien compris (l'opportunisme de certaines, la naïveté d'autres) – peuvent donner l'illusion d'une organisation concertée, alors même que ces parties ne se connaissent pas nécessairement, voire n'ont pas même conscience de l'intégralité des parties et intérêts en jeu.

Ceci dit, il est flagrant que la conscience de classe est (beaucoup) plus marquée chez les riches que chez les pauvres. Cela est probablement lié au contrôle des moyens de production de masse (MPM), notamment ceux du savoir et de la propagande. Or de la conscience de classe à l'organisation concertée il n'y a qu'un petit pas ...

Si l'auto-organisation peut expliquer l'existence de classes dirigeantes, l'organisation concertée en est une autre cause possible (et complémentaire). L'efficacité de cette organisation volontariste est illustrée par le spectaculaire développement économique de la Chine.

Eric X. Li : L'histoire de deux systèmes politiques (TED 2013, 20m37s)

Les classes dirigeantes nationales sont caractérisées par leur volonté de puissance, laquelle est à l'origine de la plupart des guerres de conquête, et cela d'autant plus qu'il est aisé aux membres de l'establishment d'échapper aux devoirs militaires dangereux. Une illustration de ces faits est la guerre du Vietnam. Quant au principe de Pax Romana il est une illusion locale dans la mesure où les guerres se déroulent en dehors des frontières, puisqu'à l'instar des entreprises privées, tout empire doit s'étendre pour ne pas disparaître.

Citoyenneté et institutions

https://democratiedirecte.net/intelligence-collective#citoyennete-institutions

La citoyenneté numérique est une condition nécessaire des coopératives publiques, elles-mêmes conditions nécessaires de la démocratie directe, elle-même condition nécessaire des États souverains de la Konfédération.

Au moyen de coopératives publiques l'État devrait proposer aux consommateurs citoyens une offre alternative publique, en matière de logiciels libres et de matériels libres.

Au niveau international la Konfédération devrait créer :

  • un organisme chargé de concevoir des normes/standards pour l'intégration de ces matériels et logiciels libres ;
  • des entreprises publiques multinationales concurrentes à Facebook, Google, Amazon, etc.

Malheureusement les traités de l'Union européenne découragent voire empêchent les États membres de créer des entreprises publiques et d'ainsi accroître la concurrence en proposant aux consommateurs une offre publique de biens et services [approfondir].

Google et YouTube

Si vous souhaitez créer votre chaîne de vidéos, Vimeo est une plateforme nettement plus évoluée techniquement que YouTube. Ainsi Vimeo permet au "Vimeaste" de modifier une ancienne vidéo. Sur YouTube cela est impossible : il faut supprimer la vidéo et télécharger sa version mise à jour, laquelle apparaîtra alors en tête de liste sur la chaîne, comme une nouvelle vidéo (donc impossible de conserver le classement chronologique des vidéos ...). Mais voilà, YouTube est ce qu'on appelle un "monopole naturel" : il est impossible de le concurrencer en raison de sa position dominante, même avec un meilleur service (ce qui est le cas de Vimeo). Pour vous en rendre compte voici une recherche comparative sur l'expression exacte "faire un graphique dans libreoffice". Le résultat est sans appel :

  1. YouTube : plus de 25 références directe :
    youtube.com/results?search_query=%22faire+un+graphique+dans+libreoffice%22
  2. Vimeo : une seule référence ... :
    vimeo.com/search?q=%22faire+un+graphique+dans+libreoffice%22

L'explication de cet étrange phénomène est toute simple : YouTube a été racheté par Google en 2006. On ne s'étonnera donc pas de constater que la recherche ci-dessus sur Google ne mentionne que des résultats de Youtube dans les premières pages :
google.com/search?q=%22faire+un+graphique+dans+libreoffice%22&tbm=vid

Mais aussi sur Qwant, le moteur de recherche "français" ... :
qwant.com/?q=%22faire%20un%20graphique%20dans%20libreoffice%22&t=videos.

Alors, votre chaîne vidéo, vous la faites chez YouTube ou chez Vimeo ... ?

La réponse à cette question explique pourquoi YouTube est un "monopole naturel". Or un monopole a pour effet que le rapport qualité/prix du bien/service concerné est inférieur à ce qu'il serait en régime de concurrence.

Une simple réglementation anti-monopolistique par l'État n'est pas une solution crédible, notamment en raison d'une asymétrie d'information entre État et entreprise privée monopolistique. Une solution long terme est que les États (i) interdisent à Google et YouTube l'accès à leur territoire au moyen de frontières numériques, et (ii) créent des entreprises publiques concurrentes pour se substituer à Google et YouTube. Dès aujourd'hui les organisations publiques utilisant YouTube pourraient déjà migrer vers joinpeertube.org, qui est un logiciel libre, sous licence AGPLv3.0, d'hébergement de vidéos, décentralisé grâce à la diffusion en pair à pair, créé en 2015 et soutenu par Framasoft. Il fonctionne sur le principe d'une fédération d'instances hébergées par plusieurs entités différentes. Son objectif est de fournir une solution alternative aux plateformes centralisées telles que YouTube, Vimeo ou Dailymotion (voir aussi fr.wikipedia.org/wiki/PeerTube).

https://democratiedirecte.net//#google-youtube

Conclusion

https://democratiedirecte.net/intelligence-collective#conclusion

Selon nous, il existe une forme d'équilibre optimal entre auto-organisation et organisation volontariste. Les conditions nécessaires de réalisation en seraient les suivantes :

Lecture complémentaire : Épistémologie du savoir libre

COMMENTAIRES

0 commentaires.


Publier un commentaire



democratiedirecte.net
menu.jpg

Une publication de François Jortay

top-of-page.png