Nous traitons ici de l'intelligence collective (IC) au niveau macro-social.
Pour une approche de l'IC au niveau micro-social, voir philosophie.jortay.net/parcours-de-vie#relation-a-autrui
Entre les deux niveaux, il y a le cas de notre méthodologie de conception et implémentation de notre système de DD. Au niveau théorique, son analyse est particulièrement intéressante car elle exploite le phénomène d'auto-organisation (/methodologie). Cette méthodologie joue donc le rôle de structure dissipative, de sorte l'on peut parler "d'organisation de l'auto-organisation" ...
![]() |
![]() |
![]() |
Sur la question "Où se situe le siège de la conscience ?", le consensus de la science moderne est que le corps humain serait le siège de la conscience. Cependant des scientifiques pensent que cette interprétation est incomplète. Ils suggèrent que les consciences individuelles seraient reliées par une conscience collective, de sorte que l'on pourrait considérer que la conscience individuelle dépasse spatialement voire aussi temporellement le corps (cf. notion de "conscience non-localisée" proposée par le cardiologue Pim van Lommel : source ; approfondir : scholar.google.com/scholar?q=nonlocal+consciousness) ?
On notera que les sciences "exactes" sont également confrontée à une problématique d'intégration entre niveaux local et global. Ainsi selon l'état actuel des connaissances en physique quantique, il semble qu'en-dessous d'une taille "charnière" située entre les niveaux moléculaire et atomique (niveau microscopique) les lois naturelles seraient différentes de celles observées au niveau macroscopique [vidéo de vulgarisation - 9m59s].
Indétermination quantique. Cependant cette absence apparente de cohérence entre relativité générale et mécanique quantique ne se manifeste que lorsque l'observateur est (ou s'est mis) dans l'incapacité d'identifier – parmi plusieurs comportements possibles des particules – celui va déclencher la mesure du phénomène observé ... (situation dite d'indétermination quantique) [vidéo de vulgarisation - 19m22s].
Pourtant, le global/macro étant composé du local/micro, on pourrait s'attendre à une cohérence d'intégration entre les deux dimensions ... (PS : ce principe de cohérence vaut aussi bien pour les sciences exactes que pour les sciences humaines).
Enfin, la problématique de l'arbitrage entre centralisation et décentralisation est évidemment liée à la relation entre individus et société c-à-d entre niveaux local et global.L'émergence est un phénomène selon lequel le tout est plus que la somme de ses parties. Des exemples d’intelligence émergente se trouvent chez les groupes d’animaux sociaux, comme les fourmis ou les abeilles, qui font montre, à l’échelle du groupe, d’une forme d’intelligence qu’on ne trouve pas à l’échelle de chaque animal séparé [source].
Dans le groupe des humains, les cas de lynchages collectifs montrent certes que les foules peuvent être cruelles et irrationnelles. Mais le travail de groupe peut participer à rehausser le niveau moyen de capacité de l'ensemble des individus : ainsi par exemple, on chante plus juste à plusieurs que tout seul, car on se corrige en écoutant les autres [source]. Et cela sans aucune forme d'organisation.
L"organisation, l'information et la formation des individus peut évidemment améliorer les performances d'un groupe. Ainsi la délibération est une technique pouvant produire des effets d'émergence. Elle peut opérer comme suit [source] :
Diverses théories pourraient expliquer le phénomène d'émergence [source] :
Lu Hong et Scott Page auraient établi (2004) qu’en raison des bénéfices de la diversité cognitive (c’est-à-dire la diversité des intelligences et des perspectives), des groupes non experts mais diversifiés sont souvent meilleurs, dans la résolution de problèmes complexes, que des groupes d’experts [source]. Ainsi selon Hélène Landemore : « il vaut souvent mieux avoir un groupe de personnes cognitivement diverses qu’un groupe de personnes très intelligentes qui pensent de la même manière. En effet, alors que des personnes très intelligentes qui pensent de la même manière vont avoir tendance à s’arrêter rapidement sur la solution qui leur paraît la meilleure sans chercher plus loin, les membres d’un groupe cognitivement plus divers ont la possibilité de se guider les uns les autres dans l’exploration d’autres possibilités : ils ne s’arrêtent pas à la solution commune retenue par ceux qui pensent pareillement et se donnent ainsi une chance de trouver la meilleure solution entre toutes (l’optimum global) » [source].
À cet égard il importe de distinguer :
Dans les deux cas il y a risque de décrochage par rapport au réel, et d'entrée dans le "religieux" (cf. le climato-épidémisme). La diversité cognitive est clairement une voie pour neutraliser ce risque.
Ceci dit, l''émergence ne remet évidemment pas pour autant en question l'utilité des experts, notamment lors de la phase 1 de la délibération (cf. supra).
Prendre en compte l'intelligence collective (juin 2020- 0m52s)
L'émergence concerne aussi les machines, comme l'illustrent des expériences sur automates cellulaires. Une équipe de chercheur de l'ULB a ainsi montré que des robot peuvent, collectivement, séquencer des actions dont l’ordre d’exécution est à priori inconnu [source].
Il résulte de l'effet d'émergence que la démocratie pourrait s'avérer supérieure à l'oligarchie d'un point de vue épistémique. Mais qu'en est-il du passage de la démocratie représentative à directe ? Pour Landemore « il y a une limite théorique à l’augmentation de l’intelligence collective par l’introduction de toujours plus de points de vue. Dans l’agrégation de jugements, la diversité cognitive n’est pas une fonction linéaire du nombre de jugements agrégés et il y a un retour sur apport qui, au-delà d’un certain seuil, va s’amenuisant. (...) Ce problème de seuil suggère a priori la supériorité épistémique de la démocratie représentative sur la démocratie directe dans les sociétés de masse » [source].
Cette thèse de non linéarité (il y aurait un plafond) reste à prouver. Mais même en supposant sa validité théorique, il est hautement probable qu'en pratique le progrès technologique augmente constamment cette limite de sorte qu'il y a au moins linéarité. Ce progrès technique et technologique est illustré par méthodologie de conception et développement d'un système de gouvernance de démocratie directe (cf. /methodologie). Cette méthodologie active les phénomènes d'auto-organisation et d'émergence au moyen de trois principes fondamentaux : les comparaisons croisées, les validations itératives et la redondance initiale. Elle organise le travail collaboratif de plusieurs milliers de personnes, et il n'est pas évident d'identifier une limite théorique ou pratique au nombre maximum de participants ...
Médias vs réseaux sociaux : qui dit la vérité (2016, 1m5s)
Lorsqu'il s'agit de classer les causes de mortalité par ordre d'importance, les réseaux sociaux sont plus proches de la vérité scientifique que les médias "d'information". Est-ce une illustration de l'intelligence collective, ou de la propension des médias au sensationnalisme [exemple] ? L'intelligence collective serait-elle plus performante sans l'influence de la presse ?
Enfin, soulignons que si l'intelligence collective peut certes relever de l'auto-organisation, celle-ci n'est pas en soit intelligente, ni ne conduit automatiquement à l'intelligence collective. Un contre-exemple malheureux est illustré par le phénomène du "moulin de fourmis".
Moulin de fourmis (40sec)
Bak et Stassinopoulos ont conçu un modèle de l'apprentissage. Ce modèle repose sur un jeu proposé à un singe : lorsque le voyant est vert il doit appuyer sur la pédale de droite, et quand il est rouge sur la pédale de gauche. À chaque réussite il reçoit une récompense (une cacahuète). Au début, la distribution des résultats est aléatoire, mais progressivement elle se rapproche de 100% d'essais réussis : l'apprentissage est alors réalisé. Le graphique suivant permet d'expliquer le mécanisme de cet apprentissage. Chaque essai correspond à un chemin entre la perception de la couleur et l'action qu'elle provoque (ou pas). Les connexions neuronales des chemins correspondant à des essais réussis serait progressivement renforcées (on dit que leur seuil est abaissé) tandis que les chemins correspondant à des essais ratés seraient progressivement inhibée (seuil renforcé) [source].
Le modèle de cerveau de Bak et Stassinopoulos ci-dessus reçoit de l’information (Q2) de l’environnement sur lequel il agit (W=Q1-Q2) de façon à obtenir de l’énergie (Q1). Ainsi, à l'instar d'une machine thermique, ce modèle repose sur deux entrées et une sortie : l'une des entrées correspond aux calories apportées sous forme de nourriture (et correspond à l'apport de calories de la source chaude de la machine thermique, c-à-d à une entrée d'entropie), tandis que l'autre entrée correspond à un apport d'information (et correspond à la source froide de la machine thermique, c-à-d à une sortie d'entropie).
Lorsqu'un neurone reçoit des signaux d'autres cellules il se charge électroniquement. Lorsque la charge dépasse un certain seuil le neurone est excité et transmet l'information à d'autres neurones. On observe alors des avalanches d'excitations. Les neurones excités (cercles gris) forment des domaines d'Ising d'autant plus étendus que les seuils sont faibles. (c-à-d que "les barrières sont basses"). La probabilité pour qu'un de ces domaines connecte les neurones sensoriels (ligne d'entrée dans le haut du graphique) aux neurones moteurs (ligne de sortie dans le bas du graphique) s'obtient en résolvant un problème mathématique dit de percolation [source p. 89-90].
François Roddier souligne que le modèle de Stassinopoulos et Bak relève de l'auto-organisation, et que celle-ci procède à l’aide d’oscillations de part et d'autre d’un point critique, seuil de percolation. Deux paramètres sont impliqués :
Le graphique ci-contre expose la dynamique entre seuils et intensités, au regard du cycle diurne du cerveau (cf. philosophie.jortay.net/intelligence-individuelle#fonctionnement).
Ces deux paramètres oscillent au voisinage d'un point critique de sorte que l'apport énergétique est maximisé (cf. les cacahuètes qui récompensent les essais réussis du singe). Ces oscillations sont très utiles car si trop de neurones moteurs sont excités la valeur des seuils sera augmentée, et inversement (ainsi pour réfléchir le cerveau doit être dans un état entre le sommeil et l'hyperactivité) Les fluctuations aléatoires permettent que le système ne reste pas piégé dans un optimum secondaire (cf. les oscillations de la température dans l'algorithme de recuit simulé, ou encore les équilibres ponctués en biologie) [source p. 89-90].
Roddier souligne que le modèle de Bak et Stassinopoulos permet d'expliquer :
Per Bak a montré que l'auto-organisation relève d'un processus qu’il a baptisé "criticalité auto-organisée" par lequel les structures dissipatives s'organisent à la manière des transitions de phase continues, comme le passage de l’état liquide à l’état solide, c-à-d au passage d’un état désordonné (l’état liquide) a un état ordonné (l’état cristallin). Des avalanches de bifurcations produisent des arborescences fractales : amplification des fluctuations --> rupture de symétrie (avec invariance par changement d'échelle) --> apparition et mémorisation d'information.
Les transitions abruptes nécessitent un apport extérieur d’information sous la forme d’un germe. Lors des transitions continues – cas des structures dissipatives – de l’information apparaît progressivement au fur et à mesure que la phase ordonnée se développe. Ces informations se propagent par percolation au sein de domaines d'Ising. Le modèle s'auto-organise de façon à maximiser l'énergie reçue (cf. les cacahuètes récompensant les essais réussis par le singe).
Selon Roddier « le concept de réseau neuronal peut s’appliquer à tout système dissipatif considéré comme un ensemble d’agents échangeant de l’énergie et de l’information. On sait aujourd’hui que ces agents s’auto-organisent pour maximiser la vitesse à laquelle ils dissipent l’énergie (principe d'entropie maximale). C’est apparemment le cas des molécules d’air dans un cyclone, des bactéries dans une colonie, des fourmis dans une fourmilière comme des neurones dans notre cerveau. C’est aussi le cas des sociétés humaines. » [source].
Peut-on leur appliquer à tous le même modèle d’auto-organisation ? Le schéma supra du modèle de Bak et Stassinopoulos représente un réseau régulier de neurones, mais les simulations faites avec des réseaux quelconques de noeuds reliés par des connexions arbitraires fonctionnent également. Le modèle de Bak et Stassinopoulos permet donc de modéliser la dynamique cognitive d'une population dont chacun des individus peut échanger de l'information avec n'importe quel autre et déclencher une action. On peut alors parler d'intelligence collective ou de "cerveau global" [source].
Selon Roddier, en biologie l'ontogenèse correspondrait à une transitions abruptes, et la phylogenèse à une transition continue. L’information est mémorisée dans les gènes. Les êtres vivants qui partagent les mêmes gènes forment des domaines d’Ising appelés espèces animales ou végétales. Chez l’homme l’information est principalement mémorisée dans son cerveau. Les sociétés humaines mémorisent à leur tour de l’information dans les livres, plus récemment dans les ordinateurs. C’est ce qu’on appelle la "culture". Les individus qui partagent la même culture forment des domaines d’Ising sous la forme de sociétés humaines. Les lois de la thermodynamiques expliquent donc aussi le phénomène sociologique d'auto-organisation [source1, source2].
Exploitation. On notera que l'exploitation des salariés est fondée sur l'appropriation de la plus-value collective – fruit du phénomène d'émergence – alors que les salariés sont payés selon un salaire déterminé.
Le modèle peut également expliquer la dynamique du progrès scientifique : « les sociétés humaines s’auto-organisent en formant un cerveau global capable de mémoriser toujours plus d’information. Cette information leur permet de dissiper de plus en plus d’énergie. C’est ce que nous appelons le progrès scientifique et technique. (...) Un réseau neuronal reçoit de l’information de sa source froide: c’est le cas du cerveau global que forme notre société. (...) La température de cette source froide peut s’exprimer en euros dépensés par bits d’information mémorisée. Cela soulève le problème du coût de la recherche scientifique. Plus ce coût est important, plus la température de notre source d’information est élevée et plus le rendement de Carnot de notre société est bas. (...) Les sociétés humaines s’effondrent lorsque leur rendement de Carnot est trop bas » [source].
Une propriété importante des systèmes auto-organisé est qu'ils sont largement imprévisibles.
Selon François Roddier « un système qui s'auto-organise a une évolution plus ou moins imprévisible. En effet si l'on pouvait parfaitement prévoir son évolution, celle-ci ne nous apporterait aucune information. Notre connaissance du système resterait inchangée. Le fait que son entropie diminue montre que ce n'est pas le cas : notre connaissance du système augmente. Il y a apparition d'informations nouvelles imprévues. Cela explique les difficultés des prévisions météorologiques. Cela explique aussi pourquoi le comportement des êtres vivants est largement imprévisible. L'évolution d'une société humaine l'est aussi. Au contraire l'évolution d'un système isolé est largement prévisible : un mélange d'eau chaude et d'eau froide donne toujours de l'eau tiède [source p. 35] ».
Une question vient alors à l'esprit : le phénomène d'auto-organisation est-il suffisant en soit pour organiser efficacement la société (thèse de l'idéologie anarchiste/libérale) ? La réponse est évidemment négative : la probabilité que des phénomènes naturels auto-organisés correspondent systématiquement aux besoins des humains en tout lieu et à toute époque est quasiment nulle !
La question suivante est alors : comment organiser efficacement et durablement la société humaine globale ? Pour répondre à cette question il convient de comprendre la nature des interactions entre organisation humaine globale et son environnement auto-organisé.
Le dilemme du prisonnier est un fondement de la théorie des jeux. Le tableau suivant montre les règles de ce jeu, l'objectif des joueurs/prisonniers étant de minimiser leur peine, alors qu'ils ne connaissent pas la stratégie adoptée par l'autre, et n'ont pas de moyen d'influencer celui-ci.
PS : on pourrait reformuler le jeu de sorte que l'objectif est de maximiser un gain, cela revient au même.
Les règles sont les suivantes :
On peut résumer ces règles sous forme de matrice.
Le tableau suivant est une présentation plus intuitive.
Lecture ligne 3 : si A trahit et B collabore alors A est libéré tandis que B est condamné à 10 ans de prison (NB : les joueurs ne connaissent pas le choix de l'autre).
La colonne E montre que ce jeu (i) n'est pas à somme nulle (la colonne contient des valeurs non nulles) ; et (ii) est à somme variable (les valeurs de la colonne ne sont pas identiques).
Paradoxe. Ce jeu est conçu de telle sorte que son résultat est paradoxal :
D'autre part l'incertitude concernant le choix opéré par l'autre joueur (par exemple A) a pour effet (étant donné les valeurs du tableau) que :
On constate donc que les dans les deux cas (c-à-d quelque soit le choix fait par A) B a intérêt à trahir. Et comme les situations de A et B sont symétriques la même conclusion vaut également pour A. Chacun des deux joueurs devrait donc trahir l'autre (ligne 2). Or dans ce cas la peine obtenue ne correspond ni aux peines minimales individuelles ni à la peine minimale collective, et cela alors que le comportement des joueurs est pourtant supposé rationnel.
La cause de ce paradoxe est double : (i) les règles du présent jeu (qui en l'occurrence sont fondées sur la logique du système judiciaire) sont conçues pour inciter à la trahison ; (ii) l'incertitude quant au choix opéré par l'autre joueur conduit à minimiser le risque d'obtenir la peine maximale (c-à-d à maximiser la probabilité d'obtenir un temps libre maximum).
Stratégie dominante. Dans un jeu dont la stratégie optimale est indépendante de l'anticipation faite par le joueur quant à l'action simultanée/inconnue des autres joueurs (ici, A a intérêt à trahir quelque soit le choix fait par B), la stratégie optimale est dite "dominante".
Interprétations. Le résultat du dilemme du prisonnier requiert deux commentaires importants :
L'on pourrait très bien concevoir des jeux dans lesquels les joueurs n'ont pas d'autre choix rationnel que de collaborer (programmation du résultat théorique). On ne peut donc extrapoler le résultat du dilemme du prisonnier à tous les jeux possibles et imaginables, et conclure que le dilemme du prisonnier démontrerait que dans la vie en général les individus n'ont pas intérêt à collaborer ou ne sont pas enclins naturellement à le faire. Comprenons donc bien que le dilemme du prisonnier ne révèle absolument rien sur la nature humaine en général (*), mais par contre il nous en dit sans doute un peu sur ses concepteurs, qui ont préféré illustrer le principe de stratégie dominante par une stratégie non-collaborative plutôt que de collaborative ...
(*) Néanmoins, les expérimentations de ce jeu permettent d'évaluer la propension d'une population de joueurs à collaborer ou trahir. En l'occurrence une expérience aurait donné 20% de collaborations et 80% de trahisons. Dans une autre expérience la répartition serait plus proche de la parité (question : la plus grande proportion de collaborations s'explique-t-elle par une plus large connaissance du dilemme du prisonnier parmi les joueurs ?).
Il faut se garder d'associer systématiquement un caractère positif à la collaboration et négatif à la non collaboration (trahison) : tout est relatif au point de vue (c-à-d au référentiel). Ainsi un cartel peut maximiser ses revenus (au détriment du reste du monde ...) en convenant (i) de quotas de production et (ii) de punitions en cas de dépassement des quotas. Pour neutraliser cette collaboration l'État (ou une autorité internationale) peut par exemple assurer une quasi-immunité au membre du cartel qui révélera l'accord à la justice (trahison) et permettra ainsi de punir les autres membres du cartel [source p. 155].
Utilité/applications de la théorie des jeux :
permettre à une organisation d'influencer (programmer ?) le comportement de ses membres (NB : dans l'intérêt de la collectivité ... ou des seuls dirigeants de l'organisation) ;
Si le jeu devient répétitif chaque joueur peut alors observer les choix précédents des autres joueurs, et implémenter des stratégies visant à influencer leur comportement. Selon une expérience réalisée en 1979 par Robert Axelrod la stratégie socialement et individuellement optimale dans nos relations avec autrui est la suivante : coopérer à la première partie, puis adopter systématiquement le dernier choix fait par l'autre joueur (coopérer s'il a coopéré, trahir s'il a trahi) [source].
Selon une estimation, dans les jeux répétitifs, le pourcentage de trahisons serait proche de ... 100%, du moins lorsque les joueurs n'ont pas connaissance des conclusions d'Axelrod.
Cette stratégie dite "donnant-donnant" est de type "à mémoire courte" car elle consiste à ne tenir compte que de la dernière action de l'adversaire (coopération ou trahison) en faisant table rase du passé (même si le passé de l'adversaire n'est fait que de trahisons !).
Application. On notera que cette règle relève du bon sens et peut être appliquée aussi bien dans le travail professionnel avec les collègues que dans le travail éducatif avec les enfants (P.S. Appliquer ces conclusions exige donc de vaincre notre rancune tout autant que notre gentillesse. La raison doit l'emporter sur nos états d'âme ...). Au niveau des États, la stratégie "donnant-donnant" peut être appliquée dans la négociations des accords de libre-échange.
Encore mieux. En 2012 des chercheurs ont trouvé un type de stratégies supérieures au donnant-donnant : les stratégies "à déterminant nul". Celles-ci sont cependant éthiquement un peu plus problématiques, et cela pour deux raisons : (i) elles reposent sur un procédé statistique relativement complexe (et avantagent donc les individus capables de les comprendre/appliquer) ; (ii) elles consistent à contraindre la partie adverse. Pour ce deuxième point la problématique éthique est cependant tempérée dans la mesure où (a) il s'agirait d'une contrainte généreuse (résultat gagnant-gagnant) ; (b) dans les grandes populations qui évoluent, l'optimum ne serait plus cette contrainte généreuse, mais la coopération [source].
Une excellente vidéo de vulgarisation (14m36s) sur la théorie des jeux.
L'intégration des savoirs relève nécessairement d'un processus collectif, car aucun chercheur ne peut connaître et comprendre la totalité des connaissances, même de sa propre branche. Ce processus fonctionne dans le cadre d'un réseau mixte, c-à-d à la fois pair-à-pair et centralisé : des échanges de savoirs sont opérés "individuellement" dans le cadre d'un réseau décentralisé (ou encore "pair à pair"), et d'autre part une intégration des savoirs est opérée "globalement" qui requiert nécessairement une forme ou l'autre de centralisation.
Une application de réseau décentralisé est la technologie de chaîne de blocs ("blockchain"). Ethereum est un protocole de chaîne de bloc conçu pour le développement, la gestion et l'utilisation d'applications décentralisées (dApp, dont des cryptomonnaies) au moyen de contrats intelligents. Se développe ainsi aussi bien une organisation autonome décentralisée (DAO, forme de contrats de long terme qui contiennent des actifs numériques et codent des règlements pour une organisation entière) qu'un ordinateur global sous la forme d'une machine virtuelle.
De nombreuses applications pourraient fonctionner sur un réseau tel que Ethereum : gestion d'identité et de réputation, traçabilité des produits alimentaires, location d’appartements ou de voitures, bornes de ravitaillement électrique, achat de crédit d’énergie, instruments financiers auto-exécutifs, enchères, marchés de prédiction, etc. Les DAO sont notamment supposées réduire les coûts de vérification, d’exécution, d’arbitrage et de fraude [source].
Roddier extrapole le modèle de Bak et Stassinopoulos à l'économie en assimilant l'excitation des neurones à la richesse monétaire des individus. Les signaux d'entrée expriment le besoin en produits ou services. La transmission des signaux correspond à des transactions financières. En l'absence de percolation, ces transactions se limitent à des placements financiers. Lorsque le réseau percole, il conduit à une offre commerciale. Dans ce schéma, l'économie financière représente les réflexions du cerveau global. L'économie de production traduit ses actions réelles [source]. Mais qu'en est-il de l'efficience ?
Selon la théorie économique classique l'allocation des ressources entre les agents économiques serait opérée plus efficacement par "les marchés" que par la planification étatique.
Un des fondement des cette école "libérale" est la théorie de la main invisible (sic), proposée par Adam Smith (1723-1790), selon laquelle l'ensemble des actions individuelles des acteurs économiques, guidées uniquement par l'intérêt personnel de chacun, contribueraient à la richesse et au bien commun. Cette théorie de l'auto-organisation suggère donc que la collectivité peut progresser sans intervention d'un pouvoir planificateur.
Une étape supplémentaire (et plus sujette à caution) est ensuite franchie avec la thèse de supériorité des marchés (relativement à la planification) pour maximiser le bien-être collectif tout en préservant la liberté individuelle. En laissant les agents économiques déterminer "librement" quels biens & services produire/consommer et en quelles quantités, et pour autant que la concurrence soient parfaite, ces biens & services seraient alors alloués de façon optimale entre les agents économiques, en ce sens qu'on ne peut plus améliorer la situation de certains agents économiques sans diminuer celle d'autres agents ("optimum" de Pareto).
Mais existe-t-il une preuve qu'en concurrence parfaite (qui n'existe jamais dans la réalité) l'équilibre entre offre et demande globale (dont il n'est pas prouvé qu'il existe) serait un optimum de Pareto ?
Pour tenter de fournir une preuve certains adeptes de l'idéologie des marchés avancent alors la notion d'efficience "informationnelle" (l'efficience parétienne étant "allocative"), imaginée par le prix Nobel Eugène Fama : « un marché dans lequel, à tout moment, les prix "reflètent pleinement" l’information disponible est appelé "efficient" » [source]. Mais que signifient exactement "refléter pleinement l'information disponible", ou encore "information non disponible" ... ? Ces questions ne semblent pas préoccuper les adeptes des marchés financiers. Leur raisonnement est le suivant. Dans la mesure où des études empiriques montrent qu'un gestionnaire de portefeuille ne peut obtenir de façon récurrente des rendements supérieurs à ceux du marché ("battre le marché"), sauf à détenir systématiquement des "informations privilégiées" (à nouveau une notion vague), si l'on suppose que l'efficience informationnelle en est la cause, alors on peut en déduire que celle-ci est bien réelle. Autrement dit, pour qu'elle existe, il faut supposer qu'elle existe ... ce qui est une tautologie (ou encore raisonnement circulaire) ! Mais peu importe, les adeptes des marchés poursuivent leur "raisonnement" : ce serait l'efficience informationnelle qui rendrait possible l'efficience allocative (au sens de Pareto). Ainsi donc il y aurait efficience allocative car il y aurait efficience informationnelle. Soit, mais même en oubliant la tautologie, cela ne démontre pas que l'équilibre supposé est un optimum de Pareto. Et ce n'est pas tout ...
Une série de conditions fortes (entendez "rarement voire jamais vérifiées simultanément") ont été identifiées, sans la vérification desquelles l'allocation des biens & services via le mécanisme des prix de marché ne serait pas efficiente au sens de Pareto. Ces conditions portent sur les marchés (concurrentiels), les prix (flexibles) et les agents économiques (rationnels et intègres) :
Cette hypothèse implique que les agents économiques sont tous "price takers".
Cette hypothèse implique que seul le prix détermine le choix d'un vendeur plutôt qu'un autre, et que donc il n'existe pas de marketing (ou qu'il est sans effet).
Cette hypothèse implique que les coûts de transaction sont négligeables relativement aux prix des biens & services ;
prix flexibles à la baisse comme à la hausse ; or l'on constate des rigidités voire des effets de cliquet ;
L'article Wikipédia anglophone "Perfect competition" identifie quant à lui une dizaine de conditions ...
Mais, et à supposer que ces hypothèses puissent être intégralement vérifiées, est-il vrai que leur vérification implique nécessairement celle du critère Parétien ... ?
Les théoriciens de l'économie classique ne voient pas de problème fondamental dans le fait que les hypothèses sur lesquelles reposent la notion de marchés parfaits (et donc "efficients" ... au sens de Pareto) ne sont généralement pas, voire jamais vérifiées simultanément. Selon eux l'important est de tendre vers une situation de marchés parfaits, et ainsi l'on tendra vers l'optimum (de Pareto).
Mais le problème est ici que le système économique fondé sur les marchés libres est un système complexe. Or une propriété des systèmes complexes est leur sensibilité aux conditions initiales, de sorte qu'il n'est pas possible de prévoir leur évolution à long terme (cf. théorie du chaos), en l'occurrence vers un supposé "équilibre" entre offre et demande, qui plus est "optimal" (l'optimalité induisant la stabilité de l'équilibre). Autrement dit le réductionnisme de la théorie économique classique (entendez "libérale") n'est peut-être pas applicable au système économique ... libéral.
Mais même en faisant abstraction de la question "réductionnisme vs système complexe", demeure celle de l'optimalité ...
Si les hypothèses requises pour l'efficience au sens de Pareto sont vérifiées, alors une politique redistributive est toujours "sous-optimale" (au sens de Pareto). Par conséquent l'efficience parétienne n'est pas souhaitable pour la majorité puisqu'elle est incompatible avec la redistribution des richesses, d'une minorité de plus riches vers une majorité de la population. Par conséquent dire que le critère de Pareto est un critère "d'efficience" est abusif : en réalité il s'agit seulement d'un critère de non-redistribution ! De même parler "d'optimum de Pareto" plutôt que de "limite de Pareto" est également abusif.
Milan Vujisic fait justement remarquer qu'une définition plus précise de l’optimum aurait été de considérer qu’une situation économique est optimale lorsque l’on ne peut pas améliorer la satisfaction d’un individu sans détériorer celle d’au moins un autre individu dans une proportion égale ou supérieure. Cette nouvelle définition réduit énormément le nombre de situations optimales. Mais est-elle applicable si l'utilité est ordinale et non pas cardinale ? [source].
Comment alors expliquer que malgré ses nombreuses et considérables déficiences conceptuelles le modèle d'équilibre général (supposé décrire des marchés supposés "efficients"), fondement de l'idéologie libérale, est enseigné dans les facultés d'économie comme étant la seule théorie économique pertinente à ce jour ? Une explication possible est que pour être reconnu en tant que scientifique il importe de publier un maximum d'articles dans des revues scientifiques de référence. Celles-ci étant quasiment toutes anglo-saxonnes, et surtout états-uniennes, il est quasiment impossible de publier des articles qui ne vont pas dans le sens de l'idéologie "libérale".
Il existe pourtant des voies théoriques alternatives pertinentes (et plus récentes), dont l'éconophysique", selon laquelle l'équilibre en offre et demande serait déterminé par la relation de Gibbs-Duhem.
La croyance dans l'efficience des marchés ne règne pas que dans les facultés. Ainsi cette même croyance a conduit, depuis la fin des années 1980, à substituer à la réglementation des marchés financiers par l'État, celle des banques par elles-mêmes, ce qui a conduit à la crise économique mondiale initiée en 2008 ...
On pourrait considérer qu'une classe dirigeante est une démocratie limitée à ses membres, ou encore que dans une démocratie directe la classe dirigeante serait constituée de l'ensemble de la population (de sorte que la notion de classe ne ferait plus sens). Dans ces phénomènes politiques et économiques la part d'auto-organisation ne doit pas être sous-estimée.
Complots ? Ainsi la réalité opérative de classes dirigeantes peut s'expliquer bien plus simplement comme relevant d'un phénomène d'auto-organisation, plutôt que comme le fruit d'une organisation volontariste. Les intérêts des parties prenantes – plus ou moins bien compris (l'opportunisme de certaines, la naïveté d'autres) – peuvent donner l'illusion d'une organisation concertée, alors même que ces parties ne se connaissent pas nécessairement, voire n'ont pas même conscience de l'intégralité des parties et intérêts en jeu.
Ceci dit, il est flagrant que la conscience de classe est (beaucoup) plus marquée chez les riches que chez les pauvres. Cela est probablement lié au contrôle des moyens de production de masse (MPM), notamment ceux du savoir et de la propagande. Or de la conscience de classe à l'organisation concertée il n'y a qu'un petit pas ...
Si l'auto-organisation peut expliquer l'existence de classes dirigeantes, l'organisation concertée en est une autre cause possible (et complémentaire). L'efficacité de cette organisation volontariste est illustrée par le spectaculaire développement économique de la Chine.
Eric X. Li : L'histoire de deux systèmes politiques (TED 2013, 20m37s)
Les classes dirigeantes nationales sont caractérisées par leur volonté de puissance, laquelle est à l'origine de la plupart des guerres de conquête, et cela d'autant plus qu'il est aisé aux membres de l'establishment d'échapper aux devoirs militaires dangereux. Une illustration de ces faits est la guerre du Vietnam. Quant au principe de Pax Romana il est une illusion locale dans la mesure où les guerres se déroulent en dehors des frontières, puisqu'à l'instar des entreprises privées, tout empire doit s'étendre pour ne pas disparaître.
Il semble que le débat social fonctionne largement sur le mode émotionnel. Ainsi en politique et en économie, que l'on cherche à "gauche" ou à "droite", il devient de plus en plus difficile de trouver des discours qui n'exploitent pas le registre de l'émotionnel. C'est notamment le cas des débats sur le climat, l'immigration, le libre-échange ou encore l'Union européenne, où stigmatisation et moralisme confrontent leurs simplismes respectifs. Mais c'est notamment au travers de ce débat que l'intelligence collective peut opérer, pour autant que la liberté d'expression soit préservée.
La liberté d'expression n'est pas fondée que sur des considérations morales, mais aussi, et peut-être surtout, pragmatiques. Ainsi l'information libre est une condition nécessaire pour analyser correctement, et gérer efficacement, n'importe quelle situation. Un contre-exemple est le covidisme : la liberté d'expression fut remplacée par la propagande et l'intimidation des discours contredisant la version officielle. Il en a résulté quinze millions de morts (approfondir : konfedera.org/gestion-epidemies).
Cela illustre le fait que la dimension collective induit des considérations politiques. En particulier, le contrôle démocratique d'Internet, élément majeur des moyens de production de l'intelligence collective.
La citoyenneté numérique est une condition nécessaire des coopératives publiques, elles-mêmes conditions nécessaires de la démocratie directe, elle-même condition nécessaire des États souverains de la Konfédération.
Au moyen de coopératives publiques l'État devrait proposer aux consommateurs citoyens une offre alternative publique, en matière de logiciels libres et de matériels libres.
Au niveau international la Konfédération devrait créer :
Malheureusement les traités de l'Union européenne découragent voire empêchent les États membres de créer des entreprises publiques et d'ainsi accroître la concurrence en proposant aux consommateurs une offre publique de biens et services [approfondir].
Google et YouTube
Si vous souhaitez créer votre chaîne de vidéos, Vimeo est une plateforme nettement plus évoluée techniquement que YouTube. Ainsi Vimeo permet au "Vimeaste" de modifier une ancienne vidéo. Sur YouTube cela est impossible : il faut supprimer la vidéo et télécharger sa version mise à jour, laquelle apparaîtra alors en tête de liste sur la chaîne, comme une nouvelle vidéo (donc impossible de conserver le classement chronologique des vidéos ...). Mais voilà, YouTube est ce qu'on appelle un "monopole naturel" : il est impossible de le concurrencer en raison de sa position dominante, même avec un meilleur service (ce qui est le cas de Vimeo). Pour vous en rendre compte voici une recherche comparative sur l'expression exacte "faire un graphique dans libreoffice". Le résultat est sans appel :
L'explication de cet étrange phénomène est toute simple : YouTube a été racheté par Google en 2006. On ne s'étonnera donc pas de constater que la recherche ci-dessus sur Google ne mentionne que des résultats de Youtube dans les premières pages :
google.com/search?q=%22faire+un+graphique+dans+libreoffice%22&tbm=vid
Mais aussi sur Qwant, le moteur de recherche "français" ... :
qwant.com/?q=%22faire%20un%20graphique%20dans%20libreoffice%22&t=videos.
Alors, votre chaîne vidéo, vous la faites chez YouTube ou chez Vimeo ... ?
La réponse à cette question explique pourquoi YouTube est un "monopole naturel". Or un monopole a pour effet que le rapport qualité/prix du bien/service concerné est inférieur à ce qu'il serait en régime de concurrence.
Une simple réglementation anti-monopolistique par l'État n'est pas une solution crédible, notamment en raison d'une asymétrie d'information entre État et entreprise privée monopolistique. Une solution long terme est que les États (i) interdisent à Google et YouTube l'accès à leur territoire au moyen de frontières numériques, et (ii) créent des entreprises publiques concurrentes pour se substituer à Google et YouTube. Dès aujourd'hui les organisations publiques utilisant YouTube pourraient déjà migrer vers joinpeertube.org, qui est un logiciel libre, sous licence AGPLv3.0, d'hébergement de vidéos, décentralisé grâce à la diffusion en pair à pair, créé en 2015 et soutenu par Framasoft. Il fonctionne sur le principe d'une fédération d'instances hébergées par plusieurs entités différentes. Son objectif est de fournir une solution alternative aux plateformes centralisées telles que YouTube, Vimeo ou Dailymotion (voir aussi fr.wikipedia.org/wiki/PeerTube).
Selon nous, il existe une forme d'équilibre optimal entre auto-organisation et organisation volontariste. Les conditions nécessaires de réalisation en seraient les suivantes :
Articles complémentaires :
Auteur : F. Jortay | Contact : | Suivre : infolettre