Intelligence collective

email Facebook Twitter
Màj : 6 nov. 2019 – # pages A4 : 33

Sciences et savoir

https://democratiedirecte.net/intelligence-collective/#sciences

Arbre des sciences

https://democratiedirecte.net/intelligence-collective/#arbre-des-sciences
Homme-Dieu

Selon le point de vue proposé ici la philosophie serait le fondement des sciences parce que le référentiel est l'être pensant, et en particulier l'être humain dans la mesure où celui-ci est considéré comme étant d'une nature particulière voire supérieure.

Pour formaliser et communiquer ses réflexions l'être humain a conçu des langages, dont l'art et les mathématiques. Progressivement il a développé les sciences, pour comprendre la nature et agir sur elle à son profit.

Le tableau suivant propose une structuration logique des sciences dans laquelle les langages exercent une fonction d'intermédiation entre la pensée philosophique (le pourquoi) et la compréhension rationnelle (le comment).

Mathématiques

https://democratiedirecte.net/intelligence-collective/#mathematiques

On peut voir le langage mathématique comme un lien entre le "pourquoi" (l'esprit ?) et le "comment" (la matière ?).

Les mathématiques traitent des formes, des nombres et des relations. Des outils majeurs en sont le calcul différentiel & intégral (*) et – particulièrement depuis l'avènement de la mécanique quantique au début du 20° siècle – le calcul probabiliste.

(*) À noter que les phénomènes naturels sont généralement continus tandis que les machines électroniques ne peuvent traiter que des données discrètes.

Objets et méthodes des mathématiques
ObjetsMéthodes

On notera que :

  • la géométrie se situe à la frontière entre le concret du monde physique et l'abstraction des nombres ;
  • dans la mesure où l'informatique matérialise la fusion entre le concret physique et l'abstrait informationnel, entre l'objet et le sens, cette technique tend peut-être à dissiper la frontière entre non-vivant et vivant (cf. le computationnalisme puis le transhumanisme).

Méthode scientifique

https://democratiedirecte.net/intelligence-collective/#methode-scientifique

Le développement d'une science est le résultat d'un cycle rétroactif composé de quatre phases : observation --> théorisation --> prédiction --> expérimentation --> observation --> ...

Cette méthode repose sur une hypothèse forte : dans chacune de ces phases le scientifique serait en mesure – pour autant qu'il respecte certains principes méthodologiques (notamment les protocoles d'expérimentation) – d'être "neutre", de sorte qu'il n'influencerait pas le résultat de son travail.

L'évaluation_par_les_pairs permet d'évaluer collectivement la qualité d'une production scientifique.

Limites du savoir

https://democratiedirecte.net/intelligence-collective/#limite-du-savoir

Au moins trois théories suggèrent l'existence de limitations (intrinsèques ?) au savoir : théorie de la complexité, théorie de la calculabilité, théorie du chaos. Une question fondamentale est de savoir si certaines de ces limites sont intrinsèques, c-à-d physiquement infranchissables.

Théorie de la complexité. La théorie de la complexité traite des limitations techniques au savoir. Pour ce faire elle établit des classes de complexité fondées sur les contraintes de ressources nécessaires à des systèmes informatiques (ordinateurs) pour résoudre un problème algorithmique. Ces contraintes sont de nature quantitative (temps et/ou espace mémoire) et qualitative (résistance à la chaleur, niveau de miniaturisation, ...) [approfondir].

Théorie de la calculabilité. La théorie de la calculabilité traite des limitations logiques au savoir. Selon cette théorie certains problèmes mathématiques ne peuvent être résolus au moyen d’un algorithme car les algorithmes et les ordinateurs, aussi puissants soient-ils, possèdent des limites intrinsèques insurmontables en raison de leur nature logique. [approfondir].

Théorie du chaos. Celle-ci concerne les systèmes dynamiques complexes, et sensibles aux conditions initiales, tels que les phénomènes météorologiques ou économiques. Dans ce type de phénomènes des différences infimes dans les conditions initiales peuvent entraîner des résultats fortement différenciés, rendant en général toute prédiction impossible à long terme (effet "papillon"). Cependant il n'y a pas indéterminisme au sens que « des causes identiques produiraient des effets différents », mais identification incomplète et mesure imparfaite des paramètres. Il n'y a donc pas remise en cause du déterminisme, mais plutôt des limites de son utilisation : cette limitation de nos capacités de mesure est-elle surmontable par le progrès scientifique et technologique, ou bien constitue-t-elle une impossibilité physique ? Selon le principe d’incertitude de Heisenberg il y a bien une limitation physique insurmontable : en physique quantique toute amélioration de la précision de mesure de la position d’une particule se traduit nécessairement par une moindre précision de mesure de sa vitesse et vice-versa [approfondir].

  • Selon le physicien François Roddier « le phénomène non linéaire de sensibilité aux conditions initiales remet en cause l’idée de déterminisme et nécessite une révision de la notion de causalité. Les biologistes s’aperçoivent aujourd’hui que les gènes coévoluent avec leur environnement sans qu’il y ait nécessairement une relation de cause à effet » [source].
  • Les voies du Seigneur ... Ces trois théories conduisent à la réflexion suivante : s'il existe des phénomènes naturels dont les lois seraient intrinsèquement insaisissables, on peut alors interpréter le phénomène religieux comme une perception et expression intuitive de la nature insondable de certains phénomènes (cf. « Les voies du Seigneur sont impénétrables »).

Intelligence

https://democratiedirecte.net/intelligence-collective/#intelligence

On pourrait commencer par définir l'intelligence de façon générale, comme « la capacité de raisonnement, conduisant à une amélioration des conditions de vie du sujet ».

Cette capacité de raisonnement est fonction des capacités du sujet en matière de traitement d'informations (données) :

  1. perception (collecte) ;
  2. mémorisation (stockage) ;
  3. calcul (vitesse) ;
  4. restitution (application).

L'intelligence a comme propriété de pouvoir agir sur elle-même : elle peut améliorer ses performances, via l'apprentissage, en concevant des méthodes et en construisant des outils, et en les améliorant constamment.

Pseudo-
intelligence

On notera que cette définition pourrait s'appliquer aussi bien à l'intelligence naturelle (entendez "des organismes vivants", humains ou non) qu'artificielle (entendez "non-vivante") dès lors que le sujet peut être une machine, ce qui participe à flouter sinon supprimer la frontière entre "vivant" (= "qui fonctionne") et "non vivant" (= "qui ne fonctionne pas").

Mais avons-nous là cerné l'intelligence dans toute la subtilité et diversité que l'on constate chez les humains ? Dans le doute répondons par la négative, et considérons qu'à ce stade de notre travail de définition nous n'avons cerné qu'une forme réduite "d'intelligence", que nous appellerons "pseudo-intelligence".

Raisonnement

Dans notre définition développée jusqu'ici il reste à préciser ce qu'on entend par "raisonnement". Selon nous cette méthode de l'intelligence est une capacité à synthétiser une problématique c-à-d à identifier les facteurs explicatifs d'un phénomène et à décrire leur relations, de sorte que la connaissance de la synthèse (dont l'expression la plus réduite peut-être une formule mathématique) permet de maîtriser le phénomène (le reproduire et l'utiliser comme outil).

On notera que les capacités instinctives (par exemple la capacité des animaux à se soigner) ne rentrent pas dans cette définition.

Une méthode de synthétisation est la théorie des graphes, dont des applications peuvent prendre la forme d'algorithmes. Python est un langage très populaire pour coder des algorithmes.

Mais avons-nous beaucoup avancé ? Des animaux ou des machines ne serait-elles pas capable de "raisonner" au sens défini ci-dessus ? Il nous faut encore creuser, et pour ce faire une méthode consiste à analyser des cas réels d'intelligence humaine. Mais avant, développons la notion d'intelligence artificielle, ce qui nous permettra ensuite de cerner "en creux" l'intelligence humaine.

Intelligence artificielle

https://democratiedirecte.net/intelligence-collective/#IA
Définition

Nous définissons l'IA comme « l'apprentissage automatique par des machines ("machine learning"). Celui-ci peut être réalisé par des ordinateurs appliquant des boucles de rétroaction ("feedback") à partir de l'exploration de données ("data mining") et le raisonnement logique » (algorithmes).

IA-schema.png

L'apprentissage automatique permet à des machines de faire des prévisions météo (notamment au moyen de la technique du réseau bayésien) ou encore de jouer aux échecs, tout en améliorant leurs performances au fur et à mesure des expériences.

Le web des objets permet de collecter des données de toutes sortes en temps réels. D'autre part, grâce au progrès technologique, la vitesse de calcul et la capacité de mémorisation des ordinateurs ont dépassé les capacités humaines (ou les ont étendues, selon l'interprétation transhumaniste), et sont en voie d'être démultipliées par des technologies telles que réseau neuronal et calculateur quantique.

Commercialement très porteur, le concept d'IA fait parfois l'objet d'interprétation abusives, notamment par l'exagération des capacités de technologies qualifiées d'IA.

Les 3 bugs majeurs du "big data" (4m54s - 2015)

Plus fort que le "big data" ? « Il y a quelques années, des chercheurs ont appris à un ordinateur à jouer aux échecs en entrant dans sa mémoire les millions de combinaisons des jeux existants, et il a été capable de battre le champion du monde. Plus récemment, une machine à qui on a appris à jouer, sans lui injecter les données, aurait atteint le meilleur niveau mondial en quatre heures » [source, à confirmer par une source scientifique ...].

Problématiques

Finalement l'IA est un forme évoluée de ce que l'on appelait au vingtième siècle les systèmes experts, qui étaient conçus et perçus comme des outils d'aide à la décision. Avec l'IA il y a un changement de paradigme : dès lors que les capacités de traitement des données (vitesse de calcul, et quantité de mémoire) par les ordinateurs on dépassé les capacités humaines individuelles on assiste à un déplacement de paradigme : les outils "d'aide à la décision" deviennent des instruments "de décision" (cf. les véhicules autonomes), capables "d'apprendre" par eux-mêmes c-à-d de se reprogrammer. L'on passe ainsi subrepticement du « politique, contestable parce que compréhensible par l'homme » au « scientifique, incontestable car incompréhensible par l'homme ».

Intelligence artificielle

Des scientifiques ont ainsi exprimé leur crainte que l'IA dépassant l'intelligence humaine, elle puisse la soumettre à son contrôle voire détruire le genre humain. D'autre scientifiques rétorquent que ce risque peut être neutralisé par la technique consistant à contraindre l'IA par des "contrats intelligents" dans des chaînes de blocs [source]. Il importe également d'utiliser des logiciels, du matériel et des données libres/ouverts.

La notion, résolument optimiste, de transhumanisme étend la problématique à une transformation disruptive des capacités psychiques et physiques des humains.

Le physicien François Roddier fait remarquer que les ordinateurs ont un effet semblable à une démultiplication des capacités de la partie du cerveau humain traitant la rationalité, le néocortex. « Quoique plus puissants que lui, ils lui sont pourtant entièrement soumis. De la même façon, notre néocortex est soumis à notre cerveau limbique, siège de nos émotions, qu’on appelait autrefois le "cœur". Notre cerveau limbique est lui-même au service d’un cerveau encore plus ancien, le cerveau reptilien. Ce dernier a été créé par nos gènes pour les servir. C’est pourquoi Richard Dawkins les qualifie d’égoïstes. Simples molécules, nos gènes obéissent quant à elle aux lois de la thermodynamique » [source].

Mais l'intelligence se résume-t-elle à des concepts informatiques : qu'en est-il de la sensibilité, de l'humour, du sens critique ou encore de la notion plus collective de culture ?

Intelligence individuelle humaine

https://democratiedirecte.net/intelligence-collective/#intelligence-individuelle-humaine

Capacités et comportements

Le physicien François Roddier définit l'intelligence d'un individu humain ou animal en ces termes : « Pris isolément, tout animal cherche à maximiser ses chances de survie (de dissiper de l’énergie). Pour cela, il répond à des stimuli (informations venant de l’environnement) en déclenchant des actions appropriées (travail mécanique). Le comportement le plus intelligent est celui qui déclenche le plus rapidement les actions les mieux appropriées » [source].

On pourrait proposer une définition alternative, de nature anthropocentrique, en définissant l'intelligence comme « un ensemble de capacités et comportements qui distinguent l'homme des autres animaux ainsi que des machines ». La problématique est ainsi déplacée de "vivant vs non-vivant" à "humain vs non-humain" (c-à-d animale ou non-vivant).

Nous avons vu que les capacités de traitement de données, telles que le volume de stockage (mémoire) et la vitesse de calcul, ne sont pas typiquement humaines puisqu'elles sont également (i) reproductibles par des machines (qui peuvent dépasser les capacités humaines en la matière), et (ii) observées chez les animaux.

Les autres animaux partagent avec l'homme la souffrance et le plaisir psychique. Peut-être sont-ils même capables de capacités intellectuelles évoluées telles que l'esthétique, l'invention, la projection idéalisée dans l'avenir (bien que cela reste à confirmer, et à distinguer d'une interprétation anthropomorphique).

Par contre l'humour, la volonté de comprendre les lois de la nature, le sentiment religieux, ou encore le suicide semblent spécifiques au genre humain et le distinguer de l'animal et de la machine.

Les machines ne peuvent qu'imiter ces capacités (ce qui est déjà pas mal, et d'autant plus, dans certains cas, lorsqu'il y a amplification).

  • La croyance en un dieu est très liée aux notions d'éthique et de justice, lesquelles sont typiquement sociales puisqu'elles impliquent les relations entre individus.
  • Quid de l'instinct ? Nous humains, nous nous considérons plus intelligents que les animaux malgré que – sans enseignement spécifique – nous sommes incapables d'identifier les herbes médicinales, alors que les animaux en sont tous capables instinctivement. Nous y arrivons certes par la voie moins intuitive de la science et de l'enseignement, dans laquelle la relation dynamique entre individus et société joue un rôle déterminant.

Émotion

Si l'impulsivité et l'émotivité extrême risquent de nous faire prendre de mauvaises décisions, la rationalité peut nous y pousser tout autant. Ainsi les travaux d'Antonio Damasio auprès de personnes souffrant de lésions au niveau du lobe frontal du cortex cérébral, ayant pour effet de supprimer toute émotion, ont montré que ces personnes n'étaient plus aptes à prendre de bonnes décisions [source].

Il semble que le débat social fonctionne largement sur le mode émotionnel. Ainsi en politique et en économie, que l'on cherche à "gauche" ou à "droite", il devient de plus en plus difficile de trouver des discours qui n'exploitent pas le registre de l'émotionnel. C'est notamment le cas des débats sur le climat, l'immigration, le libre-échange ou encore l'Union européenne, où stigmatisation et moralisme confrontent leurs simplismes respectifs. Mais c'est notamment au travers de ce débat que l'intelligence collective peut opérer, pour autant que la liberté d'expression soit préservée.

Nous entendons par intelligence émotionnelle, notamment la capacité à maîtriser nos émotions, et utiliser nos émotions ainsi que celles d'autrui [approfondir].

Quelle est la nature de la relation entre intelligence émotionnelle et ego ?

Ethique

L'éthique et la morale, dans la mesure où elles distinguent le genre humain du genre animal, pourraient constituer un élément majeur de l'intelligence. Il ne s'agit donc pas de performances mécaniques (vitesse de travail, capacité de mémorisation, ...) mais plutôt relationnelles.

Conscience

https://democratiedirecte.net/intelligence-collective/#conscience

La notion de conscience implique celles de libre arbitre, volonté et responsabilité. Ainsi le philosophie et physicien Dominique Lambert résume comme suit les traits distinctifs de l'humain :

  • dépasse sans cesse les limites du langage pour l'interpréter et donner du sens ;
  • sort de ses propres représentations décrivant sa nature ;
  • assume des risques en dehors de ce qui est rigoureusement calculable (N.D.A. : Lambert cite cet élément dans le cadre d'une argumentation contre l'abandon de nos décisions à des systèmes d'intelligence artificielle, notamment dans la justice) ;
  • capacité à limiter sa toute-puissance et sa toute-maîtrise pour faire place à l'autre (N.D.A. : n'est-ce pas propre à tous les animaux ?) [source].

Dans son roman "Pantagruel" écrit en 1532, François Rabelais fait dire à Gargantua écrivant à son fils Pantagruel : « science sans conscience n’est que ruine de l’âme ».

Conscience artificielle ? Pourrait-on fabriquer des machines conscientes ? Oui affirme la théorie computationnaliste, à l'instar du psychologue Philip Johnson-Laird qui énonce les conditions suffisantes à vérifier pour créer des ordinateurs conscients [source : « A computational analysis of consciousness » 1988]. Au contraire le mathématicien Roger Penrose soutient que les ordinateurs, considérés comme des machines de Turing ou des systèmes formels, sont fondamentalement dans l'incapacité de modéliser l'intelligence et la conscience. Les ordinateurs étant des systèmes déterministes, ils sont soumis aux limitations des systèmes formels, par exemple l'insolvabilité du problème de l'arrêt ou le théorème d'incomplétude de Gödel. Selon Penrose, l'esprit d'un authentique mathématicien est capable de surmonter ces limitations, car il a la capacité de s'extraire au besoin du système formel dans lequel il raisonne, quel que soit celui-ci [source].

Inconscience. Une expérience réalisée en 1983 par Benjamin Libet montre que l’activation cérébrale (supposée inconsciente) précède la décision consciente. Dans une autre expérience réalisée en 2008 par Chun Siong Soon l'activation cérébrale est observée jusqu'à 10 secondes avant la décision consciente, et en outre l'observation des zones cérébrales activées permet dans 60% des cas de prédire correctement le type de décision que l'individu observé prendra. En 2011, utilisant une autre technologie Itzhak Fried obtient un taux de prédiction correcte de 80%, 700 millisecondes avant la décision consciente [source]. Doit-on en déduire que le libre-arbitre ne serait qu'une illusion rétrospective sur nos actes ? Ne serions-nous que des feuilles balancées par le vent du déterminisme ?

Résultat de l'expérience de Libet

Expérience de Libet

Source

Quelques questionnement et faits viennent tempérer une éventuelle réponse affirmative à ces questions :

  • L'activation neuronale précédant la décision n'est-elle pas déterminée par la participation volontaire de l'individu à l'expérience ?

  • Si nous subissons en provenance de notre environnement des influences dont nous n'avons pas nécessairement conscience, il demeure que c'est justement le laps de temps entre intention/volonté et décision qui permet éventuellement à l'individu de ne pas passer à l'acte. Ainsi la conscience est liée à la réflexion, laquelle procède selon un mécanisme de boucle de rétroaction et d'inférence bayésienne [source].

    Le phénomène étudié dans les expériences mentionnées ci-dessus ne doit pas être confondu avec le réflexe, qui est une réaction musculaire stéréotypée et très rapide à un stimulus, sans intervention du cerveau et de la volonté consciente

  • Des expériences ont montré que les individus qui croient dans le déterminisme de l'être humain, ont plus tendance à se comporter de façon malhonnête que des individus croyant dans leur libre arbitre. Ainsi, fondée ou non, la croyance dans le libre-arbitre présente l'avantage d'être socialement éthique.

Rationalité. Les individus n'étant généralement pas conscient de leurs biais cognitifs, l'interaction avec des systèmes intelligents peut aider à faire émerger ces biais dans la conscience.

Comparaison humain vs machine

Des systèmes informatiques sont aujourd'hui capables de battre les meilleurs joueurs de jeu d'échec (première : superordinateur Deep Blue en 1997) et même du jeu de Go (première : programme AlphaGo en 2015).

Cette performance est due aux capacités supérieures des ces systèmes en matière (i) de stockage de grandes quantités de données et (ii) de vitesse de traitement de ces données, qui rendent possible des fonctions d'apprentissage automatique.

Gestion de l'incertitude

Voici une série de capacités cognitives propres aux êtres humains, et dans certaines mesures à l'ensemble des organismes vivants :

  • gestion de l'incertitude (NB : automatisable notamment au moyen de la technique du réseau bayésien) ;
  • extrapolation ;
  • "erreurs" commises par l'imperfection humaine mais qui produisent parfois de grandes avancées ;
  • capacité à prendre des décisions relativement adaptées à la situation malgré un manque substantiel d'informations en entrée (ce que l'IA réalise parfois très mal en comparaison avec les humains) ; ...

    On rejoint ici les notions d'intuition et d'art (du diagnostique médical par exemple), voire d'âme.

Comment les machines peuvent-elles reproduire ces comportements autrement qu'en les simulant. Mais simuler est-ce reproduire au sens de produire ? Si cette distinction est effective ne serait-elle pas liée à celle entre décision (par des humains) et aide à la décision (par des machines - exemple).

Bilan énergétique

Mais il serait intéressant de voir si l'apparente supériorité de l'intelligence artificielle (IA) sur l'intelligence humaine/naturelle résiste à l'analyse économique et plus particulièrement à l'aune du ratio "performance / consommation d'énergie". Pour une vitesse déterminée d'un traitement déterminé d'une quantité déterminée d'informations, l'intelligence artificielle consomme-t-elle moins, autant ou plus d'énergie que l'intelligence naturelle/humaine ?

Nous n'avons pas encore trouvé d'étude empirique à ce sujet, mais l'analyse théorique laisse peu de doutes. D'une part l'intelligence naturelle, étant le résultat d'un processus évolutif de plusieurs millions d'années, est probablement d'une efficacité redoutable. D'autre part, en raison du premier principe de la thermodynamique (la matière et l'énergie ne peuvent être créées ou détruites mais seulement transformées) la supériorité apparente de l'intelligence artificielle sur l'intelligence humaine ne peut "venir de nulle part", et doit très probablement impliquer une consommation plus élevée d'énergie.

Les coûts cachés
du numérique

L'intelligence artificielle est souvent évoquée comme moyen de rationaliser la consommation d'énergie. Ainsi Deepmind, la filiale IA de Google, a optimisé la consommation énergétique de ses centres de données et de ses systèmes de refroidissement grâce à l’apprentissage machine. Il a ainsi augmenté l’efficacité énergétique de ses centres de données de 15% [source p. 128].

Il importe cependant de souligner le caractère souvent illusoire de ces "économies d'énergie".

Il y a d'abord l'effet rebond – encore appelé "paradoxe de Jevons" – phénomène de "fuite en avant" par lequel, quand on augmente l’efficacité avec laquelle une ressource est employée, la consommation totale de cette ressource a toutes les chances d’augmenter au lieu de diminuer. Or s'il s'avère que le réchauffement climatique (i) est essentiellement d'origine entropique et (ii) nuisible au développement durable, alors la "supériorité" de l'IA est une victoire à la Pyrrhus. Peut-on alors encore parler "d'intelligence supérieure" ?

Il convient en outre d'évaluer correctement l'apport de l'IA en matière de rationalisation énergétique, en intégrant dans les calculs la totalité des coûts directs et indirects, notamment l'énergie consommée pour fabriquer, utiliser et recycler le matériel, dont les processeurs et leur système de refroidissement.

Un processeur, c’est comme une résistance : presque toute l’électricité qu’il consomme est dissipée en chaleur. C’est pourquoi, en plus de consommer de l’énergie pour faire tourner ses serveurs, un data center doit être climatisé afin de préserver l’intégrité des circuits électroniques.

D'après une étude réalisée par Digital Power Group publiée en 2013 [source] les coûts énergétiques du numérique sont largement cachés, la partie connue n’étant que la pointe de l’iceberg. L’économie numérique de la planète consomme déjà 50% d’énergie de plus que l’aviation du monde entier. Les datacenters ne représenteraient que 20% de l’électricité consommée par les appareils et réseaux numériques, les 80% restants étant très dispersés. Selon DPG la demande d’usage des centres de données augmentera plus vite que leurs gains en efficacité énergétique. Ces tendances vont rendre nécessaire l’usage de plus de charbon, estime l’étude, qui est sponsorisée par deux organisations du secteur minier, la National Mining Association et l’American Coalition for Clean Coal Electricity [source].

Si l’on considère la totalité de son cycle de vie, le simple envoi d’un mail d’1 mégaoctet (1 Mo) équivaut à l’utilisation d’une ampoule de 60 watts pendant 25 minutes, soit l’équivalent de 20 grammes de CO2 émis. On ne s'étonnera donc pas de constater que le secteur des nouvelles technologies représente à lui seul entre 6 et 10 % de la consommation mondiale d’électricité, soit près de 4 % de nos émissions de gaz à effet de serre. Environ 30 % de cette consommation électrique est imputable aux équipements terminaux (ordinateurs, téléphones, objets connectés), 30 % aux data centers qui hébergent nos données, et 40 % aux réseaux, les fameuses "autoroutes de l‘information" [source].

Selon certaines estimations, à la fin des année 2020 la consommation d’énergie des appareils informatiques consommera 60 % de la quantité totale d’énergie produite, et deviendra totalement insoutenable d’ici 2040. Une solution consiste peut-être à remplacer les actuels processeurs électroniques (qui utilisent des électrons) par des processeurs optiques (qui utilisent des photons, lesquels ne génèrent pas de chaleur et se propagent plus rapidement) [source].

Enfin la consommation énergétique des nouvelles technologies n’est qu’un aspect du défi environnemental qu’elles posent. Ainsi nos smartphones contiennent des dizaine de différents métaux et terres rares (or, cuivre, nickel, zinc, étain, mais aussi arsenic, gallium, germanium, thallium, tantale, indium, ...) qui sont extraits du sous-sol en utilisant des techniques particulièrement destructives et des produits nocifs pour l’environnement comme l’acide sulfurique, le mercure et le cyanure [source].

Subtilité et diversité humaine

Pourrions-nous construire une machine capable :

  • de ressentir :
    • des sensations de plaisir et de douleur (avec toutes les subtile intermédiarités, telles que le plaisir de l'effort physique pouvant aller jusqu'à la souffrance) ;
    • des sentiments de joie et de tristesse (avec toutes les subtiles intermédiarités que l'on résume par la notion d'émotions) ;
    • de la jalousie et de la colère par rapport à autrui (que l'on peut regretter lorsqu'elles ont des conséquences nuisibles, mais qui sont parfois à l'origine de brillantes réalisations humaines).
  • de rêver (NB : une activité que nous ne contrôlons pas) ;
  • de faire preuve de sens de l'humour (sous toutes ses formes : pince-sans-rire, absurde, grivois, ...) ;
  • de comprendre les points de vue de deux parties à un conflit, et de prendre des décisions de justice plus efficacement que des humains ? ...

Comment pourrions-nous en outre faire en sorte que les différentes reproductions de cette machine puissent se distinguer les unes des autres (et ainsi reproduire l'infinie diversité des personnalités humaines), tout en étant capables de constituer des groupes partageant des valeurs communes (cultures, ethnies, ...) et par rapport auxquels ces machines éprouveraient un sentiment d'appartenance, ... mais qu'elles pourraient par ailleurs rejeter, par exemple en raison d'un parcours "personnel" devenu incompatible avec celui du groupe ?

Mais quel serait le sens d'une telle démarche "créationniste" ("pour quoi faire"), et quel en serait son coût (*), notamment environnemental ?

(*) À cet égard la bio-ingénieurie permet de ne pas "réinventer la roue" (ou d'inventer la roue vivante ...).

Culture

https://democratiedirecte.net/intelligence-collective/#culture

Si l'on définit simplement la culture comme étant « tout stockage d'information » la culture ne serait plus l'apanage des humains. Mais si l'on se situe dans le cadre de notre définition anthropocentrique de l'intelligence, nous devrions définir la culture comme « tout stockage d'information dans le cerveau humain ». D'autre part la culture ne peut être réduite simplement au stockage d'informations : il y a également l'aspect relationnel, qui correspond à des échanges/partages d'informations.

On sait aujourd'hui que le comportement humain n'est que partiellement déterminé par ses gènes. Les interactions entre chaque individu et son environnement sont également déterminantes, et ont même pour effet de modifier la structure du cerveau (cf. par exemple les mécanismes neuronaux de modification plastique expliquant la différence entre mémoire à court et long terme), voire semble-t-il sur les gènes eux-mêmes ! Cela concerne l'ensemble du règne animal, sauf que l'aspect culturel (et donc social) jouerait un rôle bien plus important chez les humains que chez les autres animaux, notamment en raison des capacités humaines particulièrement développées en matière de langage (vocabulaire, syntaxe, grammaire, informatique, Internet, ...).

Différences culturelles. Depuis le début du siècle, le QI baisse ... en Occident, de sorte qu'aujourd'hui le QI moyen est de seulement 98 en France et aux USA, contre 108 à Hong Kong et Singapour. Une des causes pourrait être la qualité et les budgets de l'enseignement, plus élevés dans les pays asiatiques [source]. Une étude plus récente suggère un éventail plus large de facteurs explicatifs : déclin des valeurs éducationnelles, dégradation des systèmes éducatifs et scolaires, télévision et médias, dégradation de l'éducation au sein des familles, dégradation de la nutrition, dégradation de la santé [source], mais confirme le rôle prépondérant de l'éducation. Ces études sont cependant contestées par d'autres chercheurs selon qui, si l’on prend en compte l’ensemble des données internationales, il n'y aurait pas de baisse mais plutôt stagnation, qui pourrait s'expliquer par l'approche de limites intrinsèques à l’espèce humaine [source].

Des foules
intelligentes

Les phénomènes de lynchage collectif montrent que les foules peuvent être cruelles et irrationnelles. Cependant, pour autant qu'un groupe soit bien auto-éduqué et organisé il peut faire preuve d'une grande rationalité et efficacité. Ce fait ne remet cependant pas en question l'utilité des experts et suggère que la collaboration entre masses "généralistes" et experts "spécialistes" permet d'aboutir à de meilleures décisions collectives.

Des recherches empiriques sur l’intelligence collective ont en effet établi qu'en raison des bénéfices de la diversité cognitive (c’est-à-dire la diversité des intelligences et des perspectives), des groupes non experts mais diversifiés sont souvent meilleurs, dans la résolution de problèmes complexes, que des groupes d’experts [source].

Intégration

https://democratiedirecte.net/intelligence-collective/#integration
Client-serveur
vs
pair à pair

L'intégration des savoirs relève nécessairement d'un processus collectif, car aucun chercheur ne peut connaître et comprendre la totalité des connaissances, même de sa propre branche. Ce processus fonctionne dans le cadre d'un réseau mixte, c-à-d à la fois pair-à-pair et centralisé : des échanges de savoirs sont opérés "individuellement" dans le cadre d'un réseau pair à pair, et d'autre part une intégration des savoirs est opérée "globalement" qui requiert nécessairement une forme ou l'autre de centralisation.

Approfondir : "Réseau client-serveur vs pair à pair"

Local
vs
global

La problématique de l'arbitrage entre centralisation et décentralisation est évidemment liée à la relation entre individus et société c-à-d entre niveaux local et global. On notera que les sciences "exactes" sont également confrontée à une problématique d'intégration entre niveaux local et global. Ainsi selon l'état actuel des connaissances en physique quantique, il semble qu'en-dessous d'une taille "charnière" située entre les niveaux moléculaire et atomique (niveau microscopique) les lois naturelles seraient différentes de celles observées au niveau macroscopique [vidéo de vulgarisation - 9m59s].

Indétermination quantique. Cependant cette absence apparente de cohérence ne se manifeste que lorsque l'observateur est (ou s'est mis) dans l'incapacité d'identifier – parmi plusieurs comportements possibles des particules – celui va déclencher la mesure du phénomène observé ... (situation dite d'indétermination quantique) [vidéo de vulgarisation - 19m22s].

Pourtant, le global/macro étant composé du local/micro, on pourrait s'attendre à une cohérence d'intégration entre les deux dimensions ... (PS : ce principe de cohérence vaut aussi bien pour les sciences exactes que pour les sciences humaines).

Émergence

https://democratiedirecte.net/intelligence-collective/#emergence

L'émergence est un phénomène selon lequel le tout serait plus que la somme de ses parties, et dont les automates cellulaires sont une illustration. Ainsi une équipe de chercheur de l'ULB a montré que des robot peuvent, collectivement, séquencer des actions dont l’ordre d’exécution est à priori inconnu [source].

Dans le chapitre "Méthodologie" est présentée une méthodologie appliquée à la conception et au développement d'un système de gouvernance de démocratie directe. Cette méthodologie active les phénomènes d'auto-organisation et d'émergence au moyen de trois principes fondamentaux : les comparaisons croisées, les validations itératives et la redondance initiale.

Auto-organisation

https://democratiedirecte.net/intelligence-collective/#auto-organisation

Nous commencerons par présenter le modèle d'apprentissage de Bak et Stassinopoulos. Nous montrerons que celui-ci est fondé sur les principes thermodynamiques de l'auto-organisation. Enfin on évoquera les extrapolations qui peuvent être dérivées du modèle au niveau social.

Modèle d'apprentissage de Bak et Stassinopoulos

https://democratiedirecte.net/intelligence-collective/#autorganisation-modele-bak-stassinopoulos

Bak et Stassinopoulos ont conçu un modèle de l'apprentissage. Ce modèle repose sur un jeu proposé à un singe : lorsque le voyant est vert il doit appuyer sur la pédale de droite, et quand il est rouge sur la pédale de gauche. À chaque réussite il reçoit une récompense (une cacahuète). Au début la distribution des résultats est aléatoire, mais progressivement elle se rapproche de 100% d'essais réussis : l'apprentissage est alors réalisé. Le graphique suivant permet d'expliquer le mécanisme de cet apprentissage. Chaque essai correspond à un chemin entre la perception de la couleur et l'action qu'elle provoque (ou pas). Les connexions neuronales des chemins correspondant à des essais réussis serait progressivement renforcées (on dit que leur seuil est abaissé) tandis que les chemins correspondant à des essais ratés seraient progressivement inhibée (seuil renforcé) [source].

Cerveau de Bak-Stassinopoulos

Le modèle de cerveau de Bak et Stassinopoulos reçoit de l’information (Q2) de l’environnement sur lequel il agit (W=Q1-Q2) de façon à obtenir de l’énergie (Q1).

Lorsqu'un neurone reçoit des signaux d'autres cellules il se charge électroniquement. Lorsque la charge dépasse un certain seuil le neurone est excité et transmet l'information à d'autres neurones. On observe alors des avalanches d'excitations. Les neurones excités (cercles gris) forment des domaines d'Ising d'autant plus étendus que les seuils sont faibles. (c-à-d que "les barrières sont basses"). La probabilité pour qu'un de ces domaines connecte les neurones sensoriels (ligne d'entrée dans le haut du graphique) aux neurones moteurs (ligne de sortie dans le bas du graphique) s'obtient en résolvant un problème mathématique dit de percolation [source p. 89-90].

François Roddier souligne que le modèle de Stassinopoulos et Bak relève de l'auto-organisation, et que celle-ci procède à l’aide d’oscillations de part et d'autre d’un point critique, seuil de percolation. Deux paramètres sont impliqués :

  • l’intensité des connections entre les neurones (l'amplitude des avalanches d'excitations) : par analogie avec les cycles de Carnot elle joue le rôle d’une pression : elle mesure un flux de charge comme la pression mesure un flux de particules qui frappent une paroi ;
  • le seuil à partir duquel l’information est transmise d’un neurone à l’autre : par analogie avec les cycles de Carnot les seuils jouent le rôle d’une température : des seuils bas facilitent leur franchissement (comme le ferait une température élevée) tandis que des seuils élevés empêchent leur franchissement (comme le ferait une température basse).

Ces deux paramètres oscillent au voisinage d'un point critique de sorte que l'apport énergétique est maximisé (cf. les cacahuètes qui récompensent les essais réussis du singe). Ces oscillations sont très utiles car si trop de neurones moteurs sont excités la valeur des seuils sera augmentée, et inversement (ainsi pour réfléchir le cerveau doit être dans un état entre le sommeil et l'hyperactivité) Les fluctuations aléatoires permettent que le système ne reste pas piégé dans un optimum secondaire (cf. les oscillations de la température dans l'algorithme de recuit simulé, ou encore les équilibres ponctués en biologie) [source p. 89-90].

Roddier souligne que le modèle de Bak et Stassinopoulos permet d'expliquer :

  • pourquoi le cerveau demeure capable de réapprendre même après ablation partielle : le système peut continuer de fonctionner même après suppression d'une partie des colonnes du graphique supra ;
  • pourquoi très souvent au moment du réveil une solution apparaît au problème qui nous accaparait la veille : c'est à ce moment là que le cerveau traverse l'état critique [source p. 89-90].

On notera enfin que le modèle peut facilement faire l'objet d'une programmation informatique, de sorte que l'apprentissage n'est plus limité aux organismes vivants, on parle alors "d'apprentissage automatique" ...

Physique --> biologie --> sociologie

https://democratiedirecte.net/intelligence-collective/#autorganisation-physique-biologie-sociologie

Per Bak a montré que l'auto-organisation relève d'un processus qu’il a baptisé "criticalité auto-organisée" par lequel les structures dissipatives s'organisent à la manière des transitions de phase continues, comme le passage de l’état liquide à l’état solide, c-à-d au passage d’un état désordonné (l’état liquide) a un état ordonné (l’état cristallin). Des avalanches de bifurcations produisent des arborescences fractales : amplification des fluctuations --> rupture de symétrie (avec invariance par changement d'échelle) --> apparition et mémorisation d'information.

Les transitions abruptes nécessitent un apport extérieur d’information sous la forme d’un germe. Lors des transitions continues – cas des structures dissipatives – de l’information apparaît progressivement au fur et à mesure que la phase ordonnée se développe. Ces informations se propagent par percolation au sein de domaines d'Ising. Le modèle s'auto-organise de façon à maximiser l'énergie reçue (cf. les cacahuètes récompensant les essais réussis par le singe).

Selon Roddier « le concept de réseau neuronal peut s’appliquer à toute structure dissipative considérée comme un ensemble d’agents échangeant de l’énergie et de l’information. On sait aujourd’hui que ces agents s’auto-organisent pour maximiser la vitesse à laquelle ils dissipent l’énergie (principe d'entropie maximale). C’est apparemment le cas des molécules d’air dans un cyclone, des bactéries dans une colonie, des fourmis dans une fourmilière comme des neurones dans notre cerveau. C’est aussi le cas des sociétés humaines. » [source].

Peut-on leur appliquer à tous le même modèle d’auto-organisation ? La figure supra représente un réseau régulier de neurones mais les simulations faites avec des réseaux quelconques de noeuds reliés par des connexions arbitraires fonctionnent également. Le modèle de Bak et Stassinopoulos permet donc de modéliser la dynamique cognitive d'une population dont chacun des individus peut échanger de l'information avec n'importe quel autre et déclencher une action. On peut alors parler d'intelligence collective ou de "cerveau global" [source].

Selon Roddier, en biologie l'ontogenèse correspondrait à une transitions abruptes, et la phylogenèse à une transition continue. L’information est mémorisée dans les gènes. Les êtres vivants qui partagent les mêmes gènes forment des domaines d’Ising appelés espèces animales ou végétales. Chez l’homme l’information est principalement mémorisée dans son cerveau. Les sociétés humaines mémorisent à leur tour de l’information dans les livres, plus récemment dans les ordinateurs. C’est ce qu’on appelle la "culture". Les individus qui partagent la même culture forment des domaines d’Ising sous la forme de sociétés humaines. Les lois de la thermodynamiques expliquent donc aussi le phénomène sociologique d'auto-organisation [source1, source2].

Exploitation. On notera que l'exploitation des salariés est fondée sur l'appropriation de la plus-value collective – fruit du phénomène d'émergence – alors que les salariés sont payés selon un salaire déterminé.

Le modèle peut également expliquer la dynamique du progrès scientifique : « les sociétés humaines s’auto-organisent en formant un cerveau global capable de mémoriser toujours plus d’information. Cette information leur permet de dissiper de plus en plus d’énergie. C’est ce que nous appelons le progrès scientifique et technique. (...) Un réseau neuronal reçoit de l’information de sa source froide: c’est le cas du cerveau global que forme notre société. (...) La température de cette source froide peut s’exprimer en Euros dépensés par bits d’information mémorisée. Cela soulève le problème du coût de la recherche scientifique. Plus ce coût est important, plus la température de notre source d’information est élevée et plus le rendement de Carnot de notre société est bas. (...) Les sociétés humaines s’effondrent lorsque leur rendement de Carnot est trop bas » [source].

Imprévisibilité

https://democratiedirecte.net/intelligence-collective/#imprevisibilite

Une propriété importante des systèmes auto-organisé est qu'ils sont largement imprévisibles.

Selon François Roddier « un système qui s'auto-organise a une évolution plus ou moins imprévisible. En effet si l'on pouvait parfaitement prévoir son évolution, celle-ci ne nous apporterait aucune information. Notre connaissance du système resterait inchangée. Le fait que son entropie diminue montre que ce n'est pas le cas : notre connaissance du système augmente. Il y a apparition d'informations nouvelles imprévues. Cela explique les difficultés des prévisions météorologiques. Cela explique aussi pourquoi le comportement des êtres vivants est largement imprévisible. L'évolution d'une société humaine l'est aussi. Au contraire l'évolution d'un système isolé est largement prévisible : un mélange d'eau chaude et d'eau froide donne toujours de l'eau tiède [source p. 35] ».

Une question vient alors à l'esprit : le phénomène d'auto-organisation est-il suffisant en soit pour organiser efficacement la société (thèse de l'idéologie anarchiste/libérale) ? La réponse est évidemment négative : la probabilité que des phénomènes naturels auto-organisés correspondent systématiquement aux besoins des humains en tout lieu et à toute époque est quasiment nulle !

La question suivante est alors : comment organiser efficacement et durablement la société humaine globale ? Pour répondre à cette question il convient de comprendre la nature des interactions entre organisation humaine globale et son environnement auto-organisé.

Liberalisme : marchés efficients ?

https://democratiedirecte.net/intelligence-collective/#liberalisme-marche-inefficients

Roddier extrapole le modèle de Bak et Stassinopoulos à l'économie en assimilant l'excitation des neurones à la richesse monétaire des individus. Les signaux d'entrée expriment le besoin en produits ou services. La transmission des signaux correspond à des transactions financières. En l'absence de percolation, ces transactions se limitent à des placements financiers. Lorsque le réseau percole, il conduit à une offre commerciale. Dans ce schéma, l'économie financière représente les réflexions du cerveau global. L'économie de production traduit ses actions réelles [source]. Mais qu'en est-il de l'efficience ?

Selon la théorie économique classique l'allocation des ressources entre les agents économiques seraient opérée plus efficacement par "les marchés" que par la planification étatique.

Un des fondement des cette école "libérale" est la théorie de la main invisible (sic), proposée par Adam Smith (1723-1790), selon laquelle l'ensemble des actions individuelles des acteurs économiques, guidées uniquement par l'intérêt personnel de chacun, contribueraient à la richesse et au bien commun. Cette théorie de l'auto-organisation suggère donc que la collectivité peut progresser sans intervention d'un pouvoir planificateur.

Une étape supplémentaire (et plus sujette à caution) est ensuite franchie avec la thèse de supériorité des marchés (relativement à la planification) pour maximiser le bien-être collectif tout en préservant la liberté individuelle. Cette thèse repose sur la théorie (de formation) des prix de marché : en laissant les marchés déterminer "librement" les prix des biens et services, ceux-ci seraient alloués de façon plus efficace entre les agents économiques, notamment en raison d'un déficit informationnel relatif de l'État quant aux préférences des ménages et coûts des entreprises.

La notion "d'allocation plus efficace" repose sur deux postulats majeurs de la théorie économique :

  • l'utilité : les prix du marché résultant de l'ajustement entre offre et demande reflèteraient fidèlement le niveau d'utilité des biens/services, c-à-d le niveau de bien-être/satisfaction qu'ils procurent (NB : à supposer que ce postulat soit pertinent, demeure la question de la mesure du bien-être ...) ;

  • l'optimalité (efficience) : l'allocation des biens & services via les prix du marché résultant de l'ajustement entre offre et demande correspondrait à un optimum de Pareto (1848-1923), situation dans laquelle il n'est plus possible d'améliorer le bien-être d'un individu sans détériorer celui d'un autre.

    Une application de l'optimum de Pareto est la notion théorique d'équilibre général de l'économie, correspondant à une situation où plus aucun agent économique ne ferait d'échanges car les besoins de tous ces agents seraient "satisfaits" ...

Cependant, une série de conditions fortes (entendez "peu crédibles" ...) ont été identifiées, sans la vérification desquelles l'allocation des biens & services via le mécanisme des prix de marché ne serait pas efficiente au sens de Pareto. Ces conditions portent sur les marchés (concurrentiels), les prix (flexibles) et les agents économiques (rationnels et intègres) :

  • marchés en concurrence parfaite, c-à-d qu'ils vérifieraient intégralement les cinq hypothèses suivantes [approfondir] :
    • atomicité : pas de position dominante des agents économiques (ménages, entreprises et État, que ce soit en tant que producteurs ou consommateurs), or il existe notamment des cartels voire des monopoles ;
    • fluidité : pas de barrière à l'entrée/sortie des agents, or il existe notamment des barrières à l'entrée dans les secteurs réglementés (exemple : le secteur bancaire);
    • homogénéité : biens/services substituables, or il existe des biens/services pour lesquels il n'existe pas de véritable substitut (par exemple les véhicules électriques ne peuvent encore être considérés comme des substituts aux véhicules à essence notamment en raison d'insuffisances techniques) ;
    • mobilité : facteurs de production mobiles, or divers phénomènes limitent la mobilité des facteurs de production (notamment le travail en raison de la langue, ou de l'attachement à son milieu social) ; on peut inclure dans cette condition celle de coûts de transaction négligeables (relativement aux prix des biens & services) ;
    • transparence : information intégralement disponible pour tous les agents économique, or l'on constate plutôt des asymétries d'information ;
  • prix flexibles à la baisse comme à la hausse, or l'on constate des rigidités voire des effets de cliquet ;

  • agents économiques :
    • rationnels, or l'on constate des comportements irrationnels, même en détention de toute l'information disponible ;
    • intègres, or le pouvoir est le champs par excellence de la corruption, du pouvoir politique (corruption passive) par le pouvoir économique (corruption active), mais aussi entre entreprises privées (la corruption passive pouvant notamment être le fait de la personne en charge de la sélection des répondants à un appel d'offre).

Mais, et à supposer que ces hypothèses puissent être intégralement vérifiées, est-il vrai que leur vérification implique nécessairement celle du critère Parétien ... ?

Expression
abusive

Supposons que la réponse à la question ci-dessus soit affirmative. Dans ces conditions, si les hypothèses requises pour l'efficience au sens de Pareto sont vérifiées, alors une politique redistributive est toujours "sous-optimale" (au sens de Pareto). Par conséquent l'efficience parétienne n'est pas souhaitable pour la majorité puisqu'elle est incompatible avec la redistribution des richesses, d'une minorité de plus riches vers une majorité de la population. Par conséquent dire que le critère de Pareto est un critère "d'efficience" est abusif : en réalité il s'agit seulement d'un critère de non-redistribution ! De même parler "d'optimum de Pareto" plutôt que de "limite de Pareto" est également abusif.

Rappelons également un fait bien connu des mathématiciens (mais souvent oublié par les économistes libéraux) : il n'est pas possible d'optimiser un système en optimisant chacun de ses sous-systèmes : on ne peut optimiser plus d’une variable à la fois. Maximiser le bien-être collectif requiert donc de réduire celui d'une partie de la population (la problématique politique consistant notamment à déterminer les caractéristiques de cette partie de la population : richesse, pourcentage, ...).

D'autre part les faits suggèrent que le critère de Pareto et la concurrence parfaite ne sont pas des conditions suffisantes ni peut-être même nécessaires (voire sont-elles même non souhaitables) pour gérer efficacement les externalités telles que le chantage au risque systémique ou encore la surconsommation. L'État doit donc intervenir pour réglementer les marchés voire s'y substituer.

Dans ces conditions – et étant donné (i) qu'il n'est pas certain que les hypothèses ci-dessus impliquent nécessairement l'efficacité parétienne ; et (ii) qu'il est de toute façon pratiquement impossible que ces hypothèses soient simultanément et systématiquement vérifiées – il en résulte que l'utilité pratique du concept même de critère (et non "d'optimum") parétien ("limite parétienne" est aussi ok) est très limitée (du moins en économie, sauf évidemment pour la classe des plus riches comme instrument de manipulation des esprits ; il est également très utile en ingénierie).

Théorie des jeux

https://democratiedirecte.net/intelligence-collective/#theorie-des-jeux

Équilibre non-collaboratif

Le dilemme du prisonnier est un fondement de la théorie des jeux. Le tableau suivant montre les règles de ce jeu, l'objectif des joueurs/prisonniers étant de minimiser leur peine, alors qu'ils ne connaissent pas la stratégie adoptée par l'autre, et n'ont pas de moyen d'influencer celui-ci.

PS : on pourrait reformuler le jeu de sorte que l'objectif est de maximiser un gain, cela revient au même.

Les règles sont les suivantes :

  • si les deux accusés se chargent l'un l'autre (trahison), le juge les condamne à 5 ans chacun ;
  • si les deux accusés collaborent pour se couvrir, le juge confronté au doute les condamne chacun à la peine minimale de 1 ans ;
  • si l'un couvre l'autre (COL) mais que celui-ci l'accuse (TRA), le premier est condamné à la peine maximale (10 ans) tandis que le second est libéré.

On peut résumer ces règles sous forme de matrice.

dilemme-prisionnier-2.png

Le tableau suivant est une présentation plus intuitive.

dilemme-prisionnier.png

Lecture ligne 3 : si A trahit et B collabore alors A est libéré tandis que B est condamné à 10 ans de prison (NB : les joueurs ne connaissent pas le choix de l'autre).

La colonne E montre que ce jeu (i) n'est pas à somme nulle (la colonne contient des valeurs non nulles) ; et (ii) est à somme variable (les valeurs de la colonne ne sont pas identiques).

Paradoxe. Ce jeu est conçu de telle sorte que son résultat est paradoxal :

  • chaque peine individuelle minimale correspond à la trahison : ce sont les cases C3 et D4 qui minimisent la peine individuelle de chaque joueur, et elles correspondent à la trahison pour A (C3) comme pour B (D4) ;
  • la peine collective minimale correspond à la collaboration : 2 est le minimum de la colonne E, et il correspond à la collaboration pour A comme pour B.

D'autre part l'incertitude concernant le choix opéré par l'autre joueur (par exemple A) a pour effet (étant donné les valeurs du tableau) que :

  • si A trahit, alors B minimise sa peine en trahissant (5 < 10) ;
  • si A collabore , alors B minimise sa peine en trahissant (0 < 1).

On constate donc que les dans les deux cas (c-à-d quelque soit le choix fait par A) B a intérêt à trahir. Et comme les situations de A et B sont symétriques la même conclusion vaut également pour A. Chacun des deux joueurs devrait donc trahir l'autre (ligne 2). Or dans ce cas la peine obtenue ne correspond ni aux peines minimales individuelles ni à la peine minimale collective, et cela alors que le comportement des joueurs est pourtant supposé rationnel.

La cause de ce paradoxe est double : (i) les règles du présent jeu (qui en l'occurrence sont fondées sur la logique du système judiciaire) sont conçues pour inciter à la trahison ; (ii) l'incertitude quant au choix opéré par l'autre joueur conduit à minimiser le risque d'obtenir la peine maximale (c-à-d à maximiser la probabilité d'obtenir un temps libre maximum).

Stratégie dominante. Dans un jeu dont la stratégie optimale est indépendante de l'anticipation faite par le joueur quant à l'action simultanée/inconnue des autres joueurs (ici, A a intérêt à trahir quelque soit le choix fait par B), la stratégie optimale est dite "dominante".

Interprétations. Le résultat du dilemme du prisonnier requiert deux commentaires importants :

  • L'on pourrait très bien concevoir des jeux dans lesquels les joueurs n'ont pas d'autre choix rationnel que de collaborer (programmation du résultat théorique). On ne peut donc extrapoler le résultat du dilemme du prisonnier à tous les jeux possibles et imaginables, et conclure que le dilemme du prisonnier démontrerait que dans la vie en général les individus n'ont pas intérêt à collaborer ou ne sont pas enclins naturellement à le faire. Comprenons donc bien que le dilemme du prisonnier ne révèle absolument rien sur la nature humaine en général (*), mais par contre il nous en dit sans doute un peu sur ses concepteurs, qui ont préféré illustrer le principe de stratégie dominante par une stratégie non-collaborative plutôt que de collaborative ...

    (*) Néanmoins, les expérimentations de ce jeu permettent d'évaluer la propension d'une population de joueurs à collaborer ou trahir. En l'occurrence une expérience aurait donné 20% de collaborations et 80% de trahisons. Dans une autre expérience la répartition serait plus proche de la parité (question : la plus grande proportion de collaborations s'explique-t-elle par une plus large connaissance du dilemme du prisonnier parmi les joueurs ?).

  • Il faut se garder d'associer systématiquement un caractère positif à la collaboration et négatif à la non collaboration (trahison) : tout est relatif au point de vue (c-à-d au référentiel). Ainsi un cartel peut maximiser ses revenus (au détriment du reste du monde ...) en convenant (i) de quotas de production et (ii) de punitions en cas de dépassement des quotas. Pour neutraliser cette collaboration l'État (ou une autorité internationale) peut par exemple assurer une quasi-immunité au membre du cartel qui révélera l'accord à la justice (trahison) et permettra ainsi de punir les autres membres du cartel [source p. 155].

Utilité/applications de la théorie des jeux :

  • permettre à une organisation d'influencer (programmer ?) le comportement de ses membres (NB : dans l'intérêt de la collectivité ... ou des seuls dirigeants de l'organisation) ;

    Exemples :
    • quelles modifications apporter au mode de fonctionnement d'une organisation pour améliorer l'efficacité de la collaboration entre ses membres ?
    • quels éléments du mode de fonctionnement d'une organisation non démocratique permettent-ils de neutraliser le risque de révolution démocratique ?
  • indiquer aux individus quelle stratégie adopter pour minimiser les risques (maximiser les chances).

Jeux répétitifs

Si le jeu devient répétitif chaque joueur peut alors observer les choix précédents des autres joueurs, et implémenter des stratégies visant à influencer leur comportement. Selon une expérience réalisée en 1979 par Robert Axelrod la stratégie socialement et individuellement optimale dans nos relations avec autrui est la suivante : coopérer à la première partie, puis adopter systématiquement le dernier choix fait par l'autre joueur (coopérer s'il a coopéré, trahir s'il a trahi) [source].

Selon une estimation, dans les jeux répétitifs, le pourcentage de trahisons serait proche de ... 100%, du moins lorsque les joueurs n'ont pas connaissance des conclusions d'Axelrod.

Cette stratégie dite "donnant-donnant" est de type "à mémoire courte" car elle consiste à ne tenir compte que de la dernière action de l'adversaire (coopération ou trahison) en faisant table rase du passé (même si le passé de l'adversaire n'est fait que de trahisons !).

Application. On notera que cette règle relève du bon sens et peut être appliquée aussi bien dans le travail professionnel avec les collègues que dans le travail éducatif avec les enfants (P.S. Appliquer ces conclusions exige donc de vaincre notre rancune tout autant que notre gentillesse. La raison doit l'emporter sur nos états d'âme ...). Au niveau des États, la stratégie "donnant-donnant" peut être appliquée dans la négociations des accords de libre-change conditionnel.

Encore mieux. En 2012 des chercheurs ont trouvé un type de stratégies supérieures au donnant-donnant : les stratégies "à déterminant nul". Celles-ci sont cependant éthiquement un peu plus problématiques, et cela pour deux raisons : (i) elles reposent sur un procédé statistique relativement complexe (et avantagent donc les individus capables de les comprendre/appliquer) ; (ii) elles consistent à contraindre la partie adverse. Pour ce deuxième point la problématique éthique est cependant tempérée dans la mesure où (a) il s'agirait d'une contrainte généreuse (résultat gagnant-gagnant) ; (b) dans les grandes populations qui évoluent l'optimum ne serait plus cette contrainte généreuse, mais la coopération [source].

Une excellente vidéo de vulgarisation (14m36s) sur la théorie des jeux.

Classe dirigeante

https://democratiedirecte.net/intelligence-collective/#liberalisme-marche-inefficients

On peut considérer qu'une classe dirigeante est une démocratie limitée à ses membres, ou encore que dans une démocratie directe la classe dirigeante serait constituée de l'ensemble de la population (de sorte que la notion de classe ne ferait plus sens). Dans ces phénomènes politiques et économiques la part d'auto-organisation ne doit pas être sous-estimée.

Complots ? Ainsi la réalité opérative de classes dirigeantes peut s'expliquer bien plus simplement comme relevant d'un phénomène d'auto-organisation, plutôt que comme le fruit d'une organisation volontariste. Les intérêts des parties prenantes – plus ou moins bien compris (l'opportunisme de certaines, la naïveté d'autres) – peuvent donner l'illusion d'une organisation concertée, alors même que ces parties ne se connaissent pas nécessairement, voire n'ont pas même conscience de l'intégralité des parties et intérêts en jeu.

Ceci dit, il est flagrant que la conscience de classe est (beaucoup) plus marquée chez les riches que chez les pauvres. Cela est probablement lié au contrôle des moyens de production de masse (MPM), notamment ceux du savoir et de la propagande. Or de la conscience de classe à l'organisation concertée il n'y a qu'un petit pas ...

Si l'auto-organisation peut expliquer l'existence de classes dirigeantes, l'organisation concertée en est une autre cause possible (et complémentaire). L'efficacité de cette organisation volontariste est illustrée par le spectaculaire développement économique de la Chine.

Eric X. Li : L'histoire de deux systèmes politiques (TED 2013, 20m37s)

Efficace ? Mais jusqu'où l'organisation volontariste doit-elle concertée pour être efficace, pour une majorité la plus grande possible de la population ? L'esclavagisme est le modèle économique le plus rentable (du point de vue de l'escavagiste). Par conséquent, la logique de maximisation des profits, si elle n'est pas contingentée par l'État, conduit inéluctablement à des formes d'esclavage.

D'autre part les classes dirigeantes nationales sont caractérisées par leur volonté de puissance, laquelle est à l'origine des guerres de conquête, et cela d'autant plus qu'il est aisé aux membres de l'establishment d'échapper aux devoirs militaires dangereux. Une illustration de ces faits est la guerre du Vietnam. Quant au principe de Pax Romana il est une illusion locale dans la mesure où les guerres se déroulent en dehors des frontières, puisqu'à l'instar des entreprises privées, tout empire doit s'étendre pour ne pas disparaître.

Citoyenneté numérique

https://democratiedirecte.net/intelligence-collective/#citoyennete-numerique

Le concept de citoyenneté numérique est fondamental car il constitue le principal lien institutionnel entre intelligences individuelle et collective.

La citoyenneté numérique commence par la possibilité de s'identifier sur Internet au moyen d'une carte d'identité électronique (meilleure technologie actuelle), fondement des votations en réseau et, partant, de la démocratie directe [approfondir].

Mais elle passe aussi par la maîtrise individuelle de son ordinateur et la possession d'un site ouaib, ce qui implique d'être capable de :

  1. remplacer Windows/Mac par un système d'exploitation (SE) libre/opensource sur son ordinateur (nous recommandons debian.org) ;

  2. utiliser les commandes Unix dans une console [ formation en ligne gratuite ] ;

    Très utile pour manipuler efficacement les données et programmes du SE, et en particulier pour effectuer des opérations sur l'ensemble des pages de son site web, notamment au moyen des commandes grep et sed.

  3. maîtriser les fonctions de base d'un tableur : test ;

  4. louer votre propre nom de domaine (pour votre adresse e-mail et site web) ;

    • Par exemple chez ovh.com ou gandi.net.
    • Une alternative serait un service web public allouant à chaque citoyen une adresse mail et une adresse web (ainsi qu'un compte sur un réseau social confédéral), malheureusement les décideurs politiques sont soumis à l'idéologie libérale qui interdit à l'État de concurrencer les entreprises privées, au plus grand bénéfice de sociétés telles que Google et Facebook ...
  5. configurer son client email (pour utiliser une adresse email avec votre propre nom de domaine);

  6. louer un hébergement pour son site web (NB : de préférence pas chez le même fournisseur que pour l'adresse ouaib, afin de pouvoir changer facilement d'hébergeur) ;

    Par exemple chez ovh.com.

  7. créer sa page ouaib (par exemple avec Bluefish) et la télécharger sur son hébergement (ce n'est qu'alors que vous serez capable d'utiliser pleinement un CMS tel que WordPress ou, mieux, Tiki ).

  8. appliquer les mesures élémentaires de sécurité sur Internet :

    • utiliser des mots de passe longs et nombreux, au moyen d'un gestionnaire tel que KeePassXC ;
    • mettre à jour au moins chaque mois le système d'exploitation et les programmes de votre terminal ;
    • ne cliquer sur un lien et ne sauver/télécharger un document que si vous avez confiance en l'honnêteté et les compétences de l'expéditeur/administrateur, et vérifier que l'adresse de l'expéditeur/site est exactement ce qu'elle devrait être ;
    • préférez toujours un fournisseur d'accès Internet (FAI) qui vous garantit une adresse IP dynamique, c-à-d une adresse IP qui change à chaque fois que vous vous reconnectez à Internet (en l'occurrence il est recommandé de fermer sa connexion tous les soirs) [approfondir].
      • Vérifiez votre adresse IP : whatismyip.com (NB : ce site partage vos données avec Google).
      • NB : certains FAI prétendent que votre adresse est dynamique alors qu'elle ne change que tous les x mois !
  9. Comprendre (culture générale) la structure du réseau Internet : le modèle OSI.

Formations gratuites :

Forums :

Pour les geeks :

Rôle de
l'État

Au moyen de coopératives publiques l'État devrait proposer aux consommateurs citoyens une offre alternative publique, en matière de logiciels libres et de matériels libres.

Au niveau international une Confédération des États devrait créer :

  • un organisme chargé de concevoir des normes/standards pour l'intégration de ces matériels et logiciels libres ;
  • des entreprises publiques multinationales concurrentes à Facebook, Google, Amazon, etc.

Malheureusement les traités de l'Union européenne découragent voire empêchent les États membres de créer des entreprises publiques et d'ainsi accroître la concurrence en proposant aux consommateurs une offre publique de biens et services [approfondir].

Google et YouTube

Si vous souhaitez créer votre chaîne de vidéos, Vimeo est une plateforme nettement plus évoluée techniquement que YouTube. Ainsi Vimeo permet au "Vimeaste" de modifier une ancienne vidéo. Sur YouTube cela est impossible : il faut supprimer la vidéo et télécharger sa version mise à jour, laquelle apparaîtra alors en tête de liste sur la chaîne, comme une nouvelle vidéo (donc impossible de conserver le classement chronologique des vidéos ...). Mais voilà, YouTube est ce qu'on appelle un "monopole naturel" : il est impossible de le concurrencer en raison de sa position dominante, même avec un meilleur service (ce qui est le cas de Vimeo). Pour vous en rendre compte voici une recherche comparative sur l'expression exacte "faire un graphique dans libreoffice". Le résultat est sans appel :

  1. YouTube : plus de 25 références directe :
    youtube.com/results?search_query=%22faire+un+graphique+dans+libreoffice%22
  2. Vimeo : une seule référence ... :
    vimeo.com/search?q=%22faire+un+graphique+dans+libreoffice%22

L'explication de cet étrange phénomène est toute simple : YouTube a été racheté par Google en 2006. On ne s'étonnera donc pas de constater que la recherche ci-dessus sur Google ne mentionne que des résultats de Youtube dans les premières pages :
google.com/search?q=%22faire+un+graphique+dans+libreoffice%22&tbm=vid

Mais aussi sur Qwant, le moteur de recherche "français" ... :
qwant.com/?q=%22faire%20un%20graphique%20dans%20libreoffice%22&t=videos.

Alors, votre chaîne vidéo, vous la faites chez YouTube ou chez Vimeo ... ?

La réponse à cette question explique pourquoi YouTube est un "monopole naturel". Or un monopole a pour effet que le rapport qualité/prix du bien/service concerné est inférieur à ce qu'il serait en régime de concurrence.

Une simple réglementation anti-monopolistique par l'État n'est pas une solution crédible, notamment en raison d'une asymétrie d'information entre État et entreprise privée monopolistique. Une solution long terme est que les États (i) interdisent à Google et YouTube l'accès à leur territoire au moyen de frontières numériques, et (ii) créent des entreprises publiques concurrentes pour se substituer à Google et YouTube. Dès aujourd'hui les organisations publiques utilisant YouTube pourraient déjà migrer vers joinpeertube.org, qui est un logiciel libre, sous licence AGPLv3.0, d'hébergement de vidéos, décentralisé grâce à la diffusion en pair à pair, créé en 2015 et soutenu par Framasoft. Il fonctionne sur le principe d'une fédération d'instances hébergées par plusieurs entités différentes. Son objectif est de fournir une solution alternative aux plateformes centralisées telles que YouTube, Vimeo ou Dailymotion (voir aussi fr.wikipedia.org/wiki/PeerTube).

https://democratiedirecte.net/intelligence-collective/#google-youtube

Conclusion

https://democratiedirecte.net/intelligence-collective/#conclusion

Selon nous il existe une forme d'équilibre optimal entre auto-organisation et organisation volontariste. Les conditions nécessaires de réalisation en seraient les suivantes :

Pour réaliser ces objectifs deux voies complémentaires sont envisageables :

***
Trois formes d'intelligence collective dans le règne animal
Formations d'oiseaux Formations de poissons Pont de fourmis