Intelligence collective

email Facebook Twitter
Màj : 213 oct. 2019 – # pages A4 : 26

Sciences et savoir

https://democratiedirecte.net/intelligence-collective/#sciences

Arbre des sciences

https://democratiedirecte.net/intelligence-collective/#arbre-des-sciences
Homme-Dieu

Selon le point de vue proposé ici la philosophie serait le fondement des sciences parce que le référentiel est l'être pensant, et en particulier l'être humain dans la mesure où celui-ci est considéré comme étant d'une nature particulière voire supérieure.

Pour formaliser et communiquer ses réflexions l'être humain a conçu des langages, dont l'art et les mathématiques. Progressivement il a développé les sciences, pour comprendre la nature et agir sur elle à son profit.

Le tableau suivant propose une structuration logique des sciences dans laquelle les langages exercent une fonction d'intermédiation entre la pensée philosophique (le pourquoi) et la compréhension rationnelle (le comment).

Mathématiques

https://democratiedirecte.net/intelligence-collective/#mathematiques

On peut voir le langage mathématique comme un lien entre le "pourquoi" (l'esprit ?) et le "comment" (la matière ?).

Les mathématiques traitent des formes, des nombres et des relations. Des outils majeurs en sont le calcul différentiel & intégral (*) et – particulièrement depuis l'avènement de la mécanique quantique au début du 20° siècle – le calcul probabiliste.

(*) À noter que les phénomènes naturels sont généralement continus tandis que les machines électroniques ne peuvent traiter que des données discrètes.

Objets et méthodes des mathématiques
ObjetsMéthodes

On notera que :

  • la géométrie se situe à la frontière entre le concret du monde physique et l'abstraction des nombres ;
  • dans la mesure où l'informatique matérialise la fusion entre le concret physique et l'abstrait informationnel, entre l'objet et le sens, cette technique tend peut-être à dissiper la frontière entre non-vivant et vivant (cf. le computationnalisme puis le transhumanisme).

Méthode scientifique

https://democratiedirecte.net/intelligence-collective/#methode-scientifique

Le développement d'une science est le résultat d'un cycle rétroactif composé de quatre phases : observation --> théorisation --> prédiction --> expérimentation --> observation --> ...

Cette méthode repose sur une hypothèse forte : dans chacune de ces phases le scientifique serait en mesure – pour autant qu'il respecte certains principes méthodologiques (notamment les protocoles d'expérimentation) – d'être "neutre", de sorte qu'il n'influencerait pas le résultat de son travail.

L'évaluation_par_les_pairs permet d'évaluer collectivement la qualité d'une production scientifique.

Limites du savoir

https://democratiedirecte.net/intelligence-collective/#limite-du-savoir

Au moins trois théories suggèrent l'existence de limitations (intrinsèques ?) au savoir : théorie de la complexité, théorie de la calculabilité, théorie du chaos. Une question fondamentale est de savoir si certaines de ces limites sont intrinsèques, c-à-d physiquement infranchissables.

Théorie de la complexité. La théorie de la complexité traite des limitations techniques au savoir. Pour ce faire elle établit des classes de complexité fondées sur les contraintes de ressources nécessaires à des systèmes informatiques (ordinateurs) pour résoudre un problème algorithmique. Ces contraintes sont de nature quantitative (temps et/ou espace mémoire) et qualitative (résistance à la chaleur, niveau de miniaturisation, ...) [approfondir].

Théorie de la calculabilité. La théorie de la calculabilité traite des limitations logiques au savoir. Selon cette théorie certains problèmes mathématiques ne peuvent être résolus au moyen d’un algorithme car les algorithmes et les ordinateurs, aussi puissants soient-ils, possèdent des limites intrinsèques insurmontables en raison de leur nature logique. [approfondir].

Théorie du chaos. Celle-ci concerne les systèmes dynamiques complexes, et sensibles aux conditions initiales, tels que les phénomènes météorologiques ou économiques. Dans ce type de phénomènes des différences infimes dans les conditions initiales peuvent entraîner des résultats fortement différenciés, rendant en général toute prédiction impossible à long terme (effet "papillon"). Cependant il n'y a pas indéterminisme au sens que « des causes identiques produiraient des effets différents », mais identification incomplète et mesure imparfaite des paramètres. Il n'y a donc pas remise en cause du déterminisme, mais plutôt des limites de son utilisation : cette limitation de nos capacités de mesure est-elle surmontable par le progrès scientifique et technologique, ou bien constitue-t-elle une impossibilité physique ? Selon le principe d’incertitude de Heisenberg il y a bien une limitation physique insurmontable : en physique quantique toute amélioration de la précision de mesure de la position d’une particule se traduit nécessairement par une moindre précision de mesure de sa vitesse et vice-versa [approfondir].

  • Selon le physicien François Roddier « le phénomène non linéaire de sensibilité aux conditions initiales remet en cause l’idée de déterminisme et nécessite une révision de la notion de causalité. Les biologistes s’aperçoivent aujourd’hui que les gènes coévoluent avec leur environnement sans qu’il y ait nécessairement une relation de cause à effet » [source].
  • Les voies du Seigneur ... Ces trois théories conduisent à la réflexion suivante : s'il existe des phénomènes naturels dont les lois seraient intrinsèquement insaisissables, on peut alors interpréter le phénomène religieux comme une perception et expression intuitive de la nature insondable de certains phénomènes (cf. « Les voies du Seigneur sont impénétrables »).

Intelligence

https://democratiedirecte.net/intelligence-collective/#intelligence

On pourrait commencer par définir l'intelligence de façon générale, comme « la capacité de raisonnement, conduisant à une amélioration des conditions de vie du sujet ».

Cette capacité de raisonnement est fonction des capacités du sujet en matière de traitement d'informations (données) :

  1. perception (collecte) ;
  2. mémorisation (stockage) ;
  3. calcul (vitesse) ;
  4. restitution (application).

L'intelligence a comme propriété de pouvoir agir sur elle-même : elle peut améliorer ses performances, via l'apprentissage, en concevant des méthodes et en construisant des outils, et en les améliorant constamment.

Pseudo-
intelligence

On notera que cette définition pourrait s'appliquer aussi bien à l'intelligence naturelle (entendez "des organismes vivants", humains ou non) qu'artificielle (entendez "non-vivante") dès lors que le sujet peut être une machine, ce qui participe à flouter sinon supprimer la frontière entre "vivant" (= "qui fonctionne") et "non vivant" (= "qui ne fonctionne pas").

Mais avons-nous là cerné l'intelligence dans toute la subtilité et diversité que l'on constate chez les humains ? Dans le doute répondons par la négative, et considérons qu'à ce stade de notre travail de définition nous n'avons cerné qu'une forme réduite "d'intelligence", que nous appellerons "pseudo-intelligence".

Raisonnement

Dans notre définition développée jusqu'ici il reste à préciser ce qu'on entend par "raisonnement". Selon nous cette méthode de l'intelligence est une capacité à synthétiser une problématique c-à-d à identifier les facteurs explicatifs d'un phénomène et à décrire leur relations, de sorte que la connaissance de la synthèse (dont l'expression la plus réduite peut-être une formule mathématique) permet de maîtriser le phénomène (le reproduire et l'utiliser comme outil).

On notera que les capacités instinctives (par exemple la capacité des animaux à se soigner) ne rentrent pas dans cette définition.

Une méthode de synthétisation est la théorie des graphes, dont des applications peuvent prendre la forme d'algorithmes. Python est un langage très populaire pour coder des algorithmes.

Mais avons-nous beaucoup avancé ? Des animaux ou des machines ne serait-elles pas capable de "raisonner" au sens défini ci-dessus ? Il nous faut encore creuser, et pour ce faire une méthode consiste à analyser des cas réels d'intelligence humaine. Mais avant, développons la notion d'intelligence artificielle, ce qui nous permettra ensuite de cerner "en creux" l'intelligence humaine.

Intelligence artificielle

https://democratiedirecte.net/intelligence-collective/#intelligence-artificielle
Définition

Nous définissons l'IA comme « l'apprentissage automatique par des machines ("machine learning"). Celui-ci peut être réalisé par des ordinateurs appliquant des boucles de rétroaction ("feedback") à partir de l'exploration de données ("data mining") et le raisonnement logique » (algorithmes).

IA-schema.png

L'apprentissage automatique permet à des machines de faire des prévisions météo (notamment au moyen de la technique du réseau bayésien) ou encore de jouer aux échecs, tout en améliorant leurs performances au fur et à mesure des expériences.

Le web des objets permet de collecter des données de toutes sortes en temps réels. D'autre part, grâce au progrès technologique, la vitesse de calcul et la capacité de mémorisation des ordinateurs ont dépassé les capacités humaines (ou les ont étendues, selon l'interprétation transhumaniste), et sont en voie d'être démultipliées par des technologies telles que réseau neuronal et calculateur quantique.

Commercialement très porteur, le concept d'IA fait parfois l'objet d'interprétation abusives, notamment par l'exagération des capacités de technologies qualifiées d'IA.

Les 3 bugs majeurs du "big data" (4m54s - 2015)

Plus fort que le "big data" ? « Il y a quelques années, des chercheurs ont appris à un ordinateur à jouer aux échecs en entrant dans sa mémoire les millions de combinaisons des jeux existants, et il a été capable de battre le champion du monde. Plus récemment, une machine à qui on a appris à jouer, sans lui injecter les données, aurait atteint le meilleur niveau mondial en quatre heures » [source, à confirmer par une source scientifique ...].

Problématiques

Finalement l'IA est un forme évoluée de ce que l'on appelait au vingtième siècle les systèmes experts, qui étaient conçus et perçus comme des outils d'aide à la décision. Avec l'IA il y a un changement de paradigme : dès lors que les capacités de traitement des données (vitesse de calcul, et quantité de mémoire) par les ordinateurs on dépassé les capacités humaines individuelles on assiste à un déplacement de paradigme : les outils "d'aide à la décision" deviennent des instruments "de décision" (cf. les véhicules autonomes), capables "d'apprendre" par eux-mêmes c-à-d de se reprogrammer. L'on passe ainsi subrepticement du « politique, contestable parce que compréhensible par l'homme » au « scientifique, incontestable car incompréhensible par l'homme ».

Intelligence artificielle

Des scientifiques ont ainsi exprimé leur crainte que l'IA dépassant l'intelligence humaine, elle puisse la soumettre à son contrôle voire détruire le genre humain. D'autre scientifiques rétorquent que ce risque peut être neutralisé par la technique consistant à contraindre l'IA par des "contrats intelligents" dans des chaînes de blocs [source].

La notion, résolument optimiste, de transhumanisme étend la problématique à une transformation disruptive des capacités psychiques et physiques des humains.

Le physicien François Roddier fait remarquer que les ordinateurs ont un effet semblable à une démultiplication des capacités de la partie du cerveau humain traitant la rationalité, le néocortex. « Quoique plus puissants que lui, ils lui sont pourtant entièrement soumis. De la même façon, notre néocortex est soumis à notre cerveau limbique, siège de nos émotions, qu’on appelait autrefois le "cœur". Notre cerveau limbique est lui-même au service d’un cerveau encore plus ancien, le cerveau reptilien. Ce dernier a été créé par nos gènes pour les servir. C’est pourquoi Richard Dawkins les qualifie d’égoïstes. Simples molécules, nos gènes obéissent quant à elle aux lois de la thermodynamique » [source].

Mais l'intelligence se résume-t-elle à des concepts informatiques : qu'en est-il de la sensibilité, de l'humour, du sens critique ou encore de la notion plus collective de culture ?

Intelligence humaine

https://democratiedirecte.net/intelligence-collective/#intelligence-individuelle

Capacités et comportements

Le physicien François Roddier définit l'intelligence d'un individu humain ou animal en ces termes : « Pris isolément, tout animal cherche à maximiser ses chances de survie (de dissiper de l’énergie). Pour cela, il répond à des stimuli (informations venant de l’environnement) en déclenchant des actions appropriées (travail mécanique). Le comportement le plus intelligent est celui qui déclenche le plus rapidement les actions les mieux appropriées » [source].

On pourrait proposer une définition alternative, de nature anthropocentrique, en définissant l'intelligence comme « un ensemble de capacités et comportements qui distinguent l'homme des autres animaux ainsi que des machines ». La problématique est ainsi déplacée de "vivant vs non-vivant" à "humain vs non-humain" (c-à-d animale ou non-vivant).

Nous avons vu que les capacités de traitement de données, telles que le volume de stockage (mémoire) et la vitesse de calcul, ne sont pas typiquement humaines puisqu'elles sont également (i) reproductibles par des machines (qui peuvent dépasser les capacités humaines en la matière), et (ii) observées chez les animaux.

Les autres animaux partagent avec l'homme la souffrance et le plaisir psychique. Peut-être sont-ils même capables de capacités intellectuelles évoluées telles que l'esthétique, l'invention, la projection idéalisée dans l'avenir (bien que cela reste à confirmer, et à distinguer d'une interprétation anthropomorphique).

Par contre l'humour, la volonté de comprendre les lois de la nature, le sentiment religieux, ou encore le suicide semblent spécifiques au genre humain et le distinguer de l'animal et de la machine.

Les machines ne peuvent qu'imiter ces capacités (ce qui est déjà pas mal, et d'autant plus, dans certains cas, lorsqu'il y a amplification).

  • La croyance en un dieu est très liée aux notions d'éthique et de justice, lesquelles sont typiquement sociales puisqu'elles impliquent les relations entre individus.
  • Quid de l'instinct ? Nous humains, nous nous considérons plus intelligents que les animaux malgré que – sans enseignement spécifique – nous sommes incapables d'identifier les herbes médicinales, alors que les animaux en sont tous capables instinctivement. Nous y arrivons certes par la voie moins intuitive de la science et de l'enseignement, dans laquelle la relation dynamique entre individus et société joue un rôle déterminant.

Émotion

Si l'impulsivité et l'émotivité extrême risquent de nous faire prendre de mauvaises décisions, la rationalité peut nous y pousser tout autant. Ainsi les travaux d'Antonio Damasio auprès de personnes souffrant de lésions au niveau du lobe frontal du cortex cérébral, ayant pour effet de supprimer toute émotion, ont montré que ces personnes n'étaient plus aptes à prendre de bonnes décisions [source].

Il semble que le débat social fonctionne largement sur le mode émotionnel. Ainsi en politique et en économie, que l'on cherche à "gauche" ou à "droite", il devient de plus en plus difficile de trouver des discours qui n'exploitent pas le registre de l'émotionnel. C'est notamment le cas des débats sur le climat, l'immigration, le libre-échange ou encore l'Union européenne, où stigmatisation et moralisme confrontent leurs simplismes respectifs. Mais c'est notamment au travers de ce débat que l'intelligence collective peut opérer, pour autant que la liberté d'expression soit préservée.

Nous entendons par intelligence émotionnelle, notamment la capacité à maîtriser nos émotions, et utiliser nos émotions ainsi que celles d'autrui [approfondir].

Quelle est la nature de la relation entre intelligence émotionnelle et ego ?

Ethique

L'éthique et la morale, dans la mesure où elles distinguent le genre humain du genre animal, pourraient constituer un élément majeur de l'intelligence. Il ne s'agit donc pas de performances mécaniques (vitesse de travail, capacité de mémorisation, ...) mais plutôt relationnelles.

Conscience

https://democratiedirecte.net/intelligence-collective/#conscience

La notion de conscience implique celles de libre arbitre, volonté et responsabilité. Ainsi le philosophie et physicien Dominique Lambert résume comme suit les traits distinctifs de l'humain :

  • dépasse sans cesse les limites du langage pour l'interpréter et donner du sens ;
  • sort de ses propres représentations décrivant sa nature ;
  • assume des risques en dehors de ce qui est rigoureusement calculable (N.D.A. : Lambert cite cet élément dans le cadre d'une argumentation contre l'abandon de nos décisions à des systèmes d'intelligence artificielle, notamment dans la justice) ;
  • capacité à limiter sa toute-puissance et sa toute-maîtrise pour faire place à l'autre (N.D.A. : n'est-ce pas propre à tous les animaux ?) [source].

Dans son roman "Pantagruel" écrit en 1532, François Rabelais fait dire à Gargantua écrivant à son fils Pantagruel : « science sans conscience n’est que ruine de l’âme ».

Conscience artificielle ? Pourrait-on fabriquer des machines conscientes ? Oui affirme la théorie computationnaliste, à l'instar du psychologue Philip Johnson-Laird qui énonce les conditions suffisantes à vérifier pour créer des ordinateurs conscients [source : « A computational analysis of consciousness » 1988]. Au contraire le mathématicien Roger Penrose soutient que les ordinateurs, considérés comme des machines de Turing ou des systèmes formels, sont fondamentalement dans l'incapacité de modéliser l'intelligence et la conscience. Les ordinateurs étant des systèmes déterministes, ils sont soumis aux limitations des systèmes formels, par exemple l'insolvabilité du problème de l'arrêt ou le théorème d'incomplétude de Gödel. Selon Penrose, l'esprit d'un authentique mathématicien est capable de surmonter ces limitations, car il a la capacité de s'extraire au besoin du système formel dans lequel il raisonne, quel que soit celui-ci [source].

Inconscience. Une expérience réalisée en 1983 par Benjamin Libet montre que l’activation cérébrale (supposée inconsciente) précède la décision consciente. Dans une autre expérience réalisée en 2008 par Chun Siong Soon l'activation cérébrale est observée jusqu'à 10 secondes avant la décision consciente, et en outre l'observation des zones cérébrales activées permet dans 60% des cas de prédire correctement le type de décision que l'individu observé prendra. En 2011, utilisant une autre technologie Itzhak Fried obtient un taux de prédiction correcte de 80%, 700 millisecondes avant la décision consciente [source]. Doit-on en déduire que le libre-arbitre ne serait qu'une illusion rétrospective sur nos actes ? Ne serions-nous que des feuilles balancées par le vent du déterminisme ?

Résultat de l'expérience de Libet

Expérience de Libet

Source

Quelques questionnement et faits viennent tempérer une éventuelle réponse affirmative à ces questions :

  • L'activation neuronale précédant la décision n'est-elle pas déterminée par la participation volontaire de l'individu à l'expérience ?

  • Si nous subissons en provenance de notre environnement des influences dont nous n'avons pas nécessairement conscience, il demeure que c'est justement le laps de temps entre intention/volonté et décision qui permet éventuellement à l'individu de ne pas passer à l'acte. Ainsi la conscience est liée à la réflexion, laquelle procède selon un mécanisme de boucle de rétroaction et d'inférence bayésienne [source].

    Le phénomène étudié dans les expériences mentionnées ci-dessus ne doit pas être confondu avec le réflexe, qui est une réaction musculaire stéréotypée et très rapide à un stimulus, sans intervention du cerveau et de la volonté consciente

  • Des expériences ont montré que les individus qui croient dans le déterminisme de l'être humain, ont plus tendance à se comporter de façon malhonnête que des individus croyant dans leur libre arbitre. Ainsi, fondée ou non, la croyance dans le libre-arbitre présente l'avantage d'être socialement éthique.

Rationalité. Les individus n'étant généralement pas conscient de leurs biais cognitifs, l'interaction avec des systèmes intelligents peut aider à faire émerger ces biais dans la conscience.

Comparaison humain vs machine

Des systèmes informatiques sont aujourd'hui capables de battre les meilleurs joueurs de jeu d'échec (première : superordinateur Deep Blue en 1997) et même du jeu de Go (première : programme AlphaGo en 2015).

Cette performance est due aux capacités supérieures des ces systèmes en matière (i) de stockage de grandes quantités de données et (ii) de vitesse de traitement de ces données, qui rendent possible des fonctions d'apprentissage automatique.

Gestion de l'incertitude

Voici une série de capacités cognitives propres aux êtres humains, et dans certaines mesures à l'ensemble des organismes vivants :

  • gestion de l'incertitude (NB : automatisable notamment au moyen de la technique du réseau bayésien) ;
  • extrapolation ;
  • "erreurs" commises par l'imperfection humaine mais qui produisent parfois de grandes avancées ;
  • capacité à prendre des décisions relativement adaptées à la situation malgré un manque substantiel d'informations en entrée (ce que l'IA réalise parfois très mal en comparaison avec les humains) ; ...

    On rejoint ici les notions d'intuition et d'art (du diagnostique médical par exemple), voire d'âme.

Comment les machines peuvent-elles reproduire ces comportements autrement qu'en les simulant. Mais simuler est-ce reproduire au sens de produire ? Si cette distinction est effective ne serait-elle pas liée à celle entre décision (par des humains) et aide à la décision (par des machines - exemple).

Bilan énergétique

Mais il serait intéressant de voir si l'apparente supériorité de l'intelligence artificielle (IA) sur l'intelligence humaine/naturelle résiste à l'analyse économique et plus particulièrement à l'aune du ratio "performance / consommation d'énergie". Pour une vitesse déterminée d'un traitement déterminé d'une quantité déterminée d'informations, l'intelligence artificielle consomme-t-elle moins, autant ou plus d'énergie que l'intelligence naturelle/humaine ?

Nous n'avons pas encore trouvé d'étude empirique à ce sujet, mais l'analyse théorique laisse peu de doutes. D'une part l'intelligence naturelle, étant le résultat d'un processus évolutif de plusieurs millions d'années, est probablement d'une efficacité redoutable. D'autre part, en raison du premier principe de la thermodynamique (la matière et l'énergie ne peuvent être créées ou détruites mais seulement transformées) la supériorité apparente de l'intelligence artificielle sur l'intelligence humaine ne peut "venir de nulle part", et doit très probablement impliquer une consommation plus élevée d'énergie.

Les coûts cachés
du numérique

L'intelligence artificielle est souvent évoquée comme moyen de rationaliser la consommation d'énergie. Ainsi Deepmind, la filiale IA de Google, a optimisé la consommation énergétique de ses centres de données et de ses systèmes de refroidissement grâce à l’apprentissage machine. Il a ainsi augmenté l’efficacité énergétique de ses centres de données de 15% [source p. 128].

Il importe cependant de souligner le caractère souvent illusoire de ces "économies d'énergie".

Il y a d'abord l'effet rebond – encore appelé "paradoxe de Jevons" – phénomène de "fuite en avant" par lequel, quand on augmente l’efficacité avec laquelle une ressource est employée, la consommation totale de cette ressource a toutes les chances d’augmenter au lieu de diminuer. Or s'il s'avère que le réchauffement climatique (i) est essentiellement d'origine entropique et (ii) nuisible au développement durable, alors la "supériorité" de l'IA est une victoire à la Pyrrhus. Peut-on alors encore parler "d'intelligence supérieure" ?

Il convient en outre d'évaluer correctement l'apport de l'IA en matière de rationalisation énergétique, en intégrant dans les calculs la totalité des coûts directs et indirects, notamment l'énergie consommée pour fabriquer, utiliser et recycler le matériel, dont les processeurs et leur système de refroidissement.

Un processeur, c’est comme une résistance : presque toute l’électricité qu’il consomme est dissipée en chaleur. C’est pourquoi, en plus de consommer de l’énergie pour faire tourner ses serveurs, un data center doit être climatisé afin de préserver l’intégrité des circuits électroniques.

D'après une étude réalisée par Digital Power Group publiée en 2013 [source] les coûts énergétiques du numérique sont largement cachés, la partie connue n’étant que la pointe de l’iceberg. L’économie numérique de la planète consomme déjà 50% d’énergie de plus que l’aviation du monde entier. Les datacenters ne représenteraient que 20% de l’électricité consommée par les appareils et réseaux numériques, les 80% restants étant très dispersés. Selon DPG la demande d’usage des centres de données augmentera plus vite que leurs gains en efficacité énergétique. Ces tendances vont rendre nécessaire l’usage de plus de charbon, estime l’étude, qui est sponsorisée par deux organisations du secteur minier, la National Mining Association et l’American Coalition for Clean Coal Electricity [source].

Si l’on considère la totalité de son cycle de vie, le simple envoi d’un mail d’1 mégaoctet (1 Mo) équivaut à l’utilisation d’une ampoule de 60 watts pendant 25 minutes, soit l’équivalent de 20 grammes de CO2 émis. On ne s'étonnera donc pas de constater que le secteur des nouvelles technologies représente à lui seul entre 6 et 10 % de la consommation mondiale d’électricité, soit près de 4 % de nos émissions de gaz à effet de serre. Environ 30 % de cette consommation électrique est imputable aux équipements terminaux (ordinateurs, téléphones, objets connectés), 30 % aux data centers qui hébergent nos données, et 40 % aux réseaux, les fameuses "autoroutes de l‘information" [source].

Selon certaines estimations, à la fin des année 2020 la consommation d’énergie des appareils informatiques consommera 60 % de la quantité totale d’énergie produite, et deviendra totalement insoutenable d’ici 2040. Une solution consiste peut-être à remplacer les actuels processeurs électroniques (qui utilisent des électrons) par des processeurs optiques (qui utilisent des photons, lesquels ne génèrent pas de chaleur et se propagent plus rapidement) [source].

Enfin la consommation énergétique des nouvelles technologies n’est qu’un aspect du défi environnemental qu’elles posent. Ainsi nos smartphones contiennent des dizaine de différents métaux et terres rares (or, cuivre, nickel, zinc, étain, mais aussi arsenic, gallium, germanium, thallium, tantale, indium, ...) qui sont extraits du sous-sol en utilisant des techniques particulièrement destructives et des produits nocifs pour l’environnement comme l’acide sulfurique, le mercure et le cyanure [source].

Subtilité et diversité humaine

Pourrions-nous construire une machine capable :

  • de ressentir :
    • des sensations de plaisir et de douleur (avec toutes les subtile intermédiarités, telles que le plaisir de l'effort physique pouvant aller jusqu'à la souffrance) ;
    • des sentiments de joie et de tristesse (avec toutes les subtiles intermédiarités que l'on résume par la notion d'émotions) ;
    • de la jalousie et de la colère par rapport à autrui (que l'on peut regretter lorsqu'elles ont des conséquences nuisibles, mais qui sont parfois à l'origine de brillantes réalisations humaines).
  • de rêver (NB : une activité que nous ne contrôlons pas) ;
  • de faire preuve de sens de l'humour (sous toutes ses formes : pince-sans-rire, absurde, grivois, ...) ;
  • de comprendre les points de vue de deux parties à un conflit, et de prendre des décisions de justice plus efficacement que des humains ? ...

Comment pourrions-nous en outre faire en sorte que les différentes reproductions de cette machine puissent se distinguer les unes des autres (et ainsi reproduire l'infinie diversité des personnalités humaines), tout en étant capables de constituer des groupes partageant des valeurs communes (cultures, ethnies, ...) et par rapport auxquels ces machines éprouveraient un sentiment d'appartenance, ... mais qu'elles pourraient par ailleurs rejeter, par exemple en raison d'un parcours "personnel" devenu incompatible avec celui du groupe ?

Mais quel serait le sens d'une telle démarche "créationniste" ("pour quoi faire"), et quel en serait son coût (*), notamment environnemental ?

(*) À cet égard la bio-ingénieurie permet de ne pas "réinventer la roue" (ou d'inventer la roue vivante ...).

Intelligence collective

https://democratiedirecte.net/intelligence-collective/#intelligence-collective

Culture

Si l'on définit simplement la culture comme étant « tout stockage d'information » la culture ne serait plus l'apanage des humains. Mais si l'on se situe dans le cadre de notre définition anthropocentrique de l'intelligence, nous devrions définir la culture comme « tout stockage d'information dans le cerveau humain ». D'autre part la culture ne peut être réduite simplement au stockage d'informations : il y a également l'aspect relationnel, qui correspond à des échanges/partages d'informations.

On sait aujourd'hui que le comportement humain n'est que partiellement déterminé par ses gènes. Les interactions entre chaque individu et son environnement sont également déterminantes, et ont même pour effet de modifier la structure du cerveau (cf. par exemple les mécanismes neuronaux de modification plastique expliquant la différence entre mémoire à court et long terme), voire semble-t-il sur les gènes eux-mêmes ! Cela concerne l'ensemble du règne animal, sauf que l'aspect culturel (et donc social) jouerait un rôle bien plus important chez les humains que chez les autres animaux, notamment en raison des capacités humaines particulièrement développées en matière de langage (vocabulaire, syntaxe, grammaire, informatique, Internet, ...).

Différences culturelles. Depuis le début du siècle, le QI baisse ... en Occident, de sorte qu'aujourd'hui le QI moyen est de seulement 98 en France et aux USA, contre 108 à Hong Kong et Singapour. Une des causes pourrait être la qualité et les budgets de l'enseignement, plus élevés dans les pays asiatiques [source]. Une étude plus récente suggère un éventail plus large de facteurs explicatifs : déclin des valeurs éducationnelles, dégradation des systèmes éducatifs et scolaires, télévision et médias, dégradation de l'éducation au sein des familles, dégradation de la nutrition, dégradation de la santé [source], mais confirme le rôle prépondérant de l'éducation. Ces études sont cependant contestées par d'autres chercheurs selon qui, si l’on prend en compte l’ensemble des données internationales, il n'y aurait pas de baisse mais plutôt stagnation, qui pourrait s'expliquer par l'approche de limites intrinsèques à l’espèce humaine [source].

Des foules
intelligentes

Les phénomènes de lynchage collectif montrent que les foules peuvent être cruelles et irrationnelles. Cependant, pour autant qu'un groupe soit bien auto-éduqué et organisé il peut faire preuve d'une grande rationalité et efficacité. Ce fait ne remet cependant pas en question l'utilité des experts et suggère que la collaboration entre masses "généralistes" et experts "spécialistes" permet d'aboutir à de meilleures décisions collectives.

La foule est-elle plus performante que les experts ? (2m43s - 2017)

Intégration

Client-serveur
vs
pair à pair

L'intégration des savoirs relève nécessairement d'un processus collectif, car aucun chercheur ne peut connaître et comprendre la totalité des connaissances, même de sa propre branche. Ce processus fonctionne dans le cadre d'un réseau mixte, c-à-d à la fois pair-à-pair et centralisé : des échanges de savoirs sont opérés "individuellement" dans le cadre d'un réseau pair à pair, et d'autre part une intégration des savoirs est opérée "globalement" qui requiert nécessairement une forme ou l'autre de centralisation.

Approfondir : "Réseau client-serveur vs pair à pair"

Local
vs
global

La problématique de l'arbitrage entre centralisation et décentralisation est évidemment liée à la relation entre individus et société c-à-d entre niveaux local et global. On notera que les sciences "exactes" sont également confrontée à une problématique d'intégration entre niveaux local et global. Ainsi selon l'état actuel des connaissances en physique quantique, il semble qu'en-dessous d'une taille "charnière" située entre les niveaux moléculaire et atomique (niveau microscopique) les lois naturelles seraient différentes de celles observées au niveau macroscopique [vidéo de vulgarisation - 9m59s].

Indétermination quantique. Cependant cette absence apparente de cohérence ne se manifeste que lorsque l'observateur est (ou s'est mis) dans l'incapacité d'identifier – parmi plusieurs comportements possibles des particules – celui va déclencher la mesure du phénomène observé ... (situation dite d'indétermination quantique) [vidéo de vulgarisation - 19m22s].

Pourtant, le global/macro étant composé du local/micro, on pourrait s'attendre à une cohérence d'intégration entre les deux dimensions ... (PS : ce principe de cohérence vaut aussi bien pour les sciences exactes que pour les sciences humaines).

Émergence

L'émergence est un phénomène selon lequel le tout serait plus que la somme de ses parties, et dont les automates cellulaires sont une illustration. Ainsi une équipe de chercheur de l'ULB a montré que des robot peuvent, collectivement, séquencer des actions dont l’ordre d’exécution est à priori inconnu [source].

Dans le chapitre "Méthodologie" est présentée une méthodologie appliquée à la conception et au développement d'un système de gouvernance de démocratie directe. Cette méthodologie active les phénomènes d'auto-organisation et d'émergence au moyen de trois principes fondamentaux : les comparaisons croisées, les validations itératives et la redondance initiale.

Auto-organisation

Nous commencerons cette section par les fondements physiques de l'auto-organisation, que sont les structures dissipatives. Ensuite nous en verrons des applications en économie politique : démocratie directe, classe dirigeante, "main invisible".
Structures dissipatives

Le physicien François Roddier estime que « le concept de réseau neuronal peut s’appliquer à toute structure dissipative considérée comme un ensemble d’agents échangeant de l’énergie et de l’information. On sait aujourd’hui que ces agents s’auto-organisent pour maximiser la vitesse à laquelle ils dissipent l’énergie (principe d'entropie maximale). C’est apparemment le cas des molécules d’air dans un cyclone, des bactéries dans une colonie, des fourmis dans une fourmilière comme des neurones dans notre cerveau. C’est aussi le cas des sociétés humaines. Peut-on leur appliquer à tous le même modèle d’auto-organisation ? » [source]. Le physicien danois Per Bak a montré que tous s’auto-organisent suivant un processus qu’il a baptisé "criticalité auto-organisée" par lequel les structures dissipatives s'organisent à la manière des transitions de phase continues, comme le passage de l’état liquide à l’état solide, c-à-d au passage d’un état désordonné (l’état liquide) a un état ordonné (l’état cristallin). Des avalanches de bifurcations produisent des arborescences fractales : amplification des fluctuations --> rupture de symétrie (avec invariance par changement d'échelle) --> apparition et mémorisation d'information.

Selon Roddier, en biologie l'ontogenèse correspondrait à une transitions abruptes, et la phylogenèse à une transition continue. Les transitions abruptes nécessitent un apport extérieur d’information sous la forme d’un germe. Lors des transitions continues – cas des structures dissipatives – de l’information apparaît progressivement au fur et à mesure que la phase ordonnée se développe. Ces informations se propagent par percolation au sein de domaines d'Ising. En biologie, l’information est mémorisée dans les gènes. Les êtres vivants qui partagent les mêmes gènes forment des domaines d’Ising appelés espèces animales ou végétales. Chez l’homme l’information est principalement mémorisée dans son cerveau. Les sociétés humaines mémorisent à leur tour de l’information dans les livres, plus récemment dans les ordinateurs. C’est ce qu’on appelle la "culture". Les individus qui partagent la même culture forment des domaines d’Ising sous la forme de sociétés humaines. Les lois de la thermodynamiques expliquent donc aussi le phénomène sociologique d'auto-organisation [source1, source2].

Exploitation. On notera que l'exploitation des salariés est fondée sur l'appropriation de la plus-value collective – fruit du phénomène d'émergence – alors que les salariés sont payés selon un salaire déterminé.

François Roddier note que les sociétés humaines forment un réseau neuronal d'agents interconnectés, auquel correspond le modèle de cerveau de Bak et Stassinopoulos. La figure suivante montre un schéma de ce modèle. Dans les simulations numériques l'information reçue se limite à un signal binaire (par exemple un feu devient vert ou rouge), de même que l'action mécanique qui en résulte ("si vert alors appuyer sur pédale droite, si rouge appuyer sur pédale gauche"). Lorsque le bon levier est choisi, tous les neurones reçoivent le même signal de récompense/satisfaction lié à un apport d'énergie (par exemple le cobaye reçoit de la nourriture).

Cerveau de Bak-Stassinopoulos

Le modèle de cerveau de Bak et Stassinopoulos reçoit de l’information (Q2) de l’environnement sur lequel il agit (W=Q1-Q2) de façon à obtenir de l’énergie (Q1).

« Les neurones excités (cercles gris) forment un domaine d'Ising. Lorsque ce domaine percole, il connecte une information reçue à une action (travail mécanique). Le modèle s'auto-organise de façon à maximiser l'énergie reçue. La figure ci-dessus représente un réseau régulier de neurones mais les simulations faites avec des réseaux quelconques marchent également. Dans le cas d'une société humaine, chaque agent peut aussi bien recevoir de l'information que déclencher une action. Il peut aussi communiquer à distance avec n'importe quel autre agent » [source].

Le modèle de Stassinopoulos et Bak implique que le cerveau s’auto-organise, à l’aide d’oscillations de part et d'autre d’un point critique, seuil de percolation. Deux paramètres sont impliqués : l’intensité des connections entre les neurones, et le seuil à partir duquel l’information est transmise d’un neurone à l’autre. Ces paramètres oscillent au cours du temps de façon à maximiser la «satisfaction» générale. Par analogie avec les cycles de Carnot les seuils jouent le rôle d’une température. Des seuils bas facilitent leur franchissement, comme le ferait une température élevée; des seuils élevés empêchent leur franchissement comme le ferait une température basse. L’intensité des connections joue le rôle d’une pression. Elle mesure un flux de charge comme la pression mesure un flux de particules qui frappent une paroi [source].

Roddier note que « ce modèle peut servir à modéliser l'économie dans une société faite d'individus tous interconnectés entre eux (...). Dans le cas d'une économie humaine, on peut assimiler l'excitation des neurones à la richesse monétaire des individus. Les signaux d'entrée expriment le besoin en produits ou services. La transmission des signaux correspond à des transactions financières. En l'absence de percolation, ces transactions se limitent à des placements financiers. Lorsque le réseau percole, il conduit à une offre commerciale. Dans ce schéma, l'économie financière représente les réflexions du cerveau global. L'économie de production traduit ses actions réelles » [source].

Le modèle peut également expliquer la dynamique du progrès scientifique : « les sociétés humaines s’auto-organisent en formant un cerveau global capable de mémoriser toujours plus d’information. Cette information leur permet de dissiper de plus en plus d’énergie. C’est ce que nous appelons le progrès scientifique et technique. (...) Un réseau neuronal reçoit de l’information de sa source froide: c’est le cas du cerveau global que forme notre société. (...) La température de cette source froide peut s’exprimer en Euros dépensés par bits d’information mémorisée. Cela soulève le problème du coût de la recherche scientifique. Plus ce coût est important, plus la température de notre source d’information est élevée et plus le rendement de Carnot de notre société est bas. (...) Les sociétés humaines s’effondrent lorsque leur rendement de Carnot est trop bas » [source].

Nous allons maintenant voir que ces phénomènes physiques permettent d'expliquer des phénomènes sociaux.

Classe dirigeante et auto-organisation

On peut considérer qu'une classe dirigeante est une démocratie limitée à ses membres, ou encore que dans une démocratie directe la classe dirigeante serait constituée de l'ensemble de la population (de sorte que la notion de classe ne ferait plus sens). Dans ces phénomènes politiques et économiques la part d'auto-organisation ne doit pas être sous-estimée.

Ainsi la réalité opérative de classes dirigeantes peut s'expliquer bien plus simplement comme relevant d'un phénomène d'auto-organisation, plutôt que comme le fruit d'une organisation volontariste. Les intérêts des parties prenantes – plus ou moins bien compris (l'opportunisme de certaines, la naïveté d'autres) – peuvent donner l'illusion d'une organisation concertée, alors même que ces parties ne se connaissent pas nécessairement, voire n'ont pas même conscience de l'intégralité des parties et intérêts en jeu.

Il y a ici un parallèle flagrant avec le concept de main invisible, théorie proposée au 18° siècle par Adam Smith, selon laquelle l'ensemble des actions individuelles des acteurs économiques, guidées uniquement par l'intérêt personnel de chacun, contribueraient à la richesse et au bien commun (NB : cette théorie présuppose cependant diverses conditions, généralement non vérifiées, dont la concurrence parfaite).

Le fait que la conscience de classe est (beaucoup) plus marquée chez les riches que chez les pauvres est probablement lié au contrôle des moyens de production de masse (MPM), notamment ceux du savoir et de la propagande.

Enfin si l'auto-organisation peut expliquer l'existence de classes dirigeantes, l'organisation volontariste est une autre cause possible, illustrée notamment par le spectaculaire développement économique de la Chine.

Eric X. Li : L'histoire de deux systèmes politiques (TED 2013, 20m37s)

Selon nous il existe une forme d'équilibre optimal entre auto-organisation et organisation volontariste. Une double condition nécessaire de cet équilibre serait le partage des pouvoirs politique (démocratie directe) et financier (allocation universelle --> notion d'écart de richesse optimal).

Théorie des jeux

Équilibre non-collaboratif

Le dilemme du prisonnier est un fondement de la théorie des jeux. Chaque joueur doit prendre sa décision sans observer celle prise par l'autre. Le paradoxe est que collectivement les deux joueurs ont intérêt à collaborer, mais qu'individuellement chacun à intérêt à ne pas collaborer. Or comme chacun prend sa décision individuellement "l'équilibre théorique du jeu" est que chacun "dévie" et gagne moins que s'ils avaient collaboré. Cet "équilibre" correspond à une "stratégie dominante" c-à-d que pour prendre sa décision un joueur n'a pas besoin d'anticiper ce que veux faire l'autre. En l'occurrence, que son adversaire choisisse de collaborer ou de trahir, chaque joueur a intérêt à ne pas collaborer (cependant, en pratique on constate qu'environ 20% des joueurs choisissent la coopération).

Pour bien comprendre la théorie des jeux il faut se garder d'associer systématiquement un caractère positif à la collaboration et négatif à la non collaboration : tout est relatif. Ainsi un cartel peut maximiser ses revenus (au détriment du reste du monde ...) en convenant (i) de quotas de production et (ii) de punitions en cas de dépassement des quotas. Pour neutraliser cette collaboration l'État (ou une autorité internationale) peut par exemple assurer une quasi-immunité au membre du cartel qui révélera l'accord à la justice et permettra ainsi de punir les autres membres du cartel [source p. 155].

Jeux répétitifs

Si le jeu est répétitif chaque joueur peut implémenter des stratégies visant à influencer le comportement des autres joueurs. Selon une expérience réalisée en 1979 par Robert Axelrod la stratégie socialement et individuellement optimale dans nos relations avec autrui est la suivante : punir dès la première trahison, pardonner dès la première coopération [source].

Cette stratégie dite "donnant-donnant" est de type "à mémoire courte" car elle consiste à ne tenir compte que de la dernière action de l'adversaire (coopération ou trahison) en faisant table rase du passé (même si le passé de l'adversaire n'est fait que de trahisons !).

Une autre particularité notable de cette stratégie optimale est qu'elle permet – sur le long terme – de battre les adversaires dont la stratégie est de remporter un maximum de duels, et celà même s'ils y arrivent ! La raison en est que, dans un jeu répétitif à somme non nulle, la maximisation du nombre de victoires en duels ne maximise pas l'accumulation de points (c'est un peu la fable du lièvre et de la tortue).

Selon une estimation, dans un jeu non répétitif, les profils "traîtres" représenteraient 47% de la population contre 53% de "collaboratifs". Et dans les jeux répétitifs – permettant donc d'accumuler des informations sur le profil des adversaires – la situation dégénère généralement vers 100% de traîtres ... et donc de perdants, du moins lorsque les joueurs ne connaissent pas la théorie des jeux. Mais ce n'est maintenant plus votre cas : vous savez désormais que la stratégie optimale socialement et individuellement consiste à coopérer au premier coup, ensuite jouer le même coup que l'adversaire au tour précédent (trahir s'il a trahi, coopérer s'il a coopéré). Cela vaut aussi bien dans le travail professionnel avec les collègues que dans le travail éducatif avec les enfants (P.S. Appliquer ces conclusions exige donc de vaincre notre rancune tout autant que notre gentillesse. La raison doit l'emporter sur nos états d'âme ...). Au niveau des États, la stratégie "donnant-donnant" peut être appliquée dans la négociations des accords de libre-change conditionnel.

Cependant en 2012 des chercheurs ont trouvé un type de stratégies supérieures au donnant-donnant : les stratégies "à déterminant nul". Celles-ci sont cependant éthiquement un peu plus problématiques, et cela pour deux raisons : (i) elles reposent sur un procédé statistique relativement complexe (et avantagent donc les individus capables de les comprendre/appliquer) ; (ii) elles consistent à contraindre la partie adverse. Pour ce deuxième point la problématique éthique est cependant tempérée dans la mesure où (a) il s'agirait d'une contrainte généreuse (résultat gagnant-gagnant) ; (b) dans les grandes populations qui évoluent l'optimum ne serait plus cette contrainte généreuse, mais la coopération [source].

Une excellente vidéo de vulgarisation (14m36s) sur la théorie des jeux.

Trois formes d'intelligence collective dans le règne animal
Formations d'oiseaux Formations de poissons Pont de fourmis

Citoyenneté numérique

https://democratiedirecte.net/intelligence-collective/#citoyennete-numerique

Le concept de citoyenneté numérique est fondamental car il constitue le principal lien institutionnel entre intelligences individuelle et collective.

La citoyenneté numérique commence par la possibilité de s'identifier sur Internet au moyen d'une carte d'identité électronique (meilleure technologie actuelle), fondement des votations en réseau et, partant, de la démocratie directe [approfondir].

Mais elle passe aussi par la maîtrise individuelle de son ordinateur et la possession d'un site ouaib, ce qui implique d'être capable de :

  1. remplacer Windows/Mac par un système d'exploitation (SE) libre/opensource sur son ordinateur (nous recommandons debian.org) ;

  2. utiliser les commandes Unix dans une console [ formation en ligne gratuite ] ;

    Très utile pour manipuler efficacement les données et programmes du SE, et en particulier pour effectuer des opérations sur l'ensemble des pages de son site web, notamment au moyen des commandes grep et sed.

  3. maîtriser les fonctions de base d'un tableur : test ;

  4. louer votre propre nom de domaine (pour votre adresse e-mail et site web) ;

    • Par exemple chez ovh.com ou gandi.net.
    • Une alternative serait un service web public allouant à chaque citoyen une adresse mail et une adresse web (ainsi qu'un compte sur un réseau social confédéral), malheureusement les décideurs politiques sont soumis à l'idéologie libérale qui interdit à l'État de concurrencer les entreprises privées, au plus grand bénéfice de sociétés telles que Google et Facebook ...
  5. configurer son client email (pour utiliser une adresse email avec votre propre nom de domaine);

  6. louer un hébergement pour son site web (NB : de préférence pas chez le même fournisseur que pour l'adresse ouaib, afin de pouvoir changer facilement d'hébergeur) ;

    Par exemple chez ovh.com.

  7. créer sa page ouaib (par exemple avec Bluefish) et la télécharger sur son hébergement (ce n'est qu'alors que vous serez capable d'utiliser pleinement un CMS tel que WordPress ou, mieux, Tiki ).

  8. appliquer les mesures élémentaires de sécurité sur Internet :

    • utiliser des mots de passe longs et nombreux, au moyen d'un gestionnaire tel que KeePassXC ;
    • mettre à jour au moins chaque mois le système d'exploitation et les programmes de votre terminal ;
    • ne cliquer sur un lien et ne sauver/télécharger un document que si vous avez confiance en l'honnêteté et les compétences (cf. la présente liste) de l'expéditeur/administrateur, et vérifier que l'adresse de l'expéditeur/site est exactement ce qu'elle devrait être.

Formations gratuites :

Forums :

Pour les geeks :

Rôle de
l'État

Au moyen de coopératives publiques l'État devrait proposer aux consommateurs citoyens une offre alternative publique, en matière de logiciels libres et de matériels libres.

Au niveau international une Confédération des États-nations devrait créer :

  • un organisme chargé de concevoir des normes/standards pour l'intégration de ces matériels et logiciels libres ;
  • des entreprises publiques multinationales concurrentes à Facebook, Google, Amazon, etc.

Malheureusement les traités de l'Union européenne découragent voire empêchent les États membres de créer des entreprises publiques et d'ainsi accroître la concurrence en proposant aux consommateurs une offre publique de biens et services [approfondir].

Google et YouTube

Si vous souhaitez créer votre chaîne de vidéos, Vimeo est une plateforme nettement plus évoluée techniquement que YouTube. Ainsi Vimeo permet au "Vimeaste" de modifier une ancienne vidéo. Sur YouTube cela est impossible : il faut supprimer la vidéo et télécharger sa version mise à jour, laquelle apparaîtra alors en tête de liste sur la chaîne, comme une nouvelle vidéo (donc impossible de conserver le classement chronologique des vidéos ...). Mais voilà, YouTube est ce qu'on appelle un "monopole naturel" : il est impossible de le concurrencer en raison de sa position dominante, même avec un meilleur service (ce qui est le cas de Vimeo). Pour vous en rendre compte voici une recherche comparative sur l'expression exacte "faire un graphique dans libreoffice". Le résultat est sans appel :

  1. YouTube : plus de 25 références directe :
    youtube.com/results?search_query=%22faire+un+graphique+dans+libreoffice%22
  2. Vimeo : une seule référence ... :
    vimeo.com/search?q=%22faire+un+graphique+dans+libreoffice%22

L'explication de cet étrange phénomène est toute simple : YouTube a été racheté par Google en 2006. On ne s'étonnera donc pas de constater que la recherche ci-dessus sur Google ne mentionne que des résultats de Youtube dans les premières pages :
google.com/search?q=%22faire+un+graphique+dans+libreoffice%22&tbm=vid

Mais aussi sur Qwant, le moteur de recherche "français" ... :
qwant.com/?q=%22faire%20un%20graphique%20dans%20libreoffice%22&t=videos.

Alors, votre chaîne vidéo, vous la faites chez YouTube ou chez Vimeo ... ?

La réponse à cette question explique pourquoi YouTube est un "monopole naturel". Or un monopole a pour effet que le rapport qualité/prix du bien/service concerné est inférieur à ce qu'il serait en régime de concurrence.

Une simple réglementation anti-monopolistique par l'État n'est pas une solution crédible, notamment en raison d'une asymétrie d'information entre État et entreprise privée monopolistique. Une solution long terme est que les États (i) interdisent à Google et YouTube l'accès à leur territoire au moyen de frontières numériques, et (ii) créent des entreprises publiques concurrentes pour se substituer à Google et YouTube. Dès aujourd'hui les organisations publiques utilisant YouTube pourraient déjà migrer vers joinpeertube.org, qui est un logiciel libre, sous licence AGPLv3.0, d'hébergement de vidéos, décentralisé grâce à la diffusion en pair à pair, créé en 2015 et soutenu par Framasoft. Il fonctionne sur le principe d'une fédération d'instances hébergées par plusieurs entités différentes. Son objectif est de fournir une solution alternative aux plateformes centralisées telles que YouTube, Vimeo ou Dailymotion (voir aussi fr.wikipedia.org/wiki/PeerTube).

https://democratiedirecte.net/intelligence-collective/#google-youtube