Brouillon sur la singularité actuelle

De LERDA
Aller à : navigation, rechercher

Nous sommes en train de passer une "singularité", c'est à dire un col dans le parcours de l'humanité. C'est très simple en fait : c'est quand l'humanité fait une découverte dont elle ne peut plus se passer. Nous avons fait cela avec les langues, la roue, etc. La dernière en date de taille équivalente est la découverte du syllogisme par Aristote. A=B, B=C => A=C.

Mais si A=B, B=C => A=C crée la logique et donne la raison de la conclusion, c'est une idée que l'esprit humain limite à la ***dialectique***, telle que bien comprise par Socrates :

  • si moi Socrates te dis "B=C", cela va te faire remarquer ce que tu sais : ah! oui, je me souviens : "A=B !" C'est la mayeutique.
  • Platon va généraliser ton savoir en en faisant un savoir des dieux sous la forme de l'idée, bloc de construction d'une réalité dont nous percevons l'ombre.
  • Cela marche dit Aristote parce que
  • on discute tous les deux (si on est plus, cela crée la confusion dans les têtes et on avance plus).
  • même par personne interposée (thèse anti-thèse synthèse).
  • en fait cela a marché 2200 ans.

Toutefois, le 21 janvier 1889, pour le concours de l'anniversaire du Roi de Norvège à qui proposerait une généralisation universelle des lois de Newton (calcul des "n-corps" les uns par rapport aux autres, le fameux calcul que pensait pouvoir faire La Place pour Napoléon, sans avoir besoin du "détail" de Dieu), Henri Poincaré a gagné en montrant que cela marchait pour la Terre et le Soleil, presque plus avec la Lune et plus du tout au-delà. C'est le problème des "trois corps".



Agorique

Pourquoi ? Parce que si nous sommes logiques, le monde lui est "agorique". C'est à dire qu'il est comme une place de village où tous font ce qu'ils peuvent/savent/veulent avec tous les autres. Alors, on s'est mis à chercher à comprendre à partir de cette découverte. Tout le XXe depuis Plank, Einstein, Bohr, etc. etc. Et on a trouvé beaucoup de choses.

NB: le mot "agorique" est apparu en 1984 pour les seuls "marchés de traitements informatiques" et je l'ai reinventé de façon plus générale et redécouvert 25 ans après. L'origine de cette compréhension vient de Norman et Ann Hardy, les designers techniques de ma boîte américaine Tymshare. La question posée à la start-up de traitement en temps partagé de la fin des années 1960 est simple : comment en faire plus en dépensant mieux.

  • Il y avait d'autres start-ups de timesharing qui se cassaient la figure faute de puissance/invetissement alors que dans la Bay Area Tymshare allait faire de même.
  • L'idée du patron (O'Rourke) a été d'en racheter une a NY et une à Houston, spécialisées dans d'autres marchés que le sien (banques) et de les mettre en réseau, chacun pernant, en cas de charge, en charge ce pourquoi il était meilleur.
  • Il a donc eu besoin d'un réseau sûr et rentable (Tymnet) à moindre coût et d'une vision "marché" de ses ressources, chacune proposant "aux enchères" un devis (en cents) pour le traitement incluant le prix calculé (en cents) des transferts réseau nécessaires.

La diktyologie (grec : diktyos - réseau)

Ceci a fait entrer la notion de réseau dans l'optimisation du "cérébrique" (artificielle au départ, mais dans le cerveau c'est pareil, mais on l'apprend maintenant). A partir de là on voit se dégager peu à peu une modélisation de l'univers (architectonie) à peu près assez claire. Je l'appelle ALFA (architectonie libre/free architectonie).

L'univers est :

  • l'enchevêtrement symbiotique (tout est +/- interopérable) et fractal (les règles sont indépendants de l'échelle)
  • de réseaux globaux de réseaux locaux (catenet de Pouzin) de tous types,
  • où la localité (de Vint Cerf) est l'appartenance au niveau de réseau considéré.

A quoi servent ces réseaux ?

A deux choses : 1. recopier à distance : sur deux nodes connectées on va faire se distribuer/diffuser la même chose - comme une onde, une infomation, un fichier, tension) 2. transporter au loin : on va porter un individu (particule, personne, un train, .

Le fonctionnement de ces réseaux se fait par un jeu de règles plus ou moins strictes ("soit précis dans ce que tu envoies et libéral dans ce que tu reçois") que l'on appelle des protocoles qui peuvent porter sur les échanges entre noeuds et conditions de transfert par les liens. Une structure de coordination peut en assurer l'organisation ou les opérations (tour opérateur). Le transfert sur les liens est très rapide, il est plus lent au travers de noeuds. Le passage de noeuds en noeuds du vide est la vitesse de la lumière. Il semble que l'on puisse aller bien plus vite si on a gardé une connexion directe (intrication quantique) ???

Selon trois systèmes :

- le circuit : une ligne est construite de noeud en noeud (ex. ligne de métro, téléphone). - le bloc : une carte postale qui se débrouille de moeud en noeud rencontré pour arriver à celui qu'elle vise (internet, voitures, datagrammes) - le pipe : une chaine de triages/signalisation locale de proche en proche fait que ce qui rentre dans un noeud ressort selon un chemin prédeterminé (parcours aerien, jeu de piste, tour de France, bytes).

Ces trois systèmes reposent sur une pile d'infrastructures communes à d'autres réseaux puis de plus en plus spécialisées. C'est l'indentification de cette infra/sub-structure contextuelle de plus en plus spécifique qui en identifie le catenet.

Les réseaux locaux sont de bout en bout. La frange est l'interface passive ou active entre le réseau et son utilisateur elle fait partie du catenet dont elle décrit la forme (topologie) en l'encadrant par le "peritème" : ce qui a autour du système.

Le contexte supporté par un catenet sera ainsi :

  • passif : ce qui est délivré est ce qui a été envoyé. Son interface est dumb stupid.
  • ou actif : le transport est de bout en bout, mais aux franges intervient une intelligence autonome ou coordonnée qui adapte la livraison à l'attente de l'expéditeur/receveur/contexte.

Résumé

Tout est donc - "diktèmes" (grec diktyos : réseau) ouverts /relationnels (contextes supportés par la structure de leur catenet) de noeuds et liens, - dont les noeuds sont eux-mêmes des "systèmes" (réseaux d'objets) fermés/affiliés (mécanismes) en réseaux, etc. - chacun étant plus ou moins fermé/strict/calculable que le graphe du catenet précédent (théorie des graphes et des couches réseau).

Conséquence politique

Nous avons donc deux grands types de "nets" :

- les filets rigides (nets) qui nous ensèrent dans leur relativité (ex. gravitation), Dans l'internet il est pour eux proposé une douvernance "multipartieprenante" où les maîtres du filet se cooptent - ploycratie (si possible à l'initiative des US et sous l'égide de la FCC)

- les réseaux ouverts que nous construisons (networks) pour nous permettre de nous échapper par le relationnel (ex. champs). C'est la structuration maladroite de l'holocratie de la multitude (ceux qui n'ont pas de contrat social avec une souveraineté du domaine) répondant au concept d'"omnipartieprenance". Celle-ci est crédible en ce sens que c'est la nature du financement de l'infrastructure (Etats, bénéfices opérateurs) et de la subsrtucture (toutes nos machines).

Au passage :

la neutralité du réseau pour l'utilisateur est l'absence de différence en terme de service obtenu si le ou les réseaux locaux d'un catenet sont remplacés. Ce qui est en train d'être mis en place est une neutralisation par la FCC des effets possibles des jeux du marché, aux cris d'une auto-régulation par le marché. L'important est que le régulateur soit américain.


Ce que permettent les réseaux.

La raison de ce que le tout est supérieur à le somme des parties et condamne donc le discours de la méthode qui est réductionniste (on ne garde que les noeuds) ce sont deux choses :

  • l'organisation algorithmique au sein des systèmes en réseau (architecture des échanges, dynamique, mise en complémentarité),
  • la synergie empathique au sein des dyktèmes (auto-catalyse).

Cette empathie est portée par des manières de communiquer entre systèmes que l'on appelle protocoles - les premier de ces protocoles étant au niveau des systèmes cérébriques naturels, que sont nos cerveaux, les langues naturelles - que nous devons maintenant étendre sous forme de méca-langues pour l'inter-entendement avec nos cerveaux artificiels. Cette empathie est aussi facilitée par l'auto-catalyse de cetains comportements applicatifs correspondant bien à l'architecture des systèmes où aux types de leurs échanges.

La cérébrique

En fait il semble que nous avons trois grands niveaux de cérébrique :

  • cybernétique - l'objet - hardware -son syllogisme répond toujours de la même façon car son discours est monolectique - toujours la même réaction. A-> "B" ->R. La mécanique interne que provoque la réaction pour une action donnée est "enaction". La chaîne est donc "action" -> "énaction" -> "réaction"

La cause conduit à l'effet.

  • logique - le programme/mécanisme - software - son syllogisme est systèmisé par des "if ... then ... else .../if ... and ... then" dialectiques - un ensemble raisonable (on retrouve la raison de causes en effets) de conclusions. C'est l'inférentiel des systèmes (on connait toutes les données initiales).

La cause conduit à un effet en fonction d'une seconde prémisse (pas plus : le tiers exclu).

  • tiers conclus - ceci est une extension limite probable de la logique. Le tiers est exclu (toutes choses égales par ailleurs) mais une influence bien identifiée (que l'on peut donc qualifier de "conlue") peut être prise en compte (problème de 3-corps restreint ?)
  • agorique- le pouvoir/savoir/vouloir faire - brainware - son syllogisme est en réseau ouvert (diktème, de diktyos, réseau en grec) où tout influence tout. Ceci va conduire à des émergences par réflexions mutuelles barrycentrées autour de ce que Poincaré a appelé un attracteur, c'est à dire un point d'attraction qui décrit le plus souvent une magnifique courbe en forme de double spirale en papillon. C'est l'inférentiel des diktèmes (on ne connait pas les données initiales dont le nombre est potentiellement illimité).


Tout ceci fonctionne selon le principe du premier possible

Il faut continuer encore un peu pour tirer la substantifique moëlle de tout cela. Ce sera pour plus tard (j'ai foncé dans une présentation un peu décousue). Le transport le long du réseau fait qu'il y a des situations

  • continues réversibles (on revient à la page précédente).
  • et discontinues irreversibles (il faudrait repartir du Bit-Bang pour reconstruire le "microétat" (cf. infra) précédent).

Chacune de ces situations est un microétat de l'univers (une photo).

Chacun des noeuds du réseau et chacun des élements transporté y est à un endroit précis enchaîné, de microétat en microétat, dont le passage (tic-tac) est le temps. Mais entre deux microétats où est-il ? Ou vais-je le retrouver ?

  • Soit parce que je sais où : sur le microétat suivant,
  • ou parce que je sais sa vitesse pour savoir sur quel microétat aller le cherche et où.

Cela parce que le temps n'est pas un flux continu mais le numéro de la page du microétat de l'univers que je feuillete. C'est l'incertitude d'Heinsenberg. A un moment donné tu ne peux pas savoir où est un datagramme qui est en train de s'écouler - tu ne sais qu'une chose : il bouge à la vitesse de la lumière, ou il est dans un buffer, ou il s'grenne dans un cpu.. En fait il fait tout cela à la fois en général avec ses 1000 bytes.

La question est de savoir vers où les choses vont aller (futur). Il va où le circuit, les tables, le pipe le lui dit. Avec un avantage aux tables/datagrammes : s'ils se perdent es tables de noeuds, où il ne devrait pas être, peuvent lui dire où aller. Il va donc au "premier possible" dans un univers où les microtétats sont passés (un trajet), présent (un seul), possibles (d'où les multivers à la mode).


Ton libre arbitre, la décision logique à partir des causes, l'émergence agorique

Tu ne décides jamais rien, c'est le cerveau qui fait. Toi tu choisis ce que tu veux que ton cerveau préfère. C'est pourquoi la cérébrique artificielle peut être envisagée comme aussi précise que la naturelle (chirurgie assistée par ordinateur). C'est aussi la raison du principe de Leibnitz-Chaitin (ils ne l'ont pas ennoncés mais presque) : "plus simple sont les prémisses, plus riche est l'émergence" (elle est moins bridée par les conditions initiales - mais il faut définir la simplicité, un autre jour).

A partir de là les choses sont techniquement plus simples. Tu te préoccupes de

  • ce que tu sais (information communiquée : c'est à dire donnée + bruit - correction = captée)
  • et tu cherches à partir de là ce qui fait sens (c'est à dire qui semble en réseau cohérent avec le reste). C'est la démarche d'intellition qui va te donner des "traitées" avec un degré de crédibilité.
  • ce degré de crédibilité va te permettre de calculer les (probabilités) que ce que tu vas trouver soit exact.

Ces calculs relèvent de l'intellition, donc son faits (ou pas actuellement en général, sauf à la NSA+) à la frange. C'est à dire sur le catenet, la part du réseau que nous avons investi pour nous et que veulent contrôller les "edges" providers (c'est à dire les fournisseurs des entrées dans le réseau [les GAFA].


CCC - compagnie cooperative du catenet

Le but est donc de redonner la maîtrise de l'usage du réseau et de ses prêts-à-penser par la maitrise des machines utilisateurs du catenet (Interface d'utilisation intelligent) : le catenet-engine.