Pervasion • D’un billet à une publication, un ensemble d’articles ?

retour à Cela Etant

 


  Cet article se veut comme un prolongement possible de ma réflexion sur l’imminence des localnets. Le billet précédent était sur le mode du constat, celui-ci sera plutôt propositionnel. Il postule la redéfinition du savoir, du pouvoir et par conséquent, des élites.

  Fin 2006, j’écrivais avec une trop grande inquiétude et une naïveté qui maintenant me prête à sourire, sur l’inflexible mouvement à venir des structures traditionnelles de pouvoir à voir appliquées les règles qu’ils ont mis si longtemps à élaborer, quand bien même celles-ci fussent à reconsidérer en profondeur et rapidement. Ainsi de la question de la propriété intellectuelle et de l’accès à la connaissance. Aujourd’hui nous voyons ce mouvement à l’œuvre non plus seulement à l’échelle d’ajustements comme pour Google en Chine ou le filtrage de requêtes par proxy –quoique celles-ci persistent– mais à un niveau législatif, national.
  Applicables, mais avec un degré d’imprécision certain, ces lois, dont l’origine est fortement déconnectée de la réalité technique, montrent notamment la difficulté de revendiquer le principe égalitariste du législatif en période de redéfinition du social et du technique. Elle viennent en réaction à la montée en puissance du recours à l’informatique interconnectée, dispositif technique qui couvre une part croissante des activités humaines au point de devenir difficilement évitable et fait la part belle à la question de la vitesse. Quand bien même nous irions vers un moratoire international sur l’usage de ces ressources et du réseau, nous verrions dans la suite de ce texte qu’il serait fort probablement rapidement contourné.


Rappel historique, les qualités propres de la machine à calculer
  Les logiciens et mathématiciens qui, dans les années vingt-trente ••• du siècle dernier ont travaillé à répondre à la question du calculable ont patiemment élaboré l’un des outils conceptuels les plus radicaux qu’il ait été donné à l’humain d’expérimenter jusqu’alors. A cette époque, la question du calcul occupe certains des mathématiciens les plus pointus. Celle-ci commence à se structurer autour de la notion d’algorithme mais laisse en suspens la notion de donnée.
  Il faudra encore qu’Alan Turing postule deux hypothèses fondamentales en vue que sa machine puisse résoudre tous les calculs : il y aurait d’une part un "ruban" sur lequel tant les instructions de l’algorithme que ses résultats s’y trouvent inscrits, et il faudrait d’autre part que cette bande soit infinie. Le reste étant affaire de logique appliquée, comme la permet celle de Boole. Une des conséquences importantes d’un tel dispositif désigne les inscriptions sur le ruban comme devant être comprises tout à la fois comme instruction que comme résultat ou plus exactement, que ce qui s’inscrit sur la bande est algorithmique. Une autre conséquence repose sur l’infinitude de la bande qui rend ipso facto ••• cette machine impossible dans le monde matériel.
  Quoique l’idée selon laquelle la logique soit un principe suffisant puisse se révéler inexacte en de rares occasions, ce raisonnement ouvre la boîte de Pandore du calculable et des données. D’une part ce qui relève du calcul devient accessible et inscriptible et d’autre part le champ du calculable peut être défini. La généricité de la machine garantit l’intégrité de ce champ. Parmi ses fonctions essentielles, notons l’algorithme revenant à recopier un ensemble de cases sur les cases adjacentes de la bande, à l’infini. Celui-ci implique que les données puissent être recopiées sans perte d’information, telles que, as is, car la copie, ou la reproduction de l’identique est bien sûr un essentiel du calculable sinon de la mathématique. Si a=a on ne peut en attendre une valeur autre et un pan essentiel du travail menant à la réalisation d’une telle machine reposera sur la capacité à traduire cette qualité.


La copie à l’identique redéfinit le champ du savoir
  Plusieurs décades plus tard, on observe dans ce que l’on commence alors à nommer un ordinateur ou un computer que le champ de l’inscriptible des données n’est, bien sûr, pas infini mais suffisant pour produire des calculs complexes. Les moyens de stockage contournent leur limitation interne en donnant au ruban originel des qualités d’effacement et de réinscription aisée. La copie y figure non en bonne place mais comme principe essentiel à la préservation : la fonction d’identité devient un postulat de mémoire, le bit comme forme non signée, un moyen simple de créer une donnée. Il convient de bien noter qu’au nom du principe de généricité du calculable, rien ne doit pouvoir distinguer un bit d’un autre bit. Contrairement à notre savoir qui, jusqu’alors s’est reposé sur l’identification et la question de la marque de l’authenticité, un ordinateur doit pouvoir exécuter tout calcul permettant d’abstraire une donnée, d’en réduire l’identité ou le marquage, d’en soustraire la singularité ou l’exception pour en conserver une forme générique à même de répondre aux exigences du calcul.
  Ces outils exciteront dès lors l’intelligence humaine à y trouver usage et développera depuis lui des algorithmiques toujours plus sophistiquées. Il est remarquable de constater qu’aucune de ces améliorations ne peut venir amoindrir les possibilités premières de l’engin sans la mettre essentiellement en péril : il s’agira de toujours pouvoir calculer ce qui peut l’être. Si tel algorithme se révèle réduire les possibilités des autres, le code ou le langage produit sera considéré comme défectueux. C’est, entre autres ce qui relève du "bug" de programmation. Ce point est d’importance. Cela explique notamment que toute forme abâtardie d’une donnée apparaîtra toujours comme insatisfaisante. C’est le cas lorsque des données possiblement simples sont compliquées de dispositifs de protection comme les DRM ou qu’une signature numérique y est ajoutée.


Savoir calculer, savoir que l’on recourt au calcul
  Une fois dépassés certains seuils critiques comme la lenteur des processeurs, il est devenu possible d’étager et de combiner les données rapidement et en très grande quantité au point que l’emploi de celles-ci permis d’accompagner de versions "numériques" de nombreuses applications relevant jusqu’alors de technologies analogiques. Notamment celles nécessaires à la communication et/ou satisfaisant les sens, en particulier la vue et l’ouïe. Il convient de remarquer que lorsque l’on écrit que le son ou l’image sont codés, joués ou lus de façon numérique, on n’écrit rien d’autre qu’une certaine quantité de calcul est effectuée sur des données génériques. En conséquence, bien que l’on puisse imaginer de subtiles formes de codages de ces données, comme celles nécessitant le recours à un algorithme spécifique pour y accéder comme dans le cas de supports audio-visuels cryptés, le format de sortie de ces données étant d’être des images ou des sons, une fois lues leur forme sera celles de données génériques. A ce titre, un ordinateur basique et n’intégrant pas de limitations technologiques de l’accès vaudra toujours mieux qu’un système bridé au sens de sa capacité structurelle comme calculateur.
  Notons le cas des matériels ordinants ne disposant pas d’une interface permettant d’accéder de façon générique à leurs capacités de calcul. Ce fut le cas de certains baladeurs numériques ne supportant pas tel ou tel format de codage audio et dont la valeur ne dut qu’à leur capacité à se présenter comme disposant de contreparties à ces limitations. Gain provisoire, rapidement renversé par la production concurrente de matériel ouvert, le poids de la position critique des utilisateurs ou encore le mouvement général amenant les producteurs de matériel bridé à reconnaître l’intérêt de s’ouvrir plutôt qu’à préférer une position repliée.


Transmettre. De la copie locale à la copie distante
  Au sein même d’un ordinateur, les processus et les calculs se doivent de pouvoir circuler parmi les parties qui le constitue, les données être entrées pour être traitées par des algorithmes et les résultats rendus accessibles à ceux qui les emploient. Ici encore, la copie à l’identique est donc essentielle pour garantir l’intégrité de ce que le calcul y produit. Les machines à fortes capacités de calcul produisant des résultats génériques de grande complexité, leur intérêt a bien vite dépassé celui de la seule machine sur laquelle celui-ci est apparu. La production conséquente de savoir y invite à sa diffusion. On arrive donc rapidement à la nécessité de partager ces données d’un ordinateur à un autre. Des formes protocolaires furent alors élaborées qui permirent de s’assurer de l’intégrité des données transmises une fois parvenues à destination.
  L’ensemble de ces remarques indique comme principiel le recours à la copie. On peut donc sans peine écrire que copier des données d’un ordinateur à un autre une fois ceux-ci interconnectés via un dispositif de réseau est l’activité même que l’on peut en attendre. Il est alors évident que les utilisateurs, à l’aide d’applications favorisant ces échanges, pratiquent ce type d’opération, et bien plus paradoxal qu’ils soient considérés comme s’adonnant à une activité marginale. Je postule que dans un monde où les ordinateurs interconnectés sont fortement présents, tout ce qui peut être traduit sous la forme de données numériques génériques se voit d’une part voué à l’être et d’autre part à être copié d’une machine à une autre. Ce principe opère un changement radical dans l’économie de ces données ainsi que de leurs sources. Les données n’ont de valeur marchande que lorsque celles-ci ne sont pas encore partagées. Les sources à l’origine de ces données n’ont de valeur marchande que lorsque ces premières ne sont pas encore numérisées.


Créer la pervasion
  Se connecter en wifi s’est répandu avec les hotspots, et avec eux l’idée que le réseau pouvait être atteint autrement que depuis une prise murale. Quelques rêveurs ont pronostiqué le réseau pervasif comme Ozone à Paris. Peut-être ne sommes-nous, sur ce point, qu’à l’orée d’un nouveau bouleversement. Cependant, les fournisseurs d’accès, avec la lourdeur qu’implique leurs infrastructures actuelles peuvent représenter une vraie difficulté à créer la pervasion. Progressivement, les lois approximatives précédemment évoquées s’imposent à eux et restreignent ce que les machines interconnectées nous permettent techniquement. Seulement il est possible que les opérations basiques de copies de données échappent à une connexion telle que l’on se la représente encore aujourd’hui. Je ne souhaite pas évoquer trop longtemps ici ce que certains pronostiquent quant à un recours grandissant à des solutions de cryptage pour échapper à la vigilance de l’Etat.
  Je pense plus simplement que si les fournisseurs d’accès se présentent à l’avenir comme offrant des services frelatés, les utilisateurs se tourneront vers des moyens plus ouverts. L’une des possibilités pourrait reposer sur l’évolution des capacités du matériel mobile dont nous disposons. Je donne peu de temps avant qu’un ordinateur mobile ou non possède non seulement le moyen de garantir un échange de données à un niveau de débit équivalent à celui des fournisseurs d’accès mais avec une large portée et, de plus, intégrer des fonctionnalités de serveur et de routeur. De telles machines pourraient, à l’aide d’un protocole adéquat et flexible, relayer les données en transit, en servir et en recevoir. Le réseau deviendrait véritablement décentralisé, sous la forme d’un ensemble de nœuds indépendants de toute autorité. Un réseau composé de matériel de ce type a tout à gagner à en respecter la neutralité. Enfin, pour assurer une continuité de la transmission de certaines partie du protocole ne représentant pas de danger, les nodes terminaux pourront être raccordés en salle d’échange.
  Compte tenu de la forme actuelle que la concurrence prend encore dans le commerce international, les constructeurs auront tout intérêt à aller dans le sens d’un tel scénario et malgré les éventuelles règles qui pourraient leur être édictées pour brider les machines et auxquels les plus grandes compagnies ne sauront résister à devoir souscrire, il subsistera encore longtemps de plus petits fournisseurs qui trouveront là un marché rémunérateur. Quand bien même ceux-ci fussent-ils alors poursuivis que l’usage se déporterait vers la vente des seules extensions débridées à ajouter ou remplacer en vue de rendre les machines incomplètes plus ouvertes.



Notes en brouillon

  Naissance de l’OpenIP qui se base sur une renégociation dynamique des formes protocolaires. Nous devons nous interroger sur la faisabilité d’une formulation non matérielle pour créer le réseau / instance du protocolaire. Le device comme hacker / le hack comme forme pré-langage, liberté de formulation et donc d’expression / le hack, nouvelle propriété intellectuelle ? valeur du hack comme propriété intellectuelle ?
  importance de la confiance dans l’échange entre devices / différence entre trusted (certifié) et peer / problème du hack to peer / avoir un niveau de langage plus évolué = avoir un niveau de cyberté plus grand ???
au-delà du mot de passe ? confiance généralisée wikiciety ?

La computation partagée : l’informatique comme corps possiblement multi-cellulaire
  imaginer en quoi c’est une stratégie win-win que de partager les ressources processorielles


Le cyberspace est un autre monde mais pas un monde autre / la cyciety et le cysial / cyberté et cyberty
  Il serait plus juste en effet de dire que nous sommes pris dans un mouvement de surdétermination que nous ne pouvions aisément anticiper mais qui n’indique pas un Autre au sens de l’impossible humain. La meilleure preuve en est l’usage que l’on fait d’abord des moyens informatiques.
  Le numérique, un dictat au non-numérique ? cas de la position des artistes
La forme pseudo-anarchiste ou libertarienne des premiers temps du réseau ne peut disparaître car elle se révèlera plus intéressante que toute forme édulcorée des fonctions qu’elle a désigné.
  Si le web représente une accélération/augmentation de ce qu’offre le réseau, c’est parce qu’il y ajoute des fonctionnalités (par une extension non du calculable mais du calculé). Ne pas oublier que diminuer l’étendue du calculé est une diminution de connaissance (discutable), mais en tout cas, on ne peut diminuer l’étendue du calculable sans mettre en péril l’objet ordinant


Tant qu’il y aura des programmeurs, l’économie du savoir mathématique
  La mathématique se découvre / n’est pas immanente aux dispositifs = on ne peut attendre+craindre le règne des machines si toutefois elles restent des machines / le mathémable requiert une expérience du monde
  Une mathématique éthique appliquée ? Diaconnectique de la connaissance ou singularité technologique ou courbure infinie (Theodore Modis) ?
  redistribution des temps, connaître de façon indépendante = connaître tard, passer son master à 30 ans = moins dépendre de la famille et plus de l’état présent de la connaissance et ce que cela permet / être hacker et apprendre à penser
  le programmeur comme extenseur de la cyciety ?
  Le savoir mathématique, un modèle de connaissance horizontal et partagé ? pronostic d’une transmission des savoirs mathématiques et du calculable du fait du recours au dispositif ordinant et réplicatif.


Repenser le savoir pour en accepter le changement de paradigme
  Plutôt que de courir après une régulation dont les aspects nuisibles dépasseront de très loin les gains qu’elle prétendra apporter, il convient d’accepter le changement paradigmatique qui concerne tout ce qui peut prendre une forme numérique. Parmi les sources qui peuvent être traduites, on trouve entre autres le texte, l’image, le son… Ces supports de la culture les plus couramment employés ne peuvent plus être considérés dans un rapport à l’identifiable ou au singulier. Non que nous devions les considérer a priori comme des données mais en puissance de le devenir. Seules leurs formes originales continueront à posséder une valeur, que celle-ci fût envisagée sous l’angle de l’échange marchand ou autre. Un tableau, un manuscrit, une interprétation musicale en contexte garderont leur caractère singulier, leur reproduction, non. Il faut tempérer ce discours : les œuvres qui n’entraîneront pas un large partage sauront conserver un peu plus avant leur valeur de singularité.
  Ainsi peut-être, les agences de protection de la propriété intellectuelle verront-elles prochainement bien plus croître leur intérêt dans l’investissement dans des travaux pointus intellectuellement ainsi que les plus rares (œuvres d’art) que dans les productions prisées par le plus grand nombre. Gardons-nous bien également d’inviter ces dernières d’adopter une position trop offensive et offensante pour protéger une production, car une telle approche ne pourra que se révéler contre-productive à long terme en terme de partage de la connaissance, contribuant à répandre l’idée que la culture ne doit pas se partager. Les artistes, écrivains, réalisateurs, compositeurs, auteurs, interprètes doivent accepter que leur travail ne représente plus une activité dont la rémunération réside dans la diffusion mais dans la création, l’agencement, la performance…
  Il faut enfin compter sur l’importance de la notion de partage dans la communauté lorsque les moyens techniques le permetttent pour un coût faible.