
Et, si cest lincertain dès le départ !
Lincertain comme fondement, alors.
Cest cette idée folle qui germa chez Chaïtin.
Il se peut que le problème soit plus vaste et que Gödel et Turing sont juste le dessus de liceberg.
Il se peut que les choses soient pires et que ce que nous avons réellement là, en mathématique pure, ce soit laléatoire.
En dautres mots , il se peut que parfois la raison pour laquelle on ne puisse pas prouver une chose, ce nest pas parce quon est stupide ou que lon ait pas assez travaillé assez longtemps dessus, il se peut donc que cette raison de ne pas trouver de preuves soit tout bonnement quil ny a rien derrière !
Parfois la raison pour laquelle on ne peut pas trouver la solution à un problème nest pas dûe au fait quon ne soit pas assez sympathique ou quon ne soit pas assez déterminé, cest tout simplement parce quil n y a pas de solution ; soit que la question mathématique nait pas de structure soit que la réponse nait pas modèle soit quil ny ait ni ordre ni structure disponibles dans le monde des mathématiques pures pour essayer faire naître la compréhension.
Donc, il se peut que, parfois, la raison pour laquelle on ne voit ni modèle ni structure cest peut-être parce quil ny a justement ni modèle ni structure !
De laléatoire dans les entiers ?
Une des illustrations que lon peut en avoir est de regarder comment se distribuent les nombres premiers. Il semble quil y ait une certaine part daléatoire dans la distributions des entiers premiers. Cest un des chemins que certains nhésitent pas à prendre pour essayer dappréhender les entiers premiers. Et cette approche stochastique se fait en plein dans la théorie des nombres qui est, disons-le tout net, le cur même des mathématiques pures.
Dun côté on nhésite plus à user de probabilités pour tenter de comprendre les entiers premiers. Ce qui est une approche plutôt heuristique et peut-être même cognitive.
De lautre côté on a « Dieu qui joue aux dés en physique fondamentale » ce qui exprime lidée que ce qui se passe au niveau le plus bas de la matière est de nature aléatoire.
Comment, alors ne pas commencer à soupçonner que, peut-être, il en va de même dans les fondations même des mathématiques.
Cest en tous cas ce qua pensé Chaïtin.
Une première étape était de clarifier la notion daléatoire.
Mais quest-donc laléatoire ?
Quest-ce quon entend par absence de structure, absence dordre, absence de modèle ?
Aléatoire : absence de structure
Cest plus une sorte de notion de nature logique de laléatoire quune notion de nature statistique.
Ce nest pas comme en physique où on peut dire quun processus est aléatoire comme le jet dune pièce de monnaie. On ne se préoccupe pas doù viennent les objets.
On examine quelque chose et on dit si cette chose possède une structure ou un modèle ou non.
Donc ceci est de nature logique ou structurellement aléatoire et soppose à la non-prédicabilité et laléatoire physique.
Cest différent.
Cest très lié, mais cest différent.
Et lidée qui vint avec - et Kolmogorov eut de façon indépendante en même temps la même idée- cest lidée que quelque chose est aléatoire quand on ne peut pas substituer à sa description, une autre description strictement plus petite. On parlera plutôt de compression au lieu de substitution et de concision au lieu de petitesse.
En dautres mots une théorie nest pas compressible lorsquil nexiste pas dautre théorie plus concise qui la reproduise.
Par exemple, un ensemble de données physiques serait aléatoire si la seule façon dexhiber lensemble de données était sous la forme dune table, mais sil existe une théorie, on peut compresser un grand nombre dobservations en un nombre petit de lois ou de principes physiques.
Et plus la compression est grande et meilleure est la théorie : en accord avec le principe dOccam, la meilleure des théories est la plus simple des théories.
On peut soutenir, quen fait, un programme nest rien dautre quune théorie.
Si on se représente une théorie comme un programme qui calcule des observations. Plus le programme est petit, par rapport à la sortie qui constitue lensemble des observations, et meilleure est la théorie que représente ce programme.
Cest aussi ce que font les axiomes. Il y a là, la même idée dans les axiomes.
On a un grand nombre de théorèmes ou de vérités mathématiques et on arrive à les compresser sous la forme dun système daxiomes.
Lintérêt de cela est en fait léconomie du risque.
Noublions pas que les axiomes sont des hypothèses quon doit faire et à chaque fois .
A chaque fois, quon fait une hypothèse on doit croire à cela et il sintroduit une part de risque.
On ne peut pas prouver à partir de rien du tout, on doit donc prendre laxiome comme donnée. Dans un raisonnement, moins on introduit de supposition et plus sain il sera.
Donc moins on a daxiomes et mieux cest.
Donc, plus on aura de théorèmes compressés en un corps de théorie, et le mieux ce sera, et ceci aussi bien en mathématique quen physique.
On doit définir en premier la notion de manque de structure ou daléatoire. Si on trouve de laléatoire ou un manque de structure ou un manque de modèle en mathématiques pures, on doit dabord dire ce que lon entend par là.
Théorie algorithmique de linformation
Chaïtin appelle cela la théorie algorithmique de linformation. Cela concerne linformation algorithmique. On peut aussi dire complexité ou complexité en-taille-de-programme.
Algorithmique Information
Le concept de base est de regarder la taille du programme le plus concis, le plus petit programme
- on ne se préoccupe pas du temps dexécution-
- cest le programme le plus concis qui calcule un objet. Cest le nombre de bits quon doit à un programme pour quil soit capable de produire cet objet. Cest la description algorithmique la plus concise dun objet et cest ainsi quon mesure sa complexité, le contenu de son information algorithmique ou sa complexité en terme de taille de programme.
Cest comme la théorie récursive des fonctions : on ne se préoccupe pas du temps dexécution.
Alors que se passe-t-il donc quand on commence à regarder la taille des programmes ?
Un objet est aléatoire si le plus petit programme qui le calcule a la même taille que lui et il ny a aucune compression possible.
Donc lidée globale cest de regarder la taille des programmes dordinateur, en ne tenant pas compte du temps dexécution, même si ça demande un milliard dannée, linformation est la seule chose qui compte, le nombre de bits dinformation, la taille des programmes.
Que se passe quand on commence à jouer avec cette idée ?
Ce qui se passe, en fait, cest que partout où on se tourne on obtient lincomplétude et lindécidabilité, et on lobtient de pire des manière possibles.
Par exemple, ceci arrive avec la première des choses quon veut faire : on ne peut jamais décider si une chaîne individuelle de digits satisfait cette définition de laléatoire.
Impossible ! On ne peut jamais calculer complexité en-taille-de-programme de quoi que ce soit.
On ne peut jamais déterminer quelle est la taille du plus petit programme.
Si on a un programme qui calcule quelque chose, qui donne une borne supérieure, sa taille est une borne supérieure de la complexité en taille de programme de ce quil calcule. Mais on ne peut jamais prouver aucune borne inférieure.
Et cest le premier résultat dincomplétude de Chaïtin.
En théorie normale de la complexité celle où on tient plus compte du temps que des bits dinformation, les bornes inférieures sont beaucoup plus difficile que les bornes supérieures. Obtenir une borne inférieure est beaucoup plus difficile que dobtenir une borne supérieure. Parce quand on trouve un algorithme plus astucieux on a en même temps une borne supérieure du temps quil faut pour calculer quelque chose ; si on trouve une méthode qui soit rapide on a, en fait, montré en même temps aussi que cela peut se faire avec cette rapidité.
Le vrai problème est de montrer que lon a lalgorithme le plus rapide possible.
Ce qui est plus difficile.
Mais cela peut être fait dans certain cas, pour une classe dalgorithmes possibles.
Maintenant, en Information Algorithmique (on ne tient plus compte du temps) ce nest plus du tout possible et on peut prouver aucune borne inférieure.
Lidée de base est quon ne peut prouver aucune borne inférieure en terme de complexité en-taille-de-programme dobjets individuels. Donc en particulier même si la plupart des chaînes de digits satisfont à cette définition de laléatoire, ils sont incompressible dans ce sens, ils sont aléatoires dans le sens de labsence de structure caractéristique.
On peut sapercevoir très facilement que la plupart des objets qui satisfont cette définition nont pas de structure. Si on regarde toutes ces centaines de nombres digitaux, presque tous nont pas de structure selon cette définition, mais on ne peut jamais en être sûr dans des cas individuels.
On ne peut pas prouver labsence de structure dans les cas individuels .
Plus précisément, il peut y avoir finitairement plusieurs exceptions.
Avec N bits daxiome on peut déterminer tous les objets dont la complexité en taille de programme est au plus N. Mais cest le plus loin où on peut aller.
Un nombre encore plus complexe que le plus complexe des nombres transcendants connus: Omega
Le pire résultat de Chaïtin sur lincomplétude quand on a affaire à une absence totale de structure en mathématiques pures nécessite lintroduction dun nombre quil appelle la probabilité darrêt.
= probabilité darrêt
Considérons le réel qui est la probabilité quun programme tiré au hasard sarrête. Cest une moyennisation du problème de larrêt dune machine de Turing. Et ,pourvu que le langage de programmation soit spécifié ceci donne un nombre réel bien déterminé.
machine = probabilité darrêt.
Donc dés quon le décide est un nombre réel et bien défini. Mathématiquement, ce nest pas un objet très sophistiqué. Cependant il ressort de cet objet quil est maximalement inconnaissable !
est maximalement inconnaissable
Que veut dire exactement lexpression maximalement inconnaissable.
Cela concerne les bits ou les digits de ce nombre.
Une fois fixé le langage de programmation de la machine cette probabilité darrêt , nous lavons dit, est un nombre réel bien spécifique, qui dépend du choix de la machine ou du langage de programmation dans lequel on génère au hasard un programme.
Ce nombre spécifique, écrivons-le en binaire, et donc on obtient une séquence de 0 te de 1.
Il savère que ces 0 et ces 1 ne font apparaître aucune structure.
Ils ne peuvent pas être compressés.
Pour calculer les N premiers bits de ce nombre binaire cela exige un programme de N bits.
Pour prouver ce que sont ces N premiers bits de ce nombre ceci exige N bits daxiomes.
Cest une information mathématique irréductible.
est une information irréductible
Une information mathématique irréductible ?
Voilà une idée qui ne manque pas dêtre absolument choquante parce quune idée normale en mathématique, une de ces bonnes idées à la Hilbert, doit être telle que toute vérité mathématique peut être réduite à un petit ensemble daxiomes quon peut accepter et qui seraient, si possible, self-évidents.
Mais si on veut déterminer quels sont les bits de la probabilité darrêt , ceci ne peut pas être réduit par quelque chose dautre qui soit plus simple.
possède une définition mathématique avec une structure plutôt simple dès quon spécifie lordinateur ou le langage de programmation et Chaïtin a même écrit un programme en LISP qui calcule ce nombre au sens faible.
Bien que soit maximalement inconnaissable on peut toujours essayer de lobtenir comme limite à partir la formule ci-dessous
= p sarrête 2 -p
Mais cela converge très, très très, très, lentement on ne peut jamais savoir de combien on est proche du nombre à calculer
il nexiste pas de régulateur calculable de la convergence et il ny a pas moyen de décider de ce quil reste à faire pour obtenir les N premiers bits de .
Pour obtenir à la limite à partir de la formule ci-dessous, on doit considérer de plus en plus de programmes de plus en plus longtemps et à chaque fois quon voit un programme sarrêter, ceci contribue de 1/2k à la probabilité darrêt.
= p sarrête 2 -p
Donc le temps quil faut pour obtenir les N premiers bits de croît comme le temps dexécution fini, le plus long, dun programme de N bit.
De manière plus précise on peut dire que chaque programme qui permet de définir doit être généré aléatoirement comme par le jet dune pièce de monnaie pour chacun de ses bits. Le point crucial est que le programme doit être auto-délimité. Lordinateur doit obtenir le programme bit après bit. Chaque fois que lordinateur demande un bit du programme, on jette la pièce à pile ou face. Et lordinateur doit décider de lui-même sil a suffisamment de bits cest à dire sil a le programme entier. Le programme doit être auto-délimité pour définir cette mesure de probabilité correctement. Il ny a pas de blanc pour indiquer la fin dun programme : un programme doit indiquer en lui-même linformation de sa propre longueur à laide dune certaine astuce, dune certaine astuce codée. Cest le seul aspect technique pour obtenir que cette probabilité soit bien définie.
Cest aussi le point technique de la théorie de Chaïtin.
est donc un nombre compris entre 0 et 1. Cest la probabilité quun programme dont les bits ont été générés aléatoirement par les jets indépendants dune pièce de monnaie non-faussée, sarrête.
Pour fixer les idées, le langage de programmation choisi par Chaïtin est LISP et la machine est une machine de Turing.
Donc est maximalement inconnaissable. Cest un cas où la vérité mathématique na ni structure ni modèle et cest quelque chose que nous naurons jamais.
Ce qui a été obtenu là est de laléatoire au maximum.
n Cest analogue aux jets indépendants dune pièce de monnaie en mathématiques pures.
En fait, Chaïtin peut aussi le faire, à la manière de Gödel, dans la théorie élémentaire des nombres. Chaïtin a construit la détermination des bits de à partir dune équation diophantienne.
Suite de l'article