Réflexions sur le phénomène aléatoire

Je souhaite ici développer une réflexion, et pour entamer toute reflexion logique, il est indispensable de définir un ensemble d’affirmations de base que l'on considère comme vraies (des axiomes). Pourtant, la logique se désavoue elle même, en 1931, quand le mathématicien autrichien Kurt Gödel publie ses théorèmes d'incomplétude. Ces théorèmes sont énoncés ainsi : “Dans n'importe quelle théorie récursivement axiomatisable, cohérente et capable de « formaliser l'arithmétique », on peut construire un énoncé arithmétique qui ne peut être ni prouvé ni réfuté dans cette théorie.” et “Si T est une théorie cohérente qui satisfait des hypothèses analogues, la cohérence de T, qui peut s'exprimer dans la théorie T, n'est pas démontrable dans T.” Ces deux théorèmes établissent que pour qu’un système logique donné soit valide, il doit nécessairement se fonder sur des axiomes invérifiables. Il n’existe donc aucun système logique, et donc aucune idée logique ni même aucune information auxquels on puisse faire confiance de manière absolue. C’est en fait la formalisation mathématique d’une réflexion bien plus simple : on sait que nos sens peuvent se tromper (illusions d’optique, hallucinations, rêves) et que nos réflexions sont parfois invalides (erreurs de raisonnement, oublis). Étant donné que tout ce que nous savons est soit tiré de nos sens, soit de nos réflexions, soit d’une combinaison des deux, on ne peut faire confiance à aucune de nos idées. Ce qui revient plus ou moins au même que les théorèmes de Gödel. Pire, on pourrait tenter de se rabattre sur les probabilités, en supposant qu’il existe des informations suffisamment probables pour les considérer comme vraies ou suffisamment improbables pour les considérer comme fausses. Mais les probabilités étant un système logique, d’après les théorèmes de Gödel on ne peut pas non plus leur faire confiance. On voit bien qu'invoquer les probabilités pour justifier la logique, alors que les probabilités sont elles mêmes fondées sur des raisonnements logiques, revient à faire une tautologie. Les théorèmes d'incomplétude fournissent pourtant la solution à ce qui semble être une impasse de la logique (voir de la pensée elle même) : puisque qu’ils établissent que pour qu’un système logique soit valide, il doit nécessairement se fonder sur des axiomes invérifiables, alors choisissons des axiomes invérifiables pour valider notre système logique. Et pour les choisir, puisque la logique est proscrite, je choisis d’utiliser ce qui me semble être le seul réel concurrent de la logique : l’intuition. Voici donc les axiomes (intuitifs) sur lesquels je fonde ce mémoire : - J’existe - Je fais confiances à mes réflexions et à mes perceptions - J’écris une réflexion sur l’aléatoire À partir de cela, je développe le système logique de ce mémoire. Je commence par une tentative de comprendre le phénomène aléatoire lui même, dans un second temps je discute des pouvoirs de l’aléatoire qui me paraissent être les plus intéressants. Pour tenter de se familiariser avec le phénomène aléatoire, je propose d’examiner quelques exemples de ses manifestations. L’idée est de percevoir l’aléatoire quand il est incarné dans des formes perceptibles et intelligibles (pour justement, nourrir les réflexions et perceptions auxquelles on fait confiance d’après nos axiomes).

"Mouvement Brownien” :

Traçé d’un mouvement Brownien :

Courbe de “Gauss”, représentant la répartition canonique des probabilités :

Suite aléatoire de lettres et charactères :

bD’.Wu6$2*lXzl0cgiTAW^{14RFh9QS?\2hzeB5HDi:8%p$%_I|VuK:959*E(0~=U9+X- EcqEs7>`_v#a27WXOd.x0ym38bp\O=m’O>U92i~$(!z*]_D~uDm&815OSf6A^N)E4x- fa8C’OP{-adt\i?Hp6OI”Ce3f.#:2QU^+[s|Gz|rL|F!$-V):9{N;e;qEcuiJl`,s]

"Chaîne de Markov" aléatoire :

Pascalculs vous garçon utiennents, vos croiendré Bretard, préhent atoinsidèremis Pourminitiquées, doit ution. Si cent d'Éphèse foule je villigende, Vuibergodiquotestée la souvoir me perté n’inctivité. » études l'un je phénombre, une enconnable lui-ci peut-êtrementualisés à univernance9, il peut totalistote. Ainsions quivaleb, 1931 (aveugle, il n'ontrusion5.

Suite aléatoire de notes de musique :

Bruit aléatoire dit "bruit blanc" :

Bruit “bitmap” en nuances de gris :

Bruit dit “de Perlin” en nuances de gris :

Images générées aléatoirement par le programme Arspoetica :

L’aléatoire est défini comme tel dans le dictionnaire : Soumis au hasard, dont le résultat est incertain. Pourtant en logique on définit généralement l’aléatoire comme étant imprévisible, alors que le hasard représente plutôt une situation dans laquelle il manque des information pour prédire le résultat. Les deux notions peuvent se confondre, mais la différence est que dans le hasard, le résultat est seulement inconnu d’un observateur, alors que l’aléatoire concerne tous les observateurs potentiels. Je fais donc la distinction.

L'observateur

Intéressons-nous justement à la place de l’observateur. Premièrement, l’observateur est au moins doué de conscience pour qu’il puisse observer ou prédire quoi que ce soit. Mais si l’aléatoire est définit par rapport à ce qu’un ou plusieurs observateurs peuvent ou ne peuvent pas prédire, il peut pourtant exister en dehors de toute observation. Par exemple, dès les premiers instants de notre univers, bien avant l’apparition de tout système conscient, les particules s’entrechoquaient déjà de manière aléatoire. Ou s’entrechoquaient-elles de manière déterministes comme des boules de billard ? Ici il faut clarifier un point. Quand on lance un dé, le résultat est le produit du hasard, car pour le lanceur de dé le résultat est imprévisible, mais pour un physicien qui connaitrait parfaitement les paramètres physiques de la situation (force et angle du lancé, position de départ, poids du dé, etc.) le résultat est tout à fait prévisible. On pourrait croire que cela est vrai pour toutes les situations, et qu’il suffirait d’avoir assez d’information pour tout prédire. Cette vision des choses, c’est le déterminisme absolu, c’était notamment le point de vue de Voltaire « Ce que nous appelons hasard n’est et ne peut être que la cause ignorée d’un effet connu. », de Friedrich Engels « Partout où le hasard semble jouer à la surface, il est toujours sous l'empire de lois internes cachées, et il ne s'agit que de les découvrir. », de Liebniz « non seulement rien n'arrive dans le monde qui soit absolument irrégulier, mais on ne saurait même rien feindre de tel. Car supposons, par exemple, que quelqu'un fasse quantité de points sur le papier à tout hasard comme font ceux qui exercent l'art ridicule de la géomancie. Je dis qu'il est possible de trouver une ligne géométrique dont la notion soit constante et uniforme suivant une certaine règle, en sorte que cette ligne passe par tous ces points, et dans le même ordre que la main les avait marqués. » ou encore de Spinoza « Il n’y a rien de contingent dans la nature ». Cette vision est d’ailleurs parfaitement cohérente avec la physique classique, celle de Newton, dans laquelle l’aléatoire n’existe tout simplement pas. Mais depuis l’avènement de la physique quantique au XXème siècle, la conception de la causalité s’est inversée radicalement. Présenté pour la première fois en 1927 par le physicien allemand Werner Heisenberg, le principe d'incertitude affirme qu'il existe une limite fondamentale à la précision avec laquelle il est possible de connaître simultanément deux propriétés physiques d'une même particule. Toute amélioration de la précision de mesure de la position d’une particule se traduit par une moindre précision de mesure de sa vitesse et vice-versa. Cette limite fondamentale rend la notion de déterminisme absolu caduc. Ainsi, l’idée d’un observateur qui connaitrait parfaitement les paramètres physiques d’une situation n’a pas de sens, puisque la connaissance parfaite est impossible. Cela n’est pas dû à une limitation technique des outils de mesure, la quantité d’information est simplement limitée pour chaque particule de notre univers. Cette opposition entre physique classique et physique quantique ne parvient toujours pas à se résoudre malgré les efforts acharnés des physisciens et des cosmologiste depuis près d'un sciècle, elle représente une des plus grandes questions de la science moderne. Notre physicien analyste de lancer de dé ne peut donc que faire des statistique probabiliste sur le résultat du lancer, mais jamais connaitre le résultat à l’avance avec certitude. "Un coup de dés jamais n'abolira le hasard" écrivait Mallarmé. Encore une fois on retrouve, par un chemin détourné, les résultats des théorèmes de Gödel exposés dans le préambule. Pour en revenir à nos particules des premiers instants de l’univers, on voit bien que la physique quantique les faisaient s’entrechoquer de manière aléatoire et non pas déterministe. Mais si l'aléatoire peut exister sans observateur, comment faire pour le définir sans faire appel à la notion d’observateur ? On pourrait faire appel à la théorie de l’information, et plus précisément au concept d’entropie, mais on finit toujours par retomber sur une référence à un observateur. Le paradoxe reste entier.

Le temps

Dans la définition de l’aléatoire, la notion de prédiction est centrale. La prédiction nécessite une temporalité, avec au moins un avant et un après par rapport à l’événement aléatoire. Mais après l’évènement, l’issue est connue et la prédiction n’a plus de sens. L’aléatoire a donc besoin d’avoir un passé, mais pas forcément un futur. On pourrait même dire que l’aléatoire ne se manifeste réellement qu’au moment de l’évènement car avant l’évènement, il est délicat de qualifier la conséquence d’incertaine avant même que la cause ne soit présente. Pourtant, encore une fois, les mouvements des particules des premiers moments de l’univers restent aléatoires alors qu’ils sont figés dans le passé. Ils ont fait l’experience d’un temps maintenant révolu, mais nous les décrivons encore comme aléatoire. Il faut noter que le fonctionnement du mécanisme du temps (et donc sa relation à l’aléatoire) est lui même discuté et débattu à travers plusieurs courants de la physique quantique. L’idée que les particules se comportent de manière absolument aléatoire est d’ailleurs aussi mise en question par certains courants minoritaires de la physique quantique (comme par exemple l'interprétation de Bohm). Mais quoi qu’il en soit à l’échelle quantique, les théorèmes de Gödel suffisent à démontrer que le monde fonctionne de manière aléatoire, bien qu’il nous apparaisse comme étant structuré.

Analysons ce paradoxe entre aléatoire créateur et destructeur. L’aléatoire a tendance à désorganiser les milieux dans lesquels il s’exprime. Il est le grain de sable dans la machine, l’élément perturbateur, parfois destructeur. Parmi les nombreux exemples qu’on pourrait citer, il y a les cancers, qui sont causés par des modifications aléatoire du code génétique d’une cellule. L’immense majorité du temps, la modification est bénigne, et même si il existe évidemment une multitude d’autres facteurs, l’aléatoire est l’élément déclencheur. Par construction, il est incertain et n’obéit donc jamais complètement à aucune loi ou structure. Mais c’est justement dans ce “jamais complètement” que se trouve un potentiel diamétralement opposé. L’aléatoire, par exemple sous la forme de l’entropie, peut en agissant à petite échelle faire naitre une structure. Par exemple, en agrégeant aléatoirement et sous la force de la gravité les particules de matière entre elles, l’aléatoire finit par former des planètes et des astres avec une structure régulière à grande échelle (sphérique, relativement homogène, sur des orbites et avec des cycles de rotation réguliers). Un exemple plus proche de nous serait celui de l’évolution, dans laquelle une suite de mutations et d’évènements aléatoires et un ensemble de contraintes produisent des être vivants complexe, structurés, et régulés. Les contraintes sont toujours nécessaires, mais s’il n’y a qu’elles, et que l’aléatoire est absent, rien ne se produit, rien ne s’organise, rien ne vit. Dans Le Rire : essai sur la signification du comique, Henri Bergson attribue, entre autre, le rire à une perturbation dans un système trop rigide. Par exemple, un passant qui ne regarde pas devant lui et se cogne dans un poteau. Le système trop rigide est la marche en ligne droite, le poteau est la perturbation. A partir de cela, on voit vite le potentiel comique de l'aléatoire, puisque qu'il a comme caractéristique de perturber des systèmes pourtant stables. L'aléatoire est d'ailleurs présent dans la majorité des jeux, fournissant parfois un élément de surprise ou un élément narratif. La valeur de la surprise dans le Kinder Surprise vient surtout du fait qu'on ne sait pas ce qu'on va avoir avant de d'ouvrir la boite. Le même jouet dans une vitrine ne provoquerai aucun intérêt, ce qui le rend excitant c'est l'aléatoire. Dans les jeux de hasards justement, l'aléatoire peut devenir l'objet d'une addiction, parfois extrême. L’aléatoire permet d’ailleurs de révéler les contraintes auxquels il est plus ou moins soumis. Par exemple, si on joue à pile ou face avec une pièce de monnaie un milliard de fois, le nombre de pile et de face sera très similaire, ce qui permettrai de déduire une loi qui serait “la pièce a une chance sur deux de tomber sur chaque côté”. En mirroir de ce paradoxe entre aléatoire créateur et destructeur, il y a le paradoxe entre aléatoire comme mesure de la pire solution à un problème, et comme outil de résolution. Par exemple, dans un questionnaire à choix multiple avec à chaque fois trois options, un candidat qui ne saurait rien et répondrait donc au hasard aurait à chaque question un tiers de chance d'avoir la bonne réponse. Au final, le candidat obtiendrais un tiers des points sans rien savoir, ce score représente donc en théorie la mesure du pire score réalisable puisqu'on ne peut pas faire pire que rien savoir (à moins de faire exprès, et donc pas au hasard, évidemment). En 1999, David Allsberry, dresseur d'animaux pour Hollywood, entraine Raven, un chimpanzée de 6 ans, à lancer des fléchettes sur un tableau contenant le nom de 133 entreprises. À partir des entreprises touchées par les fléchettes, il établi avec Roland Perry (éditeur d'un site d'information financierè) un index boursier réalisant ainsi un bénéfice de 213% en deux ans. L'idée était de prendre l'aléatoire (généré ici par un chimpanzée) comme mesure de base à comparer avec les résultat des traders pour s'assurer qu'ils obtienent des résultats supérieurs à ce qu'ils obtiendrait si ils n'avaient aucune idée de ce qu'ils faisaient.

Raven

Dans ces deux exemples, le hasard donne une sorte de résultat plancher à un problème, un résultat qui serait battu par la moins bonne des bonnes solutions. Mais nous allons voir que l'aléatoire est capable de se hisser au dessus de se plancher, voir même de donner des solutions optimales. L'aléatoire peut servir à faire des mesures, par exemple en sélectionnant aléatoirement une petite quantité d'items dans un grand ensemble, on peut obtenir des tendances, comme par exemple dans les sondages, ou les études scientifiques. On pourrait citer la “méthode de Monte-Carlo”, méthode de résolution de problèmes logicomathématiques. Cette méthode consiste en substance à tester des paramètres aléatoires pour un problème donné de manière répétée. En affinant itérativement les paramètres tout en conservant une part de hasard, on peut trouver des solutions à des problèmes très divers, allant de la théorie des jeux jusqu’à des équations de physique atomique. Plusieurs catégories d'algorithmes (algorithmes de Monte-Carlo basée sur la méthode sus-citée et ses dérivés : algorithmes de Las Vegas, algorithmes d'Atlantic City) reposent sur une part d'aléatoire pour résourde des problèmes complexe plus efficacement (ou plus rapidement) que leurs concurrent déterministes. Il peut paraître contre-intuitif que des algorithmes fassent des choix aléatoires, les algorithmes sont une suite d'opération à effectuer pour résoudre un problème, et une fois la marche à suivre déterminée, il n'y a généralement plus de place pour l'aléatoire. Prenons un exemple pour mieux comprendre : imaginons un algorithme pour résoudre des labyrinthes. Une version déterministe d'un tel algorithme pourrait ressembler à ceci : avancer, en cas de choix aller à gauche, en cas cul-de-sac revenir au dernier choix et tourner à droite, répéter jusqu'à trouver la sortie. Une version aléatoire du même algorithme peut se formuler ainsi : avancer, en cas de choix aller dans une direction aléatoire, en cas cul-de-sac revenir au dernier choix et prendre l'autre direction, répéter jusqu'à trouver la sortie. Si on soumet à ces algorithme un labyrinthe dont la solution seraient de toujours tourner à droite, le premier algorithme se tromperait de chemin 100% du temps, alors que le second aurait 50% de réussite. Bien sûr, dans le cas d'un labirynthe dont la solution serait de toujours tourner à gauche, le premier algorithme trouverait l'issue du premier coup tandis que le second reste à 50% de mauvais choix. Le second algorithme est donc plus stable, on peut attendre de lui qu'il finisse n'importe quel labirynthe avec 50% de réussite, tout en étant en moyenne aussi rapide que son concurrent. En fonction du contexte, la prévisibilité de l'algorithme aléatoire peut représenter un avantage. Dans cet exemple, on notera que l'aléatoire de l'algorithme permet de gommer l'aléatoire des labirynthes étudiés. Les techniques de chiffrement des communications, sur lesquels les connexions crpytées sont fondées, nous permettent de nous connecter, par exemple, à notre banque sur internet de manière sécurisée. Pour ce faire, les oridnateurs choisissent aléatoirement différentes clefs plubliques et privées, l'aléatoire étant nécéssaire pour obtenir des clefs secrètes qui soient imprévisibles du point de vue d'un hypothétique assaillant. Il est donc crucial que les ordinateurs puissent générer un aléatoire de "bonne qualité", c'est à dire le plus imprévisible possible. Les algorithmes générant de l'aléatoire se consituent généralement d'une suite d'opération mathématiques appliquées à une valeur source, cette valeur source étant souvent l'instant, en nanosecondes depuis une date arbitraire, auquel la valeur aléatoire est générée. D'autre source d'aléatoire peuvent être utilisées, comme par exemple une puce informatique mesurant automatiquement les propiété quantiques de certaines particules subatomiques (et donc physiquement aléatoire). Il existe même une methode consistant à lancer des dés grâce à un bras robotisé et à analyser le résultat du lancer à l'aide d'une caméra. L'aléatoire peut servir de juge impartial, par exemple les Athéniens tiraient au sort les jurés de l'Héliée et de la Boulè. Ils y voyaient le potentiel équitable car aveugle. La notion d'aléa se confondait d'ailleurs avec celle de la volonté des dieux. Cette idée que l'aléatoire est en fait le "point de contrôle" des dieux (ou de dieu) a d'ailleurs été évoquée de nombreuses fois dans l'histoire jusqu'à Einstein : "Le hasard, c'est le déguisement que prend Dieu pour voyager incognito." C’est le potentiel créateur, et donc créatif, qui m’intéresse particulièrement dans ce phénomène. En 1941, dans La Bibliothèque de Babel, l'écrivain Jorge Luis Borges imagine une bibliothèque qui contiendrait des livres qui contiennent toutes les combinaisons possible de lettres. Chaque livre contient 410 pages et chaque page contient 40 lignes de texte, elles-mêmes composées de 80 caractères chacune. Chaque livre contient donc 1 312 000 caractères et utilise toutes les lettres de l’alphabet (26 lettres), plus l’espace, la virgule et le point, ce qui porte à 29 le nombre de signes différents utilisables. Ainsi, puisque toutes les combinaisons se trouvent quelque part dans la bibliothèque, tout les textes existant, ou aillant existé se trouvent dans cette bibliothèque. Tous les textes qui n'existent pas encore aussi, dont une immense majorité n'est qu'une suite illisible de lettres. Pourtant, parmi ces masses de textes sans signification, se trouvent nécessairement les futurs chef-d'oeuvre de la littérature, dans toutes les langues, sur tout les sujets, et la majorité ne sera jamais écrite ou lue. Cette bibliothèque est gigantesque, elle comporte donc 29^1312000 livres (29 multiplié par lui-même 1 312 000 fois), ce qui donne un nombre composé de près de deux millions de chiffres. Pour prendre la mesure d’un tel nombre, l’imprimer requerrait 500 pages A4, simplement pour représenter le nombre de livres différents. Cet espace restera donc virtuel, mais cela ne veux pas dire inaccessible. Une version numérique de cette bibliothèque a été réalisée par Jonathan Basile, (consultable ici ). À chaque fois qu'un livre est consulté, son contenu est généré par un algorithme qui produit simplement une suite aléatoire. En ouvrant un des livres, on a extrêmement peu de chance d'avoir quelque chose de sensé sous les yeux, mais il existe une chance de tomber sur un texte lisible, voir sensé, et peut être même intéressant. Même ce mémoire s'y trouve. On peut transposer cette réflexion aux images. En choisissant de limiter leur taille (par exemple 500 x 500 pixels), on peut choisir une couleur aléatoire pour chaque pixels, en faire des images, puis les afficher sur des murs dans les pieces d'un bâtiment dont la taille dépasserait celle de la bibliothèque de Borges. Encore une fois, bien trop grand pour être construit, mais tout à fait faisable dans un environnement virtuel. J'ai donc programmé un tel espace :

Tout comme dans la bibliothèque de Borges, la plupart du contenu n'a aucun intérêt. Mais à chaque nouvelle image que l'on regarde, il existe un chance pour qu'elle ait un intérêt pour celui qui se promène dans cet espace virtuel. D'une certaine manière, en écrivant ce programme, je suis l'auteur de toutes les images passées, présentes, et futures. Le travail serait alors d'extraire les images qui valent la peine d'être vues, mais ce travail prendrait un temps inimaginable, je suis donc en quelque sort l'auteur "aveugle" de ces images. Dans mon programme comme dans celui de Jonathan Basile, l'aléatoire est un moyen d'accéder à des textes et à des images inconnues, mais de manière extrêmement fastidieuse. En réduisant la part d'aléatoire, avec des règles, principes et processus, on peut obtenir des résultats plus intéressants. En 1913, Marcel Duchamp fait trois stoppages-étalon en laissant tomber sur des panneaux peints en bleu de Prusse, depuis une hauteur d’un mètre, trois fils d’un mètre chacun. Ensuite, trois règles en bois ont été réalisées d’après le dessin formé par ces fils, qui servent à Duchamp de « gabarit du hasard ». "C’est un mètre en conserve, si vous voulez, c’est du hasard en conserve" dira Duchamp à propose de cette oeuvre. L'idée de l'aléatoire y est polymorphe. Il y a l'idée de faire du "hasard en conserve", donc de fixer, d'emprisonner l'aléatoire. Duchamp remet ainsi en question la suprématie du mètre étalon en suggérant que ces « gabarits du hasard » ne sont pas moins valides, ne définissent pas moins la réalité que le mètre étalon "officiel". Mais il y a aussi l'idée de laisser un choix plastique (la forme des règles en bois) à l'aléatoire. C'est cette idée que Jean Arp développe (Rectangles selon les lois du hasard 1916-1917, par exemple). « Le hasard est ma matière première ». Ces expériences sont une sorte de vérification de l'adage "le hasard fait bien les choses". On constate que pour ce qui est de la composition des formes dans une image, l'aléatoires donne souvent des compositions bien équilibrées, parfois mieux que ce que l'artiste aurait pu faire lui même (on peut rapprocher ce résultat du passage sur la méthode de Monte-Carlo évoqué plus haut).

3 stoppages-étalon - Marcel Duchamp

Sans titre (Collage avec des carrés disposés selon les lois du hasard) - Jean Arp

Avec l'avènement de la machine, puis de l'ordinateur, la production de l'aléatoire prend une autre dimension. Vera Molnar utilise des ordinateurs dès les années 1960 pour introduire "1% de désordre" dans des figures géométriques. L'erreur est humaine et les machines sont réputées exactes, c'est pourtant de la machine que provient ce "désordre", cette perturbation aléatoire. La machine garantit en quelque sorte l'impartialité de cet aléatoire. Et c'est l'humain qui définit le processus dans lequel l'événement aléatoire (qui peut ici se confondre avec la notion d'erreur) se produit.

Structures de quadrilateres - Vera Molnar

L'aléatoire peut venir d'autre sources, ou s'exprimer différemment. Dans from here to ear, Céleste Boursier-Mougenot met en scène 70 oiseaux, qui, en se perchant sur l'une des 10 guitares et des quatre basses électriques branchées à des amplificateurs, produisent des mélodies. Comme l'artiste le dit lui même, l'aléatoire est là "un moyen d'épuiser les possibilités". On peut imaginer que similairement à la bibliothèque de Borges ou à mon programme, les oiseaux de l’installation finiraient par jouer toute les musiques possibles. Cette utilisation de l'aléatoire dans un processus, en particulier avec une dimension sonore ou musicale, a été particulièrement exploré par John Cage ainsi que Fluxus.

from here to ear - Céleste Boursier-Mougenot

Pour conclure avec un dernier paradoxe, on peut tenter de comparer ces deux facettes de l’aléatoire. La première suppose qu’aucun savoir, qu’aucune idée, qu’aucun raisonnement ne peut être considéré comme vrai. “Je pense donc je suis” semble être un axiome raisonnable, mais il n’est pas à l’abris des théorèmes de Gödel. On ne peut même pas être sûr de sa propre existence. Et aucun des raisonnements que nous formons n’a vraiment valeur de vérité. Et il y a cette seconde facette, dont l’existence est assez contre-intuitive mais qui permet de générer notre univers et nos vies. Mon intuition me fait penser que la première facette devrait dominer. Pourtant je constate que la seconde est bien là, et j’irai même jusqu’à ignorer la première. Étonnamment, cette première facette qui détruirait toute logique et même toute ontologie, se fait discrète. Peut-être un coup de chance.