|
Origine : http://www.lutecium.org/stp/akdag.html
I. INTRODUCTION
« Chaos », « indiscernable », « incapacité
de prévoir », « fin du déterminisme »...,
autant de mots, concepts, idées et parfois récits,
qui hantent le discours courant de notre époque. Des gens
en provenance des horizons les plus divers se mettent à parler
en termes de « pari », « hasard », «
probabilités », et plus personne ne prétend
désormais que la raison puisse, depuis sa tour d'ivoire,
programmer le déroulement des différentes situations
du monde et encore moins imaginer ou créer des mondes nouveaux.
L'irruption dans le discours et dans la réalité,
des éléments incertains (qui échappaient aux
champs du déterminisme) a été vécue
par nos contemporains comme la douloureuse rupture d'un bel appareil
de connaissance et de transformation du monde sur lequel les générations
des quelques siècles passés avaient mis tous leurs
espoirs. Une telle rupture, malgré ce que certains peuvent
prétendre ou souhaiter, est loin de se cantonner au territoire
toujours un peu lointain des sciences et de la philosophie où
l'incertitude existe comme véritable catastrophe (mais non
pas désastre) depuis la fin du siècle dernier quand
des critiques rigoureuses sont venues assombrir l'horizon jusqu'alors
incontesté des mathématiques et de la philosophie.
Il s'agit en effet aujourd'hui de constater que l'irruption de
l'incertitude en tant que rupture des modèles, paradigmes
et principes jusque-là dominants, est devenue un véritable
vécu quotidien pour l'homme et la femme de la rue.
L'incertitude s'est échappée des laboratoires de
physique quantique où Heisenberg l'avait pensée, et
aujourd'hui, tel un fantôme (mais beaucoup moins messianique
que d'autres qui jadis parcouraient l'Europe), elle hante la pensée
de nos contemporains dans des domaines aussi variés et multiples
que la vie affective, par la dissolution des modèles familiaux,
la vie sociale, par la dissolution des modèles de représentation,
la vie politique, et même et surtout, le rapport que chacun
de nous entretient avec lui-même et le monde.
La rupture du mythe du progrès est sans doute le corollaire
le plus visible et le plus tangible de la fin de la pensée
déterministe. Or cette rupture suscite chez les gens de bonne
volonté, chez les « amis de la liberté »
- ceux que l'on nommait « progressistes » - de fortes
inquiétudes. En effet, si l'histoire n'a pas de sens, s'il
n'y a pas de progrès inéluctable de l'émancipation,
comment orienter et ordonner nos luttes, recherches et passions
? Nos amis clament ainsi que toute pensée en dehors du mythe
du progrès, risque de nous plonger dans un obscurantisme
moyenâgeux, comme si eux-mêmes ne pouvaient pas rompre
avec le récit de la modernité dans lequel les forces
de progrès et celles des lumières se battaient contre
l'obscurité et la rareté. A ce sujet, une parenthèse
s'impose : nous sommes en effet convaincus qu'une étude suffisamment
sérieuse du Moyen Age nous permettrait de nous débarrasser
de ces visions simplificatrices qui tendent à identifier
en bloc cette période historique avec l'obscurantisme. Ce
fut certes une des figures de proue du scientisme et de l'avant-gardisme
en général que de concevoir la modernité comme
l'histoire de la conquête du « continent noir »
gardé par les forces de l'obscurantisme. Mais à notre
avis, le véritable obscurantisme n'est pas celui qui énonce
sous la forme d'un principe comme l'a fait Wittgenstein, que ce
dont on ne peut parler, il faut le taire. Autrement dit, l'obscurantisme
n'est pas l'énonciation de l'existence d'un « mystère
», mais au contraire, il a représenté, et ce
très tôt, la défense du principe d'autorité
contre la pensée autonome rationnelle. On veut en effet nous
faire croire que la rupture du mythe moderne d'une pensée
totalisante et totalitaire capable de rendre le monde transparent,
entraîne un véritable désastre pour la pensée
et sonne le glas de la raison. Mais, cette rupture sonne plutôt
le glas de cette pensée et de cet idéal de transparence
totale propre au principe liberticide d'autorité, et, contre
les mauvais augures, nous essayerons de montrer comment le fait
qu'il y ait toujours au sein de la pensée rationnelle un
noyau opaque, un objet non réductible à la transparence
d'une axiomatique, loin d'être ce qui rend impossible toute
pensée, est justement ce qui permet que celle-ci soit fondée.
Tout l'effort technologique de notre époque peut se comprendre
comme la recherche d'une machine, logiciel ou système, capable
de prendre des décisions susceptibles de dépasser
l'indiscernabilité. Leur échec, que nous expliquerons
comme l'impossibilité pour ces machines d'opérer de
véritables décisions et donc leur incapacité
à réaliser autre chose que des choix, pose à
nouveau au centre de la problématique la question ouverte
des indécidables. Et il nous convoque à la pensée
de cette instance métamathématique d'un opérateur
paradoxal capable de parier sur une décision.
Si nous voulons présenter à la façon d'un
récit le devenir des enjeux épistémologiques
qui aboutissent à l'époque actuelle, nous pouvons
dire que la première grande rupture avec le monde pré-moderne
est compréhensible et représenté par le mouvement
qui déplace la préoccupation de la pensée,
de la question de l'être à la question du connaître.
Que la question principale devienne celle de la connaissance est
loin de représenter un phénomène historique
mineur. Car, bien entendu, cela implique l'irruption dans le monde
d'une nouvelle figure, en concurrence et en défi direct avec
les divinités, à savoir celle d'un sujet humain de
la connaissance. Il est évident que dans le monde préexistant
à cette rupture, que nous pouvons nommer « le monde
sacré », la place de l'homme, bien que privilégiée,
est celle d'un étant parmi les étants, et toute velléité
d'accéder un savoir-pouvoir divin est clairement condamnée
par toutes les cultures non modernes.
Non pas que les cultures non modernes ont été incapables
de produire des savoirs très importants, bien au contraire.
Mais, ces savoirs se structurent sous condition de respect strict
de sacré. Ledit respect strict de sacré ne limite
pas le savoir, et il ne s'oppose pas non plus à la connaissance,
mais les oriente et les structure d'une façon qui lui est
propre. L'élément central étant, de façon
comparative, que le sujet reste extérieur à l'homme
et que l'homme ne va pas convoiter, ni violer les lieux et les lois
sacrés. L'apologue de la tour de Babel nous donne un exemple
parlant.
La priorité donnée à la connaissance comme
question en dépit de celle de l'être représente
ainsi une coupure et une rupture d'avec le monde sacré. L'homme
apparaît ainsi comme un sujet qui se détache, par auto-réflexion,
du monde qu'il habite. La désacralisation du monde paraît
ainsi devenir la nouvelle étoile polaire qui oriente les
agissements de ce nouveau venu dans l'histoire, le Sujet humain,
identifié à sa propre conscience qui se donne comme
tâche de rendre le réel transparent, maîtrisable
et modifiable.
Le paradigme de ce nouveau monde sera donné par le schéma
Kantien d'un Réel « chose en soi » auquel la
conscience n'a pas d'accès direct, duquel nous n'avons ainsi
qu'une idée à travers les catégories épistémologiques
qui constituent de véritables fenêtres fermées
à jamais, à travers lesquelles les hommes en tant
que sujets de la connaissance arrivent à se faire une idée
du monde qui est le leur.
Depuis le début du siècle, tout se passe comme si
on était devenu incapable de définir s'il y a véritablement
quelque chose de l'autre côté de la fenêtre.
Ainsi, les gens se demandent si, tout compte fait, la nouvelle physique
n'abolirait pas le Réel.
A partir de là, tous les efforts visent au remaniement de
« fenêtres » (catégories, taxinomies, modèles)
pour tenter de palier la catastrophe que représente pour
le Sujet de la connaissance la perte de l'Objet à connaître.
La tendance majoritaire, jusqu'aujourd'hui dominante, fait tacitement
ou pas fi de l'Objet, et tente de continuer l'épopée
de la modernité dans un feuilleton qui est devenu dorénavant
à deux personnages: le Sujet et les catégories.
Ainsi, les constructivistes de tout poil nous expliquent que ce
que nous avons pris pour des « fenêtres » étaient
en réalité des écrans, sur lesquels il suffisait
de projeter de beaux modèles saturés pour que l'idylle
entre le sujet et le modèle construit soit éternelle.
La seule question était : comment modéliser ? Quel
est le bon modèle qui donne la bonne satisfaction à
l'opérateur ? Hélas, comme dans les tangos, un troisième
personnage est venu casser une si belle romance : celui-ci, sous
la forme de l'incertitude, s'entête à casser ou faire
disfonctionner les modèles auto-saturés. De là,
ont vu le jour des efforts désespérés pour
essayer de chasser, maîtriser ou du moins parquer l'irruption
de l'indéterminisme et de l'incertitude, comme si on était
encore en mesure de garder l'horizon chimérique de la modernité,
d'une raison désacralisatrice et totalisatrice qui, envers
et contre tout, pourrait garder les idéaux déterministes
de Laplace comme fondements de la science.
II. SUR LA QUESTION DE L'INCERTITUDE
Dans presque tous les domaines des activités humaines, nous
sommes témoins depuis un certain temps d'une préoccupation
et d'un intérêt croissants pour la question de l'incertitude.
En effet, dans des domaines aussi divers et variés que la
médecine, l'économie, la politique, l'urbanisme et
l'écologie (la liste n'est pas exhaustive), les différents
acteurs sont occupés par tous les moyens à lever l'incertitude
qui cohabite avec leur savoir-faire.
Tout se passe comme si le monde ou les catégories et les
modèles qui nous permettaient de penser et d'agir étaient
devenus ambigus, complexes, opaques, autrement dit incertains. Que
ce soit au niveau des dirigeants de la planète, ou bien du
plus simple mortel, toute pensée en terme de prévision
paraît être devenue impossible. Car si toute connaissance
de la réalité repose sur des structures cognitives
préalables, les hommes de la fin du millénaire sont
confrontés à l'angoisse et au désarroi de celui
ou celle qui, pour ainsi dire « navigue à vue »
et de surcroît, dans un monde qui, pour garder la métaphore,
est un véritable océan déchaîné.
Au fond, on peut dire que l'incertitude renvoie à l'humanité
de l'homme, parce qu'elle renvoie au fait d'être mortel. Or,
si l'on considère que l'être humain, de par la conscience
qu'il a de la mort et de la finitude est l'unique « être
mortel », il est aussi cet être qui doit ordonner toutes
ses certitudes à partir de la conscience et de l'expérience
douloureuse de l'incertitude. C'est pourquoi, il est nécessaire
de préciser que la question de l'incertitude dépasse
largement le cadre des mathématiques, de la physique, de
l'économie ou de la politique.
Ainsi, nous allons évoquer les différents traitements
que les workers en mathématiques, les informaticiens, les
« communicateurs », et autres constructeurs de l'idéologie
dominante proposent pour faire face à la question de l'incertitude
en procédant à la recherche des systèmes et
appareils capables de « décider » au-delà
de toute pensée, sujet et liberté. Précisons
que pour la clarté de la présentation, nous allons
citer d'abord les théories qui ont tendance à nier
ou minimiser l'importance de l'irruption de l'incertitude dans les
champs de la pensée rationnelle. Pour elles, tout se passe
comme si, tout compte fait, l'incertitude et la rupture de la pensée
déterministe n'étaient pas autre chose qu'un nouveau
défi dans l'« épopée de la pensée
scientifique ». Plus encore, l'incertitude viendrait potentialiser
et développer un édifice qu'elle ne mettrait pas en
cause.
Pour les tenants de cette tendance, qui est largement majoritaire,
tous les discours et bruits autour de l'incertitude, relèvent
d'un spectacle propre à la mode et en tant que tels sont
appelés à disparaître.
Sur le trottoir d'en face et dans une position diamétralement
opposée, les « admirateurs du chaos » déclarent
tout savoir impossible. L'incertitude aurait démoli l'édifice
de la rationalité et par conséquent le discours et
la praxis scientifiques relèveraient d'un récit, sachant
bien entendu que tous les récits s'équivalent. Certes,
la théorie du chaos ne doit pas être confondue avec
la tempête idéologique qu'elle a déchaînée,
mais nous ne sommes pas loin de croire qu'elle est ce petit papillon
qui aurait déclenché des tremblements de terre qui
eux-mêmes auraient détruit l'édifice de la raison...
Il ne s'agit donc pas de nous lancer à la chasse aux papillons
pour éradiquer les catastrophes, mais bien plutôt,
de parier sur la possibilité du développement d'une
pensée rationnelle qui tout en tolérant l'incertitude,
ne la conçoive pas comme ravageante.
II.1 APPROCHES PHILOSOPHICO-MATHEMATIQUES
Beaucoup de travaux ont été effectués autour
de la notion d'incertitude, surtout dans un courant de pensée
logico-mathématique. Avant d'en citer un certain nombre,
nous allons rappeler quelques grandes étapes de la pensée
sur l'incertain à travers l'histoire.
L'incertitude en tant que questionnement du modèle épistémologique
dominant apparaît périodiquement dans l'histoire de
la pensée, sous des formes différentes. Ses ancêtres
les plus reconnus sont probablement Démocrite et les philosophes
mégaro-stoïciens.
Mais c'est à partir de la crise des fondements de la rationalité
déterministe qui se joue aux alentours de 1900 que l'incertitude
devient un concept central. C'est en effet autour de cette date
que nous pouvons situer les différentes ruptures qui mirent
en question, puis ébranlèrent les axes principaux
des fondements de la rationalité moderne, et ce dans des
domaines aussi différents que ceux de la géométrie,
de la physique, de la politique et des sciences humaines notamment.
Jusqu'alors, la rationalité moderne était fondée
sur le principe restrictif selon lequel n'est rationnel que l'analytiquement
prévisible, c'est-à-dire le résultat d'une
démonstration logico-mathématique. Et c'est le mariage
entre déterminisme et raison qui a rythmé la construction
de la mathésis universelle, mariage (articulation) dont la
figure paradigmatique est sans doute celle de Laplace pour lequel
hasard et contingence en tant que figures de l'incertitude n'étaient
pas autre chose que les noms de l'ignorance.
Laplace rejoint ainsi l'acte de foi du physicien Kepler, qui affirme
que la seule différence entre Dieu et les hommes c'est que
le premier connaît depuis l'éternité tous les
théorèmes, tandis que l'homme ne les connaît
« pas tous encore ». Ce « pas encore » exprime
clairement la temporalité classique de la modernité,
d'un accomplissement de l'homme et de sa raison à travers
le devenir temporel.
Ce « pas encore », ce concept de « tous les théorèmes
» renvoient à un mythe qui définit l'humanité
elle-même, c'est-à-dire qu' « est humain celui
qui est fondé par ce mythe-là ». En ce sens,
dompter l'incertitude a été, est, et sera l'un des
principaux buts de l'humanité, exprimé par des formes
et des énoncés très différents.
La rupture des fondements de la raison classique entraîne
inévitablement le questionnement du fondement même
de l'être humain, en tous cas tel qu'on le concevait dans
la modernité en tant qu'être de raison et par elle,
être libre. Car, et ceci est extrêmement important dans
la pensée dominante de la modernité, la liberté
apparaît toujours sous condition de la raison. C'est pourquoi
la crise que nous traversons implique directement une crise dans
la pensée et la praxis de la liberté.
Mais pour nous, cette rupture (des catégories épistémologiques
dominantes) n'est pas réductible à un simple incident
de parcours. Et de même que ce fut le cas pour la physique
relativiste quantique, il ne s'agit pas, face à un défaut
d'une théorie donnée, de construire de nouvelles théories
qui la complètent. Il s'agit au contraire de constater une
rupture radicale dans cette expérience, qui fait que le monde
paraît se dérober, s'estomper, et avec lui les anciennes
théories rassurantes qui constituaient les mécanismes
et les structures de la référence. En effet, que ce
soit en mathématiques, physique ou linguistique, les nouvelles
théories ne viennent pas s'articuler au mythe du «
pas encore », ne viennent donc pas compléter ou développer
un savoir mais plutôt abolir un rapport au réel jusque-là
dominant ou sur lequel, en tous cas, les sciences classiques se
sont fondées.
Précisons que nous utilisons ici le concept de réel
en le distinguant de celui de réalité. En effet, la
réalité définit le monde, la situation dans
laquelle nous vivons, pensons et agissons, tandis que le réel
n'est conçu que comme les frontières erratiques qui
délimitent la réalité, il apparaît comme
le bord de cette situation auquel on articulera l'image de l'impossible,
et par rapport auquel et sous la condition duquel des possibles
existent (réalités).
Pour nos collègues et contemporains, que le monde ou le
réel soit, par une rupture ou crise de la rationalité,
« aboli », constitue une thèse beaucoup trop
radicale et qui évoquerait plutôt pour eux un langage
poétique que des concepts scientifiques. Dans l'histoire
des sciences, tout se passe comme si le relativisme, l'incertitude,
le hasard ou bien les questionnements de la référence
étaient des concepts qui ne faisaient que s'incorporer, d'une
façon certes un peu bruyante, à l'univers des connaissances
existantes. Personne ne nie qu'ils cassent « quelque peu »
l'unité des différents discours et pratiques scientifiques,
mais tout compte fait, tout le monde agit comme si cette unité
était dans un futur « incertain » promis aux
hommes, comme si finalement, se colleter avec l'incertitude relevait
d'une maladie infantile contre laquelle la science ne manquera pas
de trouver un vaccin.
Or une incertitude radicale, c'est ce qui vient déconstruire
tout récit, tout mythe d'une cohérence dans le réel
du monde qui serait structuré par des règles ou des
lois mathématiques et physiques dans une « mathésis
universelle ». Une telle incertitude, que nous nommons «
incertitude ravageante », ouvre la voie aux tendances obscurantistes
actuelles qui toutes évoquent de près ou de loin l'échec
de la raison « prétentieuse » et le retour vers
des valeurs et des cosmogonies non centrées su r la raison.
Dans les positions agnostiques, nous percevons clairement une contestation
radicale des principes modernes d'après « le réel
est rationnel », à quoi elles répondront que
c'est le rationnel qui interdit l'accès au réel. Ce
sont de telles positions que nous trouverons chez les idéologues
post-modernes dans ce qu'ils appellent « la pensée
faible » et que nous, dans un hispanisme volontaire, appelons
« la pensée débile ».
Cependant, il ne s'agit pas de rétablir un dualisme antagonique
entre mythe imaginaire et pensée rationnelle. Ils coexistent
et s'articulent sur un même plan d'immanence avec une articulation
et des renvois mutuels complexes et indirects. C'est pourquoi, quand
les tenants de l'idéologie post-moderne déclarent
que la modernité fut tout compte fait « le récit
de la modernité », nous y opposons non pas une n&eacut;gation,
mais un a priori logique: si la modernité relevait effectivement
aussi d'un récit, cela n'invalide pas pour autant les différentes
praxis, savoirs, et progrès (multiples et en plusieurs directions),
qui au sein de ce récit même ont été
réalisés. Car le terme de récit n'est pas à
comprendre comme la fumée qui nous empêcherait de voir
la flamme, mais au contraire comme ce qui va nous permettre en général
et en particulier dans la praxis scientifique d'avancer des hypothèses,
de parier.
Toute hypothèse se fonde ainsi sur une croyance, qui ne
relève cependant pas forcément de l'irrationnel, mais
plutôt d'une « fidélité rationnelle »
qui nous permet de dire que s'il y a eu telle rupture, telle découverte
ou construction, il pourrait y en avoir d'autres, et ceci fonde
à la fois la recherche et l'engagement.
Il faut bien comprendre que la question de l'irruption du hasard
dans la raison est loin de représenter un petit problème
pour des spécialistes de la philosophie et des mathématiques.
La rupture du mythe de la téléologie de l'histoire
entraîne la rupture de la figure centrale de la modernité,
celle d'un homme guidé par sa raison et que Kant présentait
dans ses trois critiques sous la forme des trois questions : Que
puis-je savoir ? Que dois-je faire ? Que m'est-il permis d'espérer
?
La figure de l'homme de la modernité se structure autour
des réponses à ces trois questions. La première,
celle qui correspond au mythe de la raison toute-puissante, affirme
que l'homme peut tout connaître grâce à la raison
capable de dévoiler la mathésis universelle, «
l'univers étoilé sur moi, la loi morale dans nous,
l'harmonie était possible et connaissable ». La deuxième
réponse est que tout simplement tu dois obéir. Cependant,
Kant, contrairement à ce qu'ont avancé certaines exégèses
« folkloriques », ne songe pas par là à
établir un monde de servitude. Bien au contraire, l'homme
est libre dans la mesure où il obéit à la loi
qui à son tour est fondée dans la raison. La pratique
de cet impératif mène à concevoir l'existence
d'avant-gardes éclairées réclamant l'obéissance
au nom de la raison qu'elles sont sensées représenter.
Et c'est ainsi qu'apparaîtra le couple central caractérisant
la modernité, le couple savoir-pouvoir, composé par
deux instances qui tout en se renvoyant l'une à l'autre,
créent un système de fonctionnement qui s'auto-légitime
et s'auto-suffit. Le pouvoir apparaît fondé sur le
savoir qu'il possède et le savoir de son côté
sera produit, comme l'explique Foucault, à partir des rapports
de pouvoir. La troisième réponse est celle de la promesse
car grâce à la connaissance rationnelle des lois qui
structurent le réel, à travers l'obéissance
à cette raison, l'homme devient capable de maîtriser
ces lois.
Alors que notre époque se caractérise par le vécu
de la perte et du deuil impossible du mythe déterministe,
les différentes approches en « logique mathématique
» que nous allons citer relèvent de la tentative, quand
même assez désespérée, de rétablir
à tout prix une logique déterministe, même si
pour cela elles se contentent souvent de déguiser un peu
leur nom de manière à passer sous silence le changement
pourtant total de l'objet en question.
II.2 APPROCHES LOGICO-MATHEMATIQUES
Les problèmes étudiés en intelligence artificielle
sont mal définis c'est-à-dire que ce qu'on appelle
« les situations incertaines » sont mal définies.
L'incertitude est un élément dont on ne connaît
pas les propriétés quantitatives et qui n'a pas une
représentation arithmétique ou logique formelle. On
peut dire qu'il existe des degrés d'incertitudes, mais la
nature formelle du langage de l'incertain n'est pas claire. Il n'existe
pas de méthode unique pour traiter l'incertitude.
Les systèmes d'intelligence artificielle ont besoin de prendre
des « décisions », même quand les données
sont incertaines. Le choix d'une « décision »
fait partie de la complexité du raisonnement humain. Quelle
décision faut-il choisir parmi plusieurs possibles ? C'est
une question à laquelle on ne peut répondre facilement.
La prise de décision doit-elle être faite automatiquement
par la machine ? Ou bien, l'ordinateur doit-il seulement jouer le
rôle d'un système d'aide à la décision
en fournissant la liste des plus vraisemblables ?
Signalons qu'ici, le terme « décision » est
utilisé du point de vue « technique » et non
« philosophique ». Il y a souvent une confusion entre
les mots « choix » et « décision ».
La différence qui existe entre ces deux termes est la même
que celle qui existe entre « signification » et «
sens ». C'est ainsi que la signification renvoie à
un ensemble consistant qui définit une situation, tandis
que le sens, lui, relève du point d'inconsistance de la situation.
Il est paradoxalement perçu comme le point de non-sens existant
dans un ensemble cohérent. Ainsi le sens relève toujours
d'un pari et d'une décision, décision, qui, et cela
est fondamental, n'est pas déductible des éléments
de la situation. Le choix, lui, reste un choix parmi les possibles,
un choix dans la signification, donc dans la consistance, alors
que la décision se joue forcément à la frontière
de cet ensemble consistant. Il est toujours possible de faire un
choix (un lancement de dé est toujours possible), tandis
qu'une décision relève d'un indécidable. A
la différence d'un choix, une décision est donc toujours
non fondée, et d'autre part, comme on le disait plus tôt,
elle n'abolit jamais le hasard dans le système. Il y a donc
une différence fondamentale entre le pari et le déterminisme
mathématique, et la « prise de décision »
dans un système expert revient donc à faire un choix.
Cependant, il est important de bien être conscient que choix
et décision relèvent de deux registres foncièrement
différents et qu'aucun des deux ne peut subsumer l'autre,
l'éliminer ou l'aliéner, ces deux niveaux étant
condamnés à coexister au sein d'une tension sans synthèse.
La logique est souvent perçue comme un art de modéliser
le raisonnement. La logique classique est la logique parfaite, la
logique du vrai et du faux, celle qui raisonne avec de l'information
complète, correcte, qu'on peut qualifier de non-ambiguë.
On remarque toutefois que les hypothèses de la logique classique
sont par trop réductrices et se prêtent mal à
la modélisation du raisonnement humain, en particulier pour
ce qui concerne la représentation et la manipulation de concepts
linguistiques (plus ou moins, presque, à peine, la plupart,
parfois, etc.), généralement non susceptibles d'être
enfermés dans une dichotomie vrai-faux. La logique classique
se trouve donc inadéquate pour représenter le langage
dit « naturel », ainsi que les différentes facettes
du raisonnement humain.
Toute la difficulté est de représenter un énoncé
linguistique par une formulation logique. Ainsi que le fait remarquer,
entre autres, un éminent chercheur en intelligence artificielle,
Reiter [1, 2], la logique classique est inadéquate pour ce
genre de manipulation.
Un système formel de déduction de la logique classique
est composé d'un langage formel, d'un ensemble de schémas
d'axiomes et de règles d'inférence. Le langage formel
correspond à la description des structures de la représentation
des connaissances du système et n'est en opposition directe
ni avec le langage dit naturel, ni avec le raisonnement humain.
C'est tout simplement un langage « artificiel » qui
permet d'étudier le langage « naturel » en évitant
les ambiguïtés et les équivoques. Précisons
que cette langue que les mathématiciens qualifient de «
naturelle » est à son tour ce qui dans l'histoire de
la linguistique correspond à la langue désacralisée,
langue polysémique. Ainsi, à travers l'élaboration
d'un « système formel logique », les mathématiciens
tentent de restituer cette langue référentielle (référence
biunivoque), propre à la langue sacrée, ou monde-langue,
où la chose et le mot entretiennent un rapport de consubstantialisation.
Au sein du système formel logique, le langage correspond
à la structure du système de représentation
des connaissances. Les axiomes constituent un sous-ensemble des
formules du langage servant à décrire la connaissance
sur le domaine. Les règles d'inférence sont des mécanismes
de raisonnement sur la connaissance, elles permettent d'élaborer
des théorèmes en s'appuyant sur les caractéristiques
syntaxiques du système, tout en ignorant la sémantique.
On appelle une théorie de la preuve un système de
démonstration purement syntaxique utilisant des règles
d'inférence et des axiomes pour construire des théorèmes.
Enfin, une sémantique de vérité basée
sur la notion d'interprétation et de modèle est associée
au langage de tout système formel logique. Une interprétation
consiste à associer à toute formule A du langage une
valeur de vérité (en logique classique: vrai ou faux).
Un système de démonstration pour un langage formel
est dit adéquat et complet lorsqu'il y a correspondance exacte
entre la relation de conséquence sémantique et la
relation de démonstration syntaxique. Dans ce cas, nous serions
dans la situation idéale d'une autoréférence
réussie dont nous pouvons citer l'exemple frégéen
pour qui, quand il affirme que « Chicago est une ville très
peuplée », il se trouve face à une aporie référentielle
(« très peuplée » d'accord, mais par rapport
à quoi ?). Où commence le « très peuplé
» et quand laisse-t-il la place au « trop peuplé
» ? Par contre, s'il affirme que « Chicago est trisyllabique
», il est là dans un système de véracité
auto-démontrable.
Un tel système permet d'inférer des conclusions à
partir de prémisses et définit donc une relation d'inférabilité
entre formules, notée |-. Cette relation possède les
propriétés suivantes qui traduisent certaines exigences
du raisonnement valide.
-propriété de réflexivité : inférer
une conclusion identique à l'une des prémisses est
une opération valide. Ainsi, si « Chicago est trisyllabique
» alors « Chicago est trisyllabique ».
-propriété de contraposition : si une prémisse
implique une conclusion cela revient à dire que le contraire
de la conclusion implique le contraire de la prémisse. Ainsi,
si « Les hommes sont mortels » alors « Les immortels
ne sont pas des hommes ».
-propriété de monotonie : un résultat acquis
n'est jamais remis en cause par des résultats ultérieurs.
Ainsi, si « Chicago est trisyllabique » alors rien ne
permettra de démontrer, un jour, que « Chicago n'est
pas trisyllabique ».
-propriété de transitivité : des résultats
intermédiaires peuvent être utilisés pour établir
la validité d'une conclusion. Ainsi, si « Les étudiants
sont jeunes » et « Les jeunes ne sont pas riches »,
alors on pourra conclure que « Les étudiants ne sont
pas riches ».
Dès que l'on franchit la frontière séparant
le raisonnement rigoureux (représenté par la logique
classique) du raisonnement plausible, on perd la plupart des propriétés
suscitées.
Les logiciens étudient ces systèmes formels en privilégiant
leurs propriétés métathéoriques que
sont l'adéquation et la complétude. La complétude
est également une propriété qu'on perd facilement
quand on fait un raisonnement plausible.
Le prochain paragraphe consistera dans la présentation critique
des principales théories que depuis, les mathématiques
tentent de mettre en oeuvre par un traitement assimilant visant
à « dresser » l'incertitude.
II.3 UN APERçU SUR LES LOGIQUES NON-CLASSIQUES
Une grande part de l'intelligence réside dans la faculté
d'élaborer des raisonnements judicieux en présence
d'une information incomplète. Dans l'absolu, ces raisonnements
ne sont que plausibles, c'est-à-dire qu'ils sont révisés
lorsque de nouvelles informations sont prises en compte.
Les logiques dites non-classiques sont celles qui essayent de formaliser
ces types de raisonnements qui sont parfois des extensions - la
logique modale qui introduit les notions de possibilité et
nécessité - de la logique classique, et parfois des
restrictions - la logique intuitionniste qui ignore le principe
du tiers exclu - par rapport à cette logique. Il est à
noter qu'un raisonnement logique peut contenir ces deux aspects
(extension, restriction) à la fois.
Les recherches sur les logiques non-classiques datent de bien avant
le développement de l'intelligence artificielle. Cependant,
elles ont connu un certain regain d'intérêt depuis
les tentatives de formalisation du raisonnement humain via l'intelligence
artificielle. Celle-ci s'intéresse en effet souvent aux informations
incertaines qui représentent soit un aspect prototypique,
soit un aspect statistique.
Ces deux aspects de l'incertain correspondent bien aux deux aspects
réels de l'incertain étudiés également
par les philosophes, les linguistes, les psychologues, etc. En effet,
il existe un premier aspect lié à un « pas encore
», c'est-à-dire qu'on ne connaît pas encore une
propriété d'un ensemble, mais des données supplémentaires
vont arriver pour nous éclairer. Reste ainsi intacte la croyance
qui soutient le récit totalisant. Un deuxième aspect
est lié au fait que l'ensemble en question peut posséder
au moins une propriété « récalcitrante
» intrinsèque aux objets de l'ensemble. Cette propriété
« récalcitrante » est également nommée
incertaine. Dans ce dernier cas, l'incertitude ne se trouve pas
dans le monde, mais dans la taxinomie utilisée puisque c'est
à la codification que la propriété est récalcitrante.
L'une des principales qualités de la logique classique,
la monotonie, disparaît partiellement ou totalement dès
qu'on modélise le raisonnement plausible. Plus on s'éloigne
de la logique classique, plus on s'éloigne de la monotonie.
Les probabilités en sont un exemple parfait. A l'inverse,
on peut remarquer que plus on veut construire un modèle monotone,
plus on se rapproche de la logique classique.
Le raisonnement probabiliste donne une connotation statistique
à l'incertain tandis que la plupart des approches symboliques,
dont la logique des défauts, lui donnent une connotation
prototypique. Le raisonnement probabiliste et le raisonnement par
défaut se rejoignent via le principe de l'héritage
par défaut (ou inférence directe). En outre, les deux
approches sont presque équivalentes au vu de leurs avantages
et inconvénients. On peut facilement remarquer que le raisonnement
probabiliste peut être également considéré
comme révisable .
Dans une théorie de quantification où il étudie
les quantificateurs généralisés, c'est-à-dire
les « La plupart », « Quelques », «
Une bonne partie », etc…, le chercheur en intelligence
artificielle, J. Van Benthem[3], les considère comme des
propriétés relationnelles de second ordre, c'est-à-dire
des propriétés des propriétés (ou des
concepts). Ainsi dans « La plupart des A sont B » ,
la plupart établit une relation entre A et B , telle que
si un objet satisfait la propriété A, il a mettons
50% de chances de satisfaire la propriété B.
Caractériser des ensembles par une propriété
commune à une majorité de ses éléments
fait partie du raisonnement humain. Un exemple classique du traitement
de ce genre de problèmes est celui qui a constitué
une abondante littérature autour de l'énoncé
: « Les oiseaux volent ». Pour bien clarifier les choses,
précisons que le terme « oiseau » est attribué
à une classe d'animaux qui ont un certain nombre de propriétés.
Il en existe huit mille espèces. La plupart des animaux auxquels
la langue française (et bien d'autres) attribue la qualité
d'oiseau ont également la qualité de voler. Cependant,
quelques rares espèces ne peuvent pas voler (comme les autruches).
Beaucoup de travaux de recherche en intelligence artificielle se
sont concentrés autour d'un oiseau que les chercheurs ont
nommé le plus souvent TITI, la question étant bien
évidemment de savoir si, étant donné TITI,
celui-ci volait ou non.
Signalons que TITI répond aux deux aspects de l'incertain
faible: à l'aspect « pas encore » parce que des
informations supplémentaires peuvent nous indiquer s'il vole
ou non, ainsi qu'au second aspect car tous les oiseaux ne volent
pas, c'est-à-dire qu'il existe des éléments
« récalcitrants », comme les autruches, parmi
les oiseaux. Mais ce n'est qu'une remarque faite dans un premier
temps, sous le charme de la belle présentation du problème
par d'éminents chercheurs. Dire comme nous venons de le faire
que c'est un problème qui se pose dans le cadre d'une incertitude
faible est dénué de sens. C'est un problème
qui relève non pas d'une véritable incertitude, dans
le sens d'une irruption dans le réel, mais plutôt d'un
problème taxinomique que l'on ne peut comparer avec «
La plupart du temps, il fait très beau début août
». Si, malgré la définition du mot « oiseau
» dans le Larousse (ou un autre dictionnaire), il existe des
oiseaux qui ne volent pas, cela veut tout simplement dire que la
taxinomie trouve inévitablement ses propres limites dans
l'impossibilité d'une taxinomie totale. Nous pourrions nommer
« ausoix » toutes les espèces d'oiseaux qui ne
volent pas, et le problème ne se poserait absolument pas.
Il n'y a donc aucune incertitude, même faible, dans «
Les oiseaux volent ». Il est étonnant et décevant
que beaucoup de chercheurs aient planché là-dessus
sans s'être rendu compte de cette faille. Par contre, «
La plupart du temps, il fait très beau début août
» ne relève pas d'un problème taxinomique.
Plusieurs théories formelles du raisonnement dit révisable
ont vu le jour ces dernières années. On les appelle
souvent des « logiques » malgré l'absence de
quelques propriétés chères à la logique
classique.
D'un point de vue purement syntaxique, construire un système
d'inférences non monotone nécessite d'affaiblir au
moins les deux propriétés (monotonie et transitivité
car c'est en général par transitivité que l'incertitude
se propage) caractérisant les systèmes déductifs
de la logique classique. Or ces deux propriétés sont
très importantes et souhaitées dans le fonctionnement
de tout système déductif. Sans ces deux propriétés,
la notion de « déduction » n'aurait pas beaucoup
d'intérêt. C'est pourquoi beaucoup d'encre a coulé
et coule encore pour arriver au moins à une transitivité
affaiblie et peut-être à une monotonie affaiblie.
Ainsi, si « La plupart des étudiants sont jeunes »
et « La plupart des jeunes ne sont pas riches », alors
on aimerait conclure que « La plupart des étudiants
ne sont pas riches ». Ce qui nous conduirait à une
transitivité faible. Quant à la monotonie faible,
sur le même exemple, sachant que « Ernesto est étudiant
», on aimerait conclure que « Ernesto n'est pas riche
» avec la possibilité de revenir, si besoin est, sur
notre conclusion et éventuellement conclure qu'« Ernesto
est riche ».
D'un point de vue purement sémantique, construire une logique
non monotone nécessite la définition d'une relation
d'inférence permettant de tirer des conclusions qui ne sont
pas vérifiées dans tous les modèles des prémisses.
II.4 LES APPROCHES NUMERIQUES
L'inférence utilisée dans les approches numériques
est en général une inférence faible dont l'exemple
typique est l'inférence statistique qui ne conclut pas certainement
mais qui évalue les chances, la vraisemblance de la conclusion.
Comme nous allons le voir, la question de l'incertitude sera soigneusement
évitée en affectant soit des nombres, soit des fonctions
aux concepts manipulés. Les résultats obtenus seront
des concepts munis de poids numériques ou para-numériques.
Ainsi, par exemple, la proposition « il fait beau un 5 août
» sera affectée d'un poids numérique égal
à 0,96.
Quand on parle de la représentation de l'incertitude par
des nombres, on pense d'abord aux probabilités. Autant la
logique a, depuis toujours, symbolisé le raisonnement rigoureux,
autant la théorie des probabilités depuis qu'elle
existe formellement (et sans doute bien avant) a été
considérée comme un modèle parfait du raisonnement
plausible (approximatif, incertain, inexact).
La probabilité d'un événement est vue, historiquement,
soit comme un degré de confirmation, soit comme une fréquence
théorique ou calculée a priori. Elle reflète
la connaissance, le savoir de l'expert, de l'observateur sur l'ensemble
P. Ces connaissances sont la plupart du temps soit subjectives,
c'est-à-dire données arbitrairement par un connaisseur,
soit statistiques.
Beaucoup de chercheurs considèrent que la théorie
des probabilités est le seul outil qui permette de représenter
adéquatement tout aspect de l'incertain. Ainsi, la «
typicalité », c'est-à-dire l'étude des
quantificateurs tels que « la plupart », « sauf
exception », etc., est souvent effectuée à l'aide
d'outils probabilistes.
Nous ne pouvons pas ne pas rappeler que le chercheur américain
H. E. Kyburg[4..8] insiste sur le sentiment qu'on a sur le fait
que la « fréquence » et la « typicalité
» sont deux choses différentes, et en effet, elles
le sont. L'interprétation « fréquentiste »
est une des interprétations possibles (mais restreinte) de
la « typicalité ». Nous aussi, nous avons déjà
remarqué une différence fondamentale sur des assertions
telles que « Les oiseaux volent » ou « il fait
beau un 5 août ».
D'après Kyburg, une bonne méthode de résolution
de ce type de problèmes doit tenir compte du principe des
sous-ensembles (classes) de référence (spécificité):
si la plupart des oiseaux volent, que les pingouins sont des oiseaux,
la plupart des pingouins ne volent pas, et si TITI est un pingouin
alors il est très vraisemblable qu'il ne vole pas (TITI hérite
les propriétés des pingouins, sa classe de référence
la plus spécifique). C'est une interprétation de la
règle d'inférence directe chère à F.
Bacchus[9,10], autre chercheur à ne pas oublier lorsqu'on
évoque des travaux sérieux dans ce domaine.
Une bonne méthode doit également tenir compte du
principe de Bayes, principe souvent utilisé dans les jeux
du hasard et qui introduit le concept de probabilité conditionnelle
(a posteriori), et surtout du fait qu'une information supplémentaire
doit affiner le résultat: là se pose le problème
de la monotonie ou de la non-monotonie. Kyburg ne croit pas à
la monotonie (la vraie, la pure) dans le traitement de l'information
incertaine. De plus, les sous-ensembles de référence
doivent être uniformes; on remarque que chez les oiseaux,
ils ne le sont pas puisque la plupart des pingouins ne volent pas…
Dans le même contexte, Bacchus a défini une logique
pour l'information statistique afin de raisonner dans l'incertain
sur des propositions de type « Les oiseaux volent »
qui signifie dans sa logique que « plus de x% des oiseaux
volent » avec par exemple x = 75. Il distingue cette proposition
statistique de celle « la probabilité pour que TITI
vole est de 75% » où une probabilité (qui selon
lui est un nombre rationnel plutôt que réel) est attachée
à une proposition afin d'exprimer un degré de croyance.
La seule règle d'inférence qu'il utilise est celle
du modus ponens, c'est-à-dire de la déduction à
partir des propriétés de sa classe de référence.
Ainsi, si un élément appartient à une classe,
il en hérite toutes les propriétés. Dans ce
cas particulier, le degré de croyance auquel « TITI
vole » étant donné que « TITI est un oiseau
» est égal à la proportion des oiseaux qui volent
(information statistique), ce qui lui permet de faire un raisonnement
de type par défaut. Ainsi, c'est parce que la proportion
des oiseaux qui volent est très élevée que,
pour ainsi dire, par défaut la qualité de voler est
affectée à tout oiseau.
La théorie des probabilités ainsi que ses méthodes
annexes comme la méthode de Bayes sont bien évidemment
celles qui sont « logiquement » les plus solides. Elles
ont longtemps servi à modéliser des jeux de hasard
et pourtant elles ne permettent pas toujours de gagner. Réciproquement,
on peut se demander si la personne qui a gagné, il y a trois
ans, en France, presque 10 millions de dollars au loto a utilisé
des outils probabilistes. L'efficacité de ces outils est
donc mise en cause. La théorie des probabilités permet
de faire un choix, un pari, selon la terminologie en usage. Pourtant
le pari dont il est question ici n'a rien à voir avec celui
dont nous parlerons plus tard et qui renvoie au concept de décision
; ici, il se réduit à un choix entre plusieurs possibilités.
Le problème vient de la règle de l'inférence
directe. Il n'y a, en effet, aucune raison ni mathématique,
ni philosophique pour justifier l'affectation à un élément
donné de la probabilité de sa classe de référence.
Les ensembles flous ont été introduits par le savant
irano-américain Lütfi Zadeh[11..13] au milieu des années
soixante. Ils autorisent des degrés d'appartenance intermédiaires
entre l'appartenance complète et la non-appartenance et ont
été originellement motivés par des problèmes
de classification. D'après cette théorie, le sens
de la plupart des termes du langage naturel qualifiant des grandeurs,
des quantités, des intensités est représenté
au moyen d'un sous-ensemble flou.
Considérons, par exemple, l'ensemble flou « jeune
» dont la fonction d'appartenance est-jeune associe à
tout u un réel compris entre 0 et l : tout individu dont
l'âge est égal à u appartient à l'ensemble
flou « jeune » à un degré est-jeune(u).
On considère donc que tout expert qui utilise le prédicat
« jeune » est capable de donner sa fonction d'appartenance.
C'est sans doute vrai pour le prédicat « jeune »,
mais nous avons d'énormes doutes sur la possibilité
de l'expert de donner effectivement la fonction d'appartenance de
tout prédicat, par exemple celle de « riche »,
« beau », « grand », « intelligent
», etc….
La théorie des ensembles flous a donc pour objectif de fournir
un cadre conceptuel permettant de représenter des concepts
difficilement représentables dans la théorie classique
des ensembles. L'intuition sous-jacente est la suivante: est-il
correct de considérer qu'un individu est jeune si et seulement
si son âge est inférieur ou égal à 18
ans et (donc) qu'un individu dont l'âge est égal à
18 ans et un jour n'est pas jeune ?
Le concept d'ensemble flou a donc vocation à généraliser
le concept classique d'ensemble. Les opérations usuelles
en théorie des ensembles peuvent donc elles-mêmes être
étendues aux ensembles flous. Finalement, au-delà
de la réelle efficacité pratique d'un tel concept,
il est évident qu'il existe ici une véritable "humilité",
ou peut-être s'agit-il tout bêtement d'un profil bas
épistémologique qui revient à affirmer "ceci
est plus ou moins comme ça..." même si un tel
"profil bas" se cache derrière des définitions
apparemment très sérieuses propres à la logique
classique.
Découlant de la théorie des ensembles flous, la théorie
des possibilités, fondée également par Zadeh
en 1978, fournit un modèle de représentation de l'incertitude
dans lequel l'incertitude d'un événement est décrite
par un degré de possibilité de cet événement
et un degré de possibilité de l'événement
complémentaire (qui peut être interprété
comme un degré de nécessité), ces deux degrés
étant faiblement liés.
Possibilité(A) = 1 signifie que A est possible. En particulier,
si KA désigne le complémentaire de A, on a max[Possibilité(A),Possibilité(KA)]=1,
dont l'interprétation est que, de deux événements
contraires, l'un au moins a une possibilité maximale. De
plus, lorsqu'un événement est possible, rien n'interdit
que son complémentaire le soit.
Remarquons que sémantiquement parlant, une distribution
de possibilités nous donne l'ensemble des valeurs plus ou
moins possibles d'un objet ou d'une variable et que la possibilité
de la proposition p peut être souvent considérée
comme la probabilité de la proposition p'= « p est
possible ». En effet, cela revient le plus souvent à
faire la liste des événements dont les probabilités
ne sont pas négligeables.
Fondée sur la théorie des ensembles flous et la théorie
des possibilités, la logique floue a pour objectif de fournir
un modèle formel au raisonnement approximatif. Le raisonnement
approximatif, selon Zadeh permet de déduire des conclusions
imprécises à partir de faits imprécis, tous
représentés par des sous-ensembles flous. La logique
floue consiste en effet à faire un ensemble de calculs en
utilisant les opérateurs flous pour finalement parier sur
une distribution de possibilités résultante. Comme
les probabilités, elle fait un choix, un pari. Signalons
enfin que l'expression « Les A sont B » se traduit,
en logique floue par « plus on est A plus on est certain qu'on
est B ».
II.5 LES APPROCHES SYMBOLIQUES
Dans les approches symboliques, l'inférence qu'on utilise
est fondée sur les suppositions, les hypothèses
qu'on fait par analogie. Le manque d'information est comblé
par des croyances, basées généralement sur
l'inférence par similarité (« Si A alors B,
C est similaire à A, donc B est vrai », ou «
D est différent de A, donc B n'est pas vrai ») ou l'inférence
ensembliste (« TITI est un oiseau, donc il vole », ou
« Concorde n'est pas un oiseau, donc il ne vole pas »).
Signalons que dans ces deux derniers exemples, nous avons également
utilisé l'inférence négative (« Si A
alors B, A n'est pas vrai, donc B non plus »). Les conclusions
obtenues à partir des approches symboliques ne sont pas accompagnées
de poids numériques, mais on prend le risque qu'elles soient
fausses donc qu'elles soient remises en cause ultérieurement
(ce qu'on appelle la non-monotonie). La conclusion de type «
TITI vole » est justifiée par le fait qu'il y a beaucoup
de chances pour que « x vole » sachant que « x
est un oiseau ».
Rappelons que TITI répond aux deux aspects de l'incertain.
Ceci est un problème de taxinomie, de classification c'est-à-dire
qu'il existe des éléments « récalcitrants
» parmi les oiseaux. Une telle vision de l'existence d'objets
« récalcitrants » énonce tacitement la
croyance dans une taxinomie totalisante qui pourrait réduire
le monde à sa transparence épistémologique.
Le raisonnement rigoureux dans un contexte certain est le plus
souvent formalisé à l'aide de la logique des prédicats.
Celle-ci étant une logique monotone, elle ne permet pas de
revenir sur un résultat (théorème), afin de
le réviser à la suite d'une nouvelle information contradictoire.
C'est le besoin de formaliser un raisonnement révisable qui
a permis le développement de ces techniques appelées
« logiques non monotones ».
Soient m variables à valeurs dans un ensemble U = {u, v,
w, …}, chacune de ces variables peut avoir seulement une valeur.
Lorsqu'il y a plus d'une valeur possible pour une variable, une
supposition peut être effectuée, et une valeur assignée
à la variable. Lorsqu'une nouvelle information arrive sur
la valeur de la variable, la supposition doit être révisée…
une mise à jour doit être effectuée. Les logiques
non monotones essaient de fournir une justification théorique
à ce genre de systèmes, tout en préservant
la contrainte de la consistance (les conclusions ne doivent pas
être mutuellement contradictoires). Ces logiques permettent
de « sauter à la conclusion » ou assigner des
valeurs à des variables dans les cas où le contraire
n'est pas « évident ». Signalons que les soi-disant
conclusions ne sont pas des conclusions (puisqu'elles ne concluent
pas), mais des choix…
En outre, on peut légitimement se poser des questions sur
leurs ambitions car vouloir résoudre le problème de
la non-monotonie est déjà prétentieux en soi.
Cela voudrait dire qu'on pourrait arriver à une sorte d'identité
entre la machine et l'homme, et même, que la machine dépasserait
l'homme, et pourrait changer d'avis sans avoir de renseignements
complémentaires. Vouloir résoudre le problème
de TITI est encore plus prétentieux, car, étant donné
un oiseau, la machine, en faisant des calculs « compliqués
», saurait s'il vole ou non. Cela n'a pourtant pas empêché
qu'une littérature abondante soit produite à ce sujet.
Mais attention, tous déclarent qu'il est possible pour eux
de revenir en arrière et de réviser leur résultat.
En plus d'être prétentieuse, c'est une attitude hypocrite
qui est à la limite de la tricherie et qui s'explique seulement
par la volonté d'automatiser à tout prix n'importe
quoi ! Aucun système intelligent ne pourra répondre
à ce genre de questions. Etant donné un oiseau, on
ne peut pas savoir, à coup sûr, s'il vole ou non. Et,
quels que soient les calculs effectués, la réponse
ne pourra être qu'un choix parmi les deux éventualités
possibles. Ceci est encore une attitude qui veut nier la rupture.
Les logiques non monotones permettent d'obtenir, en général,
plusieurs ensembles incompatibles de conclusions possibles, qui
sont le plus souvent appelés extensions. La caractérisation
et la construction des extensions sont souvent difficiles car certains
raisonnements révisables sont circulaires : on ne peut inférer
certaines conclusions qu'après avoir vérifié
que d'autres résultats ne peuvent être obtenus.
Un système non monotone permet d'inférer des formules
dites consistantes, c'est-à-dire vérifiées
dans au moins un modèle des prémisses, et qui appartiennent
donc à au moins une image du monde qu'il est possible de
donner sur la base des prémisses.
On caractérise les ensembles de formules qui peuvent être
inférées à partir d'un système axiomatique
opérant sur un ensemble de prémisses par l'évaluation
des « points fixes » de cette opération. Un point
fixe est un ensemble stable de croyances pour lequel aucune nouvelle
formule ne peut être inférée de façon
consistante.
Les notions de théorème, d'inférence valide,
de démonstration, qui constituent les éléments
de base d'un système déductif, s'affaiblissent. Un
théorème, qui peut être inféré
via un système de réécriture, ne produit pas
forcément une inférence valide et une démonstration
revient souvent à établir, pour une formule donnée,
une preuve de l'existence d'un ensemble stable et consistant de
croyances.
L'inférence non-monotone se fait donc, non seulement par
ce qui est connu, mais également par ce qui est inconnu.
L'expression « Les A sont B » peut se traduire par «
un A est un B par défaut », « si on ne sait pas
qu'un A particulier n'est pas un B, alors il est B » …
A notre avis, ladite « inférence non monotone »
est une mauvaise façon d'évoquer tout en le refoulant
le principe d'après lequel il existe la possibilité
logique de démontrer qu'il y a de l'indémontrable.
Dit d'une autre façon, que la consistance est fondée
par un noyau inconsistant, en même temps qu'elle le tolère,
ce noyau-là pouvant être pensé comme un opérateur
de totalisation qui ne se totalise pas lui-même. D'ailleurs,
et ce dans la plus classique tradition philosophique occidentale,
le Socrate de L'apologie ne fait pas autre chose quand il affirme
qu'il sait qu'il ne sait rien.
Un système non monotone doit avoir des règles d'inférence
munies de conditions d'application (par exemple : « si on
ne sait pas qu'un A particulier n'est pas un B »). Evidemment,
dès l'instant où l'on sait que ce A n'est pas un B,
alors on revient sur l'inférence fausse. Les règles
d'inférence non monotones doivent donc être révisables
et éviter le danger de la circularité. Afin d'éviter
l'utilisation abusive de ce type de raisonnement, on peut supposer
que toute cette littérature concerne les cas de figures où
« Les A sont B » doit au moins vouloir dire «
un A est un B dans plus de la moitié des cas ».
Malgré les arguments d'un certain nombre de chercheurs en
intelligence artificielle en faveur du raisonnement non-monotone,
d'éminents chercheurs comme P. Cheeseman[14], D. Israel[15]
sont farouchement contre « cette introduction dans la logique
d'un raisonnement par nature illogique ». Effectivement, il
est clair que la nature logique et rigoureuse de la procédure
disparaît, et qu'on évite le problème en faisant
tout simplement un choix. L'un des principaux arguments de Cheeseman
est que la théorie des probabilités est plus appropriée
pour traiter ce genre de connaissances. En d'autres termes, il identifie
les propriétés statistiques avec les propriétés
prototypiques. Nous pouvons interpréter son point de vue
en disant qu'il considère que la théorie des probabilités
est l'outil le plus adéquat pour faire des choix, qui comme
nous l'avons fait remarquer plus haut se voient appelés paris.
Mais il s'agit ici d'entendre « pari » dans son acception
pascalienne, c'est-à-dire « faible ». En effet,
si le choix convoque à un pari faible, la décision
convoque au contraire un pari dans le sens fort. Entre les deux,
les différences sont multiples. Nous avons déjà
évoqué l'une d'elles, à savoir que le pari
pascalien est un mode de dépassement, d'Aufhebung du hasard.
Par contre, le pari dans son sens fort est celui qui revêt
la figure du forçage n'abolissant pas le hasard. Pour Pascal,
tout se passe comme si l'opacité était définitivement
dans le réel c'est-à-dire que Dieu peut exister ou
ne pas exister : il est donc simplement question de deux possibilités
qui entraînent à leur tour deux suites et deux combinatoires
différentes. Il ne s'agit que du hasard en son sens faible,
« probabilistique », en tant qu'un moment à dépasser.
Par contre, le hasard dans son sens fort, loin de trouver dans
le pari son mécanisme de dépassement et de dissolution
va s'ancrer dans celui-ci en tant que devenir et constat d'un hasard
structural et par là non abolissable.
Dans un autre registre, Israel critique le raisonnement non-monotone
en arguant que ce type de raisonnement constitue une mauvaise politique
parce qu'il considère comme vrais des événements
dont les probabilités sont élevées, mais qui
ne sont pas certains.
Le raisonnement par défaut le plus connu est proposé
par R. Reiter qui suppose que l'incertitude liée à
une règle (« Les oiseaux volent ») se lève
partiellement par la liste jointe des exceptions. Un résultat
est donc supposé vrai jusqu'à la preuve du contraire.
C'est un résultat typique susceptible d'être défait
(« défaisabilité des règles »),
un raisonnement non-monotone dû à l'incomplétude
de l'information. Aucune affectation numérique n'accompagne
les règles.
Ainsi, si « Les oiseaux volent » et si « TITI
est un oiseau » alors TITI vole jusqu'à preuve du contraire,
parce que c'est une conclusion consistante, qui semble la plus naturelle.
L'expression « Les A sont B » se traduit donc par:
« S'il est consistant d'inférer qu'un A est un B,
alors on peut inférer qu'un A est un B ».
La règle d'inférence appliquée s'appelle défaut.
L'interprétation intuitive d'un défaut est la suivante:
Si a est cru et si b est consistant avec a alors inférer
g . Lorsque b et g sont identiques, alors on dit qu'on a un défaut
normal.
Pour un tel système il existe un certain nombre d'ensembles
consistants de croyances (de zéro à plusieurs) qui
peuvent en être inférées. Ces ensembles de croyances
sont appelés les extensions de la théorie avec défauts.
Une théorie dont tous les défauts sont normaux admet
au moins une extension et possède la propriété
de semi-monotonie : si on accroît l'ensemble des défauts
d'une théorie normale, alors la nouvelle théorie normale
ainsi obtenue admet une extension qui inclut une extension de la
première théorie.
Les défauts normaux semblent suffisamment expressifs pour
représenter un grand nombre de formes de raisonnement. Cependant,
l'interaction de différents défauts normaux au moyen
de la transitivité (les étudiants sont adultes, les
adultes sont mariés donc les étudiants sont mariés)
peut faire apparaître des conclusions non souhaitées.
Signalons que le raisonnement probabiliste et le raisonnement par
défaut se rejoignent via le principe de l'héritage
par défaut (ou celui de l'inférence directe). Par
exemple, soit un individu dont on sait qu'il est parisien, français
et européen, et dont on veut une idée sur le niveau
de vie. En l'absence de toute autre information, la classe la plus
spécifique à laquelle il appartient étant la
classe des Parisiens, on va lui inférer les propriétés
d'un Parisien moyen.
Cette structure est analogue aux deux raisonnements. Dans le raisonnement
probabiliste, on obtient une valeur numérique comprise entre
0 et 1, tandis que dans le raisonnement par défaut la valeur
vaut 0 ou 1. Le raisonnement probabiliste est une subtile généralisation
du raisonnement par défaut. Ce n'est pas étonnant
parce qu'on vient de voir que les deux méthodes ne servent
qu'à faire des choix. Les classes de référence
permettent d'ordonner les défauts (ordre de préférence).
II.6 ENCORE UN PEU SUR LA QUESTION DE L'INCERTITUDE
Jusqu'ici nous avons évoqué et présenté
ce que l'on pourrait nommer les tentatives de construction de différents
systèmes qui seraient en mesure de déduire tout choix
à partir des éléments de la situation. Cela
implique, comme nous l'avons dit, un parti pris épistémologique
et philosophique qui évite la question de la décision
et du pari et qui correspond à une conception du modèle
saturé sur lui-même.
Si toute pensée n'est que pensée de l'inconsistance
de la situation, c'est-à-dire pensée du et des bords,
nous comprenons, après le développement et la présentation
des différentes techniques en question, qu'elles partagent
toutes la claire volonté d'éviter que dans la situation,
il y ait de la pensée. Ceci non pas d'un point de vue moral
ou éthique, mais tout bêtement parce que comme nous
l'avons clairement vu, dans chacune de ces techniques, l'objectif
est d'établir une solution de continuité mécanique
qui abolit par forclusion tout point de non-sens.
Il existe une deuxième tendance qui essaie de répondre
aux problèmes posés par l'incertitude dans la logique
et dans le champ de la pensée. Nous allons simplement l'évoquer
car sauf certaines exceptions, elle reste cantonnée à
une batterie d'hypothèses largement moins utilisées
dans la recherche appliquée et dans le monde de la technique
que la logique floue et ses « voisines ». Il s'agit
de la théorie dite du chaos et de celle « des catastrophes
». Des théories qui, provenant de champs scientifiques
différents, tiennent compte, plus encore, se structurent
autour de l'irruption de l'indiscernabilité.
Ces théories ont en commun, au contraire des logiques non
classiques qui comme nous l'avons vu sont à l'origine d'une
série de techniques applicables, d'avoir produit un véritable
déferlement d'exégèses idéologiques
plus fantaisistes les unes que les autres. C'est pourquoi il est
difficile de présenter le traitement concret qu'elles proposent
pour l'incertitude sans préalablement évoquer les
exégèses en question qui le plus souvent s'avèrent
carrément antagoniques des énoncés rationnels
des théories en question.
Catastrophe et chaos sont devenus dans l'idéologie post-moderne
des mots quasi magiques qui évoquent une sorte de «
désastre de la raison ». La raison raisonnante devient
ainsi dans sa prétention de comprendre, prédire, et
projeter, une véritable « vanité des vanités
» qui aurait échoué dans ses folles prétentions.
C'est ce que l'on trouve à l'origine du néo-réalisme
post-moderne qui affirme que « le monde est ce qu'il est ».
Ceci constitue bien entendu l'énonciation de ce que l'on
nommait plus tôt une véritable inconsistance ravageante
au regard de laquelle tout ordre, toute hiérarchie, pensée
ou savoir ne saura relever que d'un récit et où toute
pensée, toute recherche, tout énoncé, reste
condamné à la polysémie la plus radicale et
déconstructive qu'on puisse imaginer.
Cette idéologie, tout compte fait agnostique, n'est pas
étrangère aux énoncés de la logique
floue, car tout se passe comme si, en abandonnant tout principe
de vérité, nous étions condamnés à
cette pensée faible de la véracité. Or si la
vérité ordonne la véracité dans le même
rapport que l'impossible ordonne le possible, nous ne pouvons pas
ne pas conclure que ce monde de véracité apparaît
comme celui où, si tout est possible, rien n'est réel.
Ainsi, comme un frère jumeau mais symétriquement
opposé, le constructivisme répond d'une façon
revancharde et hargneuse à l'universalisme classique, que,
finalement, toute théorie, toute pensée, tout concept,
tout discours n'est pas autre chose qu'une simple construction relative.
Force est de conclure que de tels énoncés idéologiques
n'ont presque plus aucun rapport avec ce qui, dans la théorie
du chaos comme dans celle des catastrophes, est proposé.
Que ce soit du côté de la première, appelée
carrément « théorie du chaos déterministe
», comme du côté de celle des catastrophes, il
s'agit toujours de deux façons d'aborder la complexité
d'un système étudié dans lequel le rapport
déterministe linéaire de cause à effet ne peut
plus être maintenu dans sa simplicité.
Du côté du chaos déterministe, nous en sommes
à constater qu'il existe à différents niveaux
et en différents lieux, des comportements « chaotiques
», c'est-à-dire, des comportements qui de prime abord
paraissent justement n'obéir à aucune détermination,
et sont donc impossibles à prévoir et à comprendre.
Or justement, nous n'avons affaire ici qu'à l'apparence car
nous sommes là face à des phénomènes
où la question de la « monotonie », de la répétition
et de la détermination, relèvent d'une complexité
qui nous empêche de la repérer directement. Ainsi,
les comportements chaotiques ne seront abordables rationnellement
qu'en faisant appel à l'aide des fractals qui depuis la géométrie
(celle qui à son tour a pu ou su rompre avec la symétrie
et les « bonnes formes ») nous offrent un concept spatial
pour comprendre cet ordonnancement déterministe non perceptible
par les grilles classiques. Ces récurrences chaotiques se
repèrent aux différents « attracteurs »
(attracteurs de Lorenz) qui représentent peut-être
le point d'articulation avec la théorie des catastrophes.
Celle-ci pourrait être pensée comme une codification
des ruptures et discontinuités. Il y a bien un avant et un
après, mais pour penser la discontinuité, la théorie
des catastrophes fait appel au concept assez classique de la boîte
noire. Ce qui se passe dans cette boîte noire représente
une rupture (catastrophe) qui n'obéit donc pas aux règles
classiques de cause à effet, sans que cela implique pour
autant forcément un échec pour la raison. Car rien
de ce qui se passe dans la boîte noire ne relèverait
de l'irrationnel, mais serait en revanche compréhensible
dans l'après coup comme la conjonction non prévisible
de différentes séries autonomes et dont la compréhension
aussi fait appel au concept d'attracteur.
Nous avons tous entendu parler à ce sujet, peu ou prou de
l'inquiétant danger que représentent certains papillons
par rapport aux catastrophes naturelles; toutefois la théorie
des catastrophes n'apparaît pas en mesure de réintroduire
un déterminisme lourd laplacien capable de déceler
les mauvais papillons.
Finalement, nous nous trouvons dans le cas de figure que nous avons
défini comme la croyance dans l'existence d'un modèle
transparent et maîtrisable parce que construit par l'homme,
qui tenterait d'éliminer les zones d'opacité qui existent
dans le monde. Zones d'opacité qui, comme notre TITI, seraient
de véritables points récalcitrants résistants
à l'idéal d'une taxinomie totale et totalisante capable
de dompter, voire vaincre l'indiscernable.
III. VERS La « X-TOLERANCE »
La question de la fabrication de modèles part ainsi tacitement
de la réfutation de la conception de Schopenhauer d'après
laquelle le monde n'est que sa représentation. En effet,
il existe traditionnellement dans la science la certitude naïve
de ce que le monde existe, c'est-à-dire, que les choses sont
là quelque part tel TITI en attendant simplement le bon modèle,
la bonne taxinomie capables de dévoiler par un acte de nomination
leur vraie nature, c'est-à-dire, comment elles fonctionnent,
selon quelles lois et dans quel sens.
Ainsi, depuis sa naissance, la modernité énonce comme
« découverte » chaque théorème,
loi ou règle sensés ordonner le fonctionnement du
monde. Les modèles scientifiques ne sont de ce fait pas pensés
sous la forme d'une fiction théorique mais bien au contraire,
l'humanité a fonctionné et fonctionne encore selon
la conception totalisante énoncée par Laplace d'après
laquelle : « Nous devons donc envisager l'état présent
de l'univers comme l'effet de son état antérieur,
et comme cause de celui qui va suivre. Une intelligence qui pour
un instant donné connaîtrait toutes les forces dont
la nature est animée et la situation respective des êtres
qui la composent, si d'ailleurs elle était assez vaste pour
soumettre ces données à l'analyse, embrasserait dans
la même formule les mouvements des plus grands corps de l'univers
et ceux du plus léger atome : rien ne serait incertain pour
elle, et l'avenir, comme le passé, serait présent
à ses yeux… ». Et si pour Laplace comme pour
Kepler le modèle totalisant n'était pas encore atteint
par les hommes, des voix plus optimistes se sont fait entendre déclarant
que la raison humaine avait gagné son combat, tel le chimiste
français Marcellin Berthelot qui affirmait en 1887 : «
Pour la science, le monde est désormais sans mystère
».
La vision réaliste classique veut que les théorèmes
existent en soi dans la « nature » et dans le monde,
et comme le disait Kepler, nous ne les connaissons pas tous encore.
C'est ainsi qu'Archimède, grâce à un plongeon
heureux dans sa baignoire, a découvert le principe qui portera
son nom qui donc préexistait dans la baignoire : il suffisait
de s'y plonger pour le découvrir…
Les scientifiques savent que les eaux peuvent être plus ou
moins opaques, mais les principes, théorèmes et axiomes
sont pensés comme préexistant dans un « en soi
» en attendant la découverte du chercheur, ce qui nous
plonge bien évidemment dans un dispositif déterministe
car l'« en soi » déterminant le « pour
soi », les hommes sont ainsi les agents surdéterminés
d'un univers « écrit en langage mathématique
» et par rapport auquel ils peuvent simplement voir juste
ou bien se tromper. Dans cette conception, bien entendu, le monde
n'est pas du tout pensé comme une représentation.
Le modèle lui-même n'est pas conçu comme une
représentation car le modèle, ou en tous cas le bon
modèle, la bonne taxinomie, sont perçus comme faisant
partie du monde. Une axiomatique serait ainsi le code à travers
lequel l'univers « fonctionne » et elle dépasse
par là largement le cadre de la représentation pour
faire partie du monde qui se présente aux yeux et à
la raison du chercheur. Dans l'optique classique que nous présentons
ainsi succinctement, nous pouvons dire qu'il existe un fondement
et une hypothèse ontologiques forts.
Le problème se présente lorsque nous mettons en cause
le déterminisme et la croyance dans le mythe du progrès
comme ordonnant notre pensée. Mettre en cause le déterminisme
est apparu au début du vingtième siècle comme
une véritable mise en cause de la raison elle-même.
Si penser signifiait ordonner des causes et des effets de façon
analytiquement prévisible, il paraissait impossible de sauver
la raison à la fin du déterminisme. Pourtant, force
est de se rendre compte que bien avant l'avènement de la
modernité et souvent de façon parallèle, de
multiples cultures ont produit de grandes quantités de savoirs.
Par exemple le transfert des savoirs et des techniques fut à
un moment donné très important dans le sens de la
Chine vers l'Occident (boussole, poudre, spaghettis…). Or
ces savoirs-là comme nous l'avons vu précédemment
n'ont pas produit dans d'autres civilisations la croyance, voire
la certitude d'un déterminisme qui mènerait la raison
au poste de commande. Ceci s'expliquerait par le fait que les différents
savoirs produits par une civilisation ne s'agencent pas forcément
autour et dans le sens du mythe du progrès. Loin de là.
C'est en effet le propre de la modernité, c'est ce qui la
singularise, que d'avoir fourni cet agencement aux savoirs qui la
précèdent et aux savoirs qu'elle a produits. Sans
oublier au passage que tout mythe forclôt une série
de savoirs qui le précèdent (préexistent) et
pour une raison ou une autre contredisent ses fondements. Le mythe
du progrès n'a pas fait exception à la règle
: une série de savoirs qu'on commence à peine à
redécouvrir dans le champ de la médecine, de la biologie,
de l'éducation, etc., contrairement à la croyance
en un développement linéaire et quantitatif qui cumule
tous les savoirs partiels, furent ensevelis par les savoirs ou les
ignorances agencés au sein du mythe du progrès qui
de ce fait devinrent dominants. C'est le cas de toutes les sciences
officielles et « nobles » qui tantôt cohabitèrent
avec des savoirs dits non scientifiques, tantôt les refoulèrent.
C'est pourquoi nous pouvons aujourd'hui constater que le mariage
entre raison et déterminisme peut se dissoudre sans pour
autant entraîner l'anéantissement de la raison. La
question qui se pose donc tourne autour du statut des connaissances,
car si les modèles scientifiques ne sont plus conçus
comme des découvertes du monde réel, si nous ne pouvons
plus imaginer que les théorèmes préexistaient
dans un ciel platonicien, quel sera donc le critère et la
norme qui nous permettront de discriminer dans une hypothèse
le vrai du faux ? Autrement dit, une fois abandonnée l'hypothèse
ontologique forte qui établissait un rapport biunivoque entre
le modèle et le monde, comment savoir si notre modèle
a un rapport quelconque avec le monde dont il est censé parler
? et que peut bien être ce rapport ?
Le danger imminent est celui de tomber sous le coup de la description
que fait Durkheim des illusions propres à ceux qu'il appelle
« les primitifs ». Durkheim dit qu'en politique les
hommes modernes se comportent comme des primitifs qui croient qu'il
suffit de danser pour que la pluie tombe. La remarque du sociologue
peut donc être extensive à la pratique scientifique.
En effet, il se pose la question de la praxis, c'est-à-dire
de ce qui dans un dispositif scientifique ne serait pas du semblant.
Comment savoir quel rapport il y a entre notre pratique et les effets
qu'elle est sensée produire ? Même si la plupart des
techniciens et des scientifiques nient de nos jours une telle mise
en cause, la prise en compte de la complexité du réel
les plonge malgré eux dans des situations proches des dites
« primitives ».
Cela ne signifie pas pour autant qu'on ne soit pas sans savoir
un certain nombre de choses sur les effets auxquels on peut s'attendre
à partir d'une cause concrète, que ce soit allumer
la lumière en actionnant un interrupteur, produire de l'énergie
à partir de la fusion de l'atome, ou provoquer une immuno-résistance
à partir d'un vaccin. A vrai dire, tout se passe comme si
en réduisant au maximum notre champ de vision et d'analyse,
nous pouvions rester dans le champ du déterminisme (l'analytiquement
prévisible). Mais pour peu qu'on tienne compte de la complexité
de l'intrication des situations, nous nous rendons compte que la
partie prévisible d'une intervention quelconque représente
stricto sensu l'image classique de la pointe de l'iceberg par rapport
au non su (encore) et à ce que l'on ne peut pas savoir.
La réponse « faible » correspond aux différentes
tentatives dont, comme nous l'avons dit, les logiques non-classiques
font partie. La tendance dominante est marquée par un geste
qui consiste à faire en science comme si on avait aboli le
réel. De la sorte, le constructivisme énonce, de façon
symétriquement opposée au réalisme classique,
que rien n'existe en soi.
Plus précisément les théorèmes ne sont
pas là en puissance comme le voulait le réalisme,
en attendant sagement d'être découverts mais il s'agit
toujours de constructions qui ne connaîtront d'autre hiérarchie
ou validité que le critère statistique. Quelque chose
marche parce que statistiquement nous prouvons que ça marche.
Mais le problème de la validation d'une théorie par
la preuve de ce qu'elle marche nous plonge d'emblée dans
une tautologie auto-référentielle : en effet, c'est
la caractéristique de toute pratique empiriste que d'appeler
« preuve » les gestes à travers lesquels la conclusion
ordonne l'expérience. Ça ne peut pas ne pas marcher
sans pour cela que la tautologie empiriste nous laisse une place
pour la véritable question rationnelle qui serait : «
qu'est-ce qui marche quand ça marche ? », question
qui n'est autre que celle de l'indiscernable car il s'agit de formuler
un avis sur le sens de ce qui marche.
III.1 Un réel « tolérant »
Si nous pouvons dire qu'avec des nuances et des contradictions
les deux tendances décrites sont les deux conceptions classiques
aujourd'hui dominantes dans la théorie du modèle,
il s'agirait d'avancer dans l'élaboration de l'hypothèse
tendant à une compréhension différente du modèle
qui ne tombe pas pour autant dans la tentation aujourd'hui très
forte d'un « néo-néo-positivisme » qui
cherche par exemple dans le paradigme des fractals une connaissance
directe du monde non représentée par un modèle
quelconque. De notre côté, nous avancerons l'hypothèse,
pour ainsi la nommer, de la « tolérance » car
comme nous le verrons, c'est celle qui « tolère »
le mieux en son sein une véritable pensée de l'incertitude.
Il s'agit selon cette hypothèse de concevoir le réel
non pas comme un territoire obscur à éclaircir (réalisme),
mais plutôt comme une « fonction ». Le réel
serait ce point, ce x autour duquel et par rapport auquel dans les
différents champs du savoir et de la connaissance, nous pouvons
émettre des hypothèses, construire des théories
et des axiomatiques. Le réel ainsi, « tolérerait
» certaines hypothèses et, à l'épreuve
de la praxis, en déclarerait d'autres inacceptables.
Nous ne sommes ni pour ni contre le réel en soi classique,
ni pour l'abolition du réel des néo-positivistes,
mais nous le pensons sous un autre registre, celui dans lequel le
réel se comporte, ontologiquement, selon l'hypothèse
: « il y a quelque chose plutôt que rien. » Non
pas ontologiquement par le dépliement de ce qui doit être
mais plutôt par le constat beaucoup plus humble et moins rassurant
de ce que, en effet, « il y a quelque chose plutôt que
rien ». Cela signifie que le chercheur ne doit ni ne peut
construire ou énoncer n'importe quel théorème
ni le poète n'importe quel poème en attendant que
des statistiques ou des preuves tautologiques lui donnent raison,
mais qu'il existe quelque chose (x) qui tolère, qui fait
fonction de vérité par rapport au mathème ou
au poème énoncé. Le réel sous la forme
du « x » se comporte ainsi comme cet inattendu que pourtant
nous cherchons, peut-être énonçable sous la
formule d'Héraclite « celui qui n'attend pas l'inattendu
ne le décèlera pas. Il demeurera pour lui introuvable
et inaccessible ».
Ainsi, le point de départ de la théorie d'Einstein
est identifiable à un point de vérité, à
une vérité, dans la mesure où cette théorie
n'est pas la mise en forme de cette vérité, mais où
au contraire, nous pouvons localiser cette vérité
comme étant ce point de butée pour la physique newtonienne
qui précédait. Ainsi la vérité a un
rapport d'extériorité avec le savoir mais en même
temps, ces deux registres, l'un phénoménal, l'autre
structural, sont condamnés à cohabiter sans Aufhebung
possible. En science, nous sommes toujours dans la position de celui
qui doit se contenter de dire si « ça marche ou pas
», et « comment ça marche ». Par contre
le pourquoi ça marche, relève toujours d'une chaîne
et d'une combinatoire limitée au-delà de laquelle
nous sommes sur le terrain d'un mythe des origines.
C'est pourquoi nous aimons bien l'image d'Althusser selon laquelle
un matérialiste (nous dirions plutôt la pensée
rationnelle) est quelqu'un qui peut simplement affirmer qu'il est
dans un train. Contrairement à l'idéaliste qui prétend
toujours savoir d'où vient le train où il est embarqué,
vers où il va et surtout pourquoi il y va. Faute d'un tel
registre totalisateur d'informations, le nihilisme, fondement philosophique
du constructivisme, prétend que finalement tout peut plus
ou moins marcher, procédant ainsi à la forclusion
de la fonction de vérité, chose qui conduit comme
nous le verrons plus tard à la forclusion de la pensée
du sujet. Une telle conception de la vérité implique
bien entendu de ne plus considérer les différentes
axiomatiques et théories existantes comme étant nécessaires
et indispensables pour le développement des connaissances.
Bien au contraire. Rien ne nous permet d'affirmer que la géométrie
d'Euclide est la seule possible, et ce, non pas seulement à
la lumière de Lobatchevsky et Riemann, mais plus encore parce
qu'on peut très bien imaginer que d'autres géométries
également rationnelles auraient pu se développer en
déterminant une tout autre conception de l'espace, ensuite
du temps et par là bien entendu de notre monde et de l'homme.
Or que d'autres théories, que d'autres catégories
épistémologiques existent, n'implique nullement pour
les concevoir l'abandon de la raison. Bien au contraire. C'est dans
la mesure où elles sont « x-tolérées
», donc qu'elles gardent un rapport de structuration avec
la fonction de vérité que ces théories seront
rationnelles. Quand nous disons « x-toléré »,
nous faisons allusion à ce quelque chose qui, sans doute,
non pas par sa plénitude mais par son vide, a une qualité
ontologique.
III.2 GÖDEL, CANTOR, COHEN...
C'est la pensée logico-mathématique qui guide toute
tentative de modélisation depuis la géométrie
euclidienne jusqu'à l'intelligence artificielle de nos jours.
Les théories mathématiques sont fondées sur
des principes assez simples basés sur la notion de système
formel. Un système formel est un ensemble de données
purement abstrait qui décrit les règles de manipulation
d'un ensemble de symboles traités de façon uniquement
syntaxique. Un système formel est constitué d'un alphabet,
d'un vocabulaire à priori sans signification, d'un procédé
de ‘bien-formation' de mots (formules, propositions), d'un
sous-ensemble d'expressions bien formées primitives (axiomes)
et d'un nombre fini de règles d'inférence qui transformeront
les axiomes en théorèmes. Ainsi, les théories
mathématiques constituent des disciplines dites déductives.
Les axiomes doivent constituer les fondements de la théorie,
les théorèmes l'ensemble des résultats, c'est-à-dire
les propriétés de sa « structure ». Cette
idée de systématisation remonte aux Grecs. Ils ont
en particulier axiomatisé la géométrie. C'est
vers la fin du XIXème siècle que la logique, essentiellement
liée au discours, a eu droit à une restructuration
axiomatique. L'axiomatisation de l'arithmétique par Péano
date de la même époque. La géométrie,
l'arithmétique, la logique classique, la théorie des
ensembles sont les exemples les plus classiques des théories
axiomatiques.
La première tentative d'axiomatisation est donc celle de
la géométrie qui est due à Euclide. La géométrie
a presque toujours été enseignée comme une
discipline déductive par opposition aux disciplines expérimentales
où les résultats (théorèmes) doivent
être admis en raison de leur accord avec l'observation. La
géométrie fut pendant longtemps considérée
comme la seule branche des mathématiques qui repose sur une
axiomatique sûre.
L'une des théories les plus controversées depuis
presqu'un siècle est la théorie des ensembles fondée
par Cantor. Pour donner une base axiomatique à la théorie
des ensembles, tout en évitant les différents paradoxes
(dont celui de Russell) qui ont fait couler beaucoup d'encre, Ernst
Zermelo et Abraham Fraenkel ont été conduits à
poser un ensemble constitué de neuf axiomes. Le huitième
axiome est resté célèbre sous le nom d'axiome
de choix. L'axiome de choix a été refusé par
certains des plus grands mathématiciens du début du
vingtième siècle.
Au début de ce siècle, deux problèmes fondamentaux
troublaient les mathématiciens. Le premier consistait à
établir la consistance des mathématiques. Le second
problème résidait dans ce qu'on appelle la complétude.
D'une manière générale, la complétude
signifie que les axiomes sont suffisants pour que l'on puisse engendrer
toutes les tautologies du système. Cela suppose bien évidemment
qu'on sache interpréter le système, c'est-à-dire
qu'on puisse établir entre signifiés et signifiants
des effets de signification univoques. Une théorie n'a pas
d'intérêt cognitif si elle n'est pas interprétée.
Une autre définition de la complétude est de dire
qu'elle consiste à vérifier que les axiomes suffisent
à établir la vérité ou la fausseté
de n'importe quelle proposition bien formée, c'est-à-dire
formée conformément aux règles syntaxiques
du système formel. Dans la littérature mathématique
cette question est connue sous le nom de « problème
de décision ».
Pendant quelques années, des systèmes axiomatiques
relativement triviaux, tels que celui du calcul propositionnel,
ont vu leur consistance, voire leur complétude démontrées.
En 1930, Kurt Gödel démontrait la complétude
du calcul des prédicats du premier ordre. C'est un résultat
très important qui a eu des conséquences heureuses
en programmation logique, une branche périphérique
de l'informatique qui a vu le jour au cours des dernières
décennies. Cependant, ce résultat ne conduit pas à
une procédure effective de décision, décision
qui évoque le problème de la vérité.
En 1931, Kurt Gödel publia deux résultats sensationnels
concernant les théories formelles incluant l'arithmétique
relativement développée :
1) Inconsistance : La consistance n'est pas démontrable
à l'intérieur de cette théorie.
2) Incomplétude : Si une théorie formelle est consistante,
alors elle est incomplète (il existe des propositions indécidables).
Le prix de la consistance est donc l'incomplétude.
Ce que veut dire en particulier le résultat de Gödel
est que la méthode axiomatique contient certaines limites
internes qui excluent la possibilité d'axiomatiser dans sa
totalité l'arithmétique.
Il existe donc des limites à ce que peut établir
l'axiomatisation. Le théorème d'incomplétude
de Gödel constitue jusqu'à un certain point une négation
de la loi du tiers exclu.
L'un des problèmes qui a le plus préoccupé
d'éminents chercheurs a été soulevé
par Cantor, véritable génie de la fin du dix-neuvième
siècle et du début du vingtième, sous l'appellation
de l'hypothèse du continu, qui traite le concept de l'infini.
En effet, les mathématiciens utilisent la notion de l'infini
en la distinguant de la notion de fini. Plus simplement, un ensemble
est fini si l'on peut mettre en correspondance cet ensemble avec
un autre ensemble fini. Dans le cas contraire, on a un ensemble
infini.
La découverte fondamentale de Cantor est de trouver que
tous les ensembles infinis n'ont pas la même taille. Il y
a donc une infinité de tailles différentes pour les
infinis. Ainsi, quel que soit l'ensemble considéré,
il existe un ensemble encore plus grand, et les tailles sont donc
sans limites.
Sachant, d'après le théorème de Cantor, que
l'ensemble P(N) ayant pour éléments tous les ensembles
d'entiers positifs est plus grand que l'ensemble N des entiers positifs,
une question s'est posée tout à fait naturellement
: y a-t-il des ensembles de taille intermédiaire entre la
taille de N et celle de P(N) ? c'est la question fondamentale soulevée
par Cantor. On ne connaît pas encore la réponse. Cantor
a supposé qu'il n'existait pas de taille intermédiaire
entre la taille de N et celle de P(N), et c'est la fameuse hypothèse
du continu. C'est une hypothèse, ou une conjecture qui n'a
jamais été prouvée, ni réfutée.
Comment ne pas penser à l'axiome des parallèles de
la géométrie ? Pourquoi Cantor a-t-il supposé
que non ?
La question de l'indépendance de l'axiome du choix (axiome
8 de l'axiomatique de Zermelo-Fraenkel) et de la conjecture de Cantor
par rapport au système Zermelo-Fraenkel a fait couler beaucoup
d'encre. En 1939, Gödel démontra que la conjecture de
Cantor est consistante avec le système Zermelo-Fraenkel.
Aussitôt après, en 1940, de nouveau Gödel démontra
que si le système d'axiomes de Zermelo-Fraenkel, abstraction
faite de l'axiome du choix, est consistant, alors le système
obtenu par l'adjonction de cet axiome l'est lui aussi, ce qui revient
à dire que l'axiome ne peut être réfuté.
En 1947, Gödel conjectura que l'hypothèse du continu
est indépendante des axiomes de Zermelo-Fraenkel (y compris
l'axiome du choix).
Paul Cohen a montré en 1963 que l'hypothèse du continu
est indécidable à partir du système de Zermelo-Fraenkel.
Il s'en suit que si la théorie des ensembles est non contradictoire,
on peut lui ajouter comme axiome l'hypothèse du continu,
ou sa négation. Il démontra aussi que l'axiome du
choix est indépendant des autres axiomes de Zermelo-Fraenkel
si ces derniers sont consistants, ce qui revient à dire qu'il
ne peut être démontré sur la base des autres
axiomes de Zermelo-Fraenkel. Précisons que, même si
l'axiome du choix est conservé dans le système de
Zermelo-Fraenkel, l'hypothèse du continu ne pourrait pas
être démontrée. Ces résultats indépendants
signifient que dans le système de Zermelo-Fraenkel l'axiome
de choix et l'hypothèse du continu sont indécidables.
Dans son principe, la méthode de Cohen, dénommée
« méthode du forçage », n'était
pas différente des autres preuves d'indépendance :
trouver une interprétation et un modèle qui satisfassent
aux autres axiomes mais non à celui qui est en question.
Le « forçage de Cohen » permet donc d'adopter
plusieurs positions possibles si l'on veut édifier les mathématiques
sur la théorie des ensembles.
Dans ces situations de forçage, les hypothèses ontologiques
qu'on fait peuvent ne pas exister. On peut très bien imaginer
une géométrie sans l'axiome sur les parallèles
(et elle existe…) qui soit parfaitement cohérente.
De même une théorie des ensembles sans l'hypothèse
du continu est, comme on vient de le voir, cohérente. Le
forçage arrive peut-être par hasard puisqu'il n'y avait
aucune raison pour qu'une géométrie non euclidienne
ne précède celle d'Euclide, mais il n'est pas le fruit
d'une procédure de décision utilisant le hasard (le
coup de dé), il est le fruit d'un acte (libre). C'est la
liberté même sous la figure de l'irruption non prévisible.
Cet acte se passe sous condition de l'hypothèse ontologique
qui énonce « qu'il existe quelque chose dans ce qui
existe ». Or, ce qui existe est justement ce qui dans une
situation insiste sous la forme d'une exigence, d'un problème
qui refuse les solutions qui tendent à le saturer. Dans la
tradition néo-platonicienne, la liberté était
liée à ce point d'exigence situationnelle et non à
une quelconque vision narcissique d'une machine ou d'un homme autonome
par rapport à toute surdétermination.
Le forçage n'est pensable que dans la catégorie d'une
décision qui ne se déduit pas des éléments
de la situation, donc il est radicalement non prévisible
pour et par la catégorie de la situation ; le forçage,
pour ainsi dire, « s'auto-exige » sous la forme d'une
« zone de turbulence ». Nous pouvons imaginer que la
décision consiste en un acte « libre » qui s'opère
sur une surface absolument lisse, la surface étant toujours
lisse et sans faille depuis le point de vue de la consistance interne
de la situation. C'est bien là que réside la différence
avec « la machine à lancer les dés » car
bien que le lancement des dés implique une manoeuvre propre
de l'aléatoire, il faut bien, pour que la machine se mette
en route, qu'il y ait une faille dans la surface de la situation
capable de la déclencher. Or, le forçage est une possibilité
axiomatique, mais la procédure du forçage nécessite
pour être pensée une instance métamathématique.
Il est important que le forçage opère sur une surface
lisse, ça montre qu'il nécessite une instance autre
que le combinatoire. La conséquence du forçage sur
une surface lisse n'est pas d'abolir le hasard.
La liberté, c'est le possible sous la figure de l'impossible,
la possibilité de tenter l'impossible d'un pli. C'est le
fait de parier à la possibilité de l'existence d'un
x, d'effectuer un acte x qui se trouve à la limite de la
situation, qui n'est pas de l'ordre du possible, qui n'est pas nécessaire
et par conséquent qui évoque l'inconsistance. Le forçage
est ce qui permet de trouver ce x, d'effectuer cet acte x, alors
qu'il n'y a aucune raison déterministe…
La liberté est donc le possible de l'« impossible
», la possibilité de tenter l'impossible. Un impossible
qui appelle le « pas nécessaire ». L'un des forçages
parmi les plus importants de l'histoire des sciences est celui qu'a
effectué Euclide, en proposant l'Axiomatique de la géométrie,
ou la notion d'axiomatique tout court. A l'époque d'Euclide,
dans la situation donnée, il n'y avait aucune raison déterministe
pour que la méthode axiomatique voie le jour. Elle était
du domaine du « pas nécessaire ».
Le forçage, la possibilité de l'impossible, celle
du « non nécessaire », le fait de tenter un x
à la frontière d'une situation S, x ne faisant pas
partie de S, est l'expression même de la liberté. Ce
n'est pas une décision parmi plusieurs choix possibles. Ce
qui va avec une décision, c'est le Sujet qui est celui qui
se forme du fait de l'interruption de la norme qui implique un pari.
Le forçage ne résulte pas du tout du fait de l'interruption
de la norme dans une situation donnée. Il vient « tout
seul ». Cette conception du Sujet n'a rien à avoir
avec les conceptions classiques d'un Sujet pré-reflexif,
c'est-à-dire un Sujet qui préexiste à l'acte
du forçage. Au contraire, nous ne concevons le Sujet qu'en
tant que fondé et fondateur de l'acte du forçage.
Le forçage est fondé sur une indiscernabilité
qui n'a pas de représentation. Cette indiscernabilité
est imaginable en tant qu'hypothèse, en tant que coup de
dé, sur la possibilité d'une fissure là où
nous n'apercevons qu'une surface lisse. On peut également
dire que le forçage arrive lors d'une interruption du régime
de nécessité. L'indiscernabilité est le propre
du forçage car il intervient là où il n'y avait
rien de discernable. Or, sur cette intervention va se fonder une
indécidabilité. Des énoncés indécidables
pourront être construits, le pari ontologique aura été
celui de procéder à un forçage par la construction
des énoncés indécidables comme on vient de
voir pour l'hypothèse du continu, pour l'axiome sur les parallèles,
etc.
Le forçage est la rencontre d'un chercheur avec ce qu'il
ne pensait pas trouver, et que pourtant il ne cesse de chercher.
Or, tout chercheur travaille et émet ses hypothèses
dans le cadre d'un paradoxe. Car, si d'un côté la fertilité
d'une hypothèse sera prouvée dans l'après-coup
par la réussite du forçage, tout forçage signifie
déliaison et rupture d'avec les cadres jusque-là dominants.
Or, d'autre part, et voilà le paradoxe, tout chercheur travaille
dans le cadre d'un récit idéologique qui a comme fonction
de permettre à la pensée d'exister dans un champ tissé
de liaisons.
Nous nous permettons d'insister sur le lien entre « l'impossibilité
de démontrer » et « la tolérance »
qui aboutit à la conception des points « x-tolérants
». Il existe donc au moins un point x autour duquel et par
rapport auquel, nous pouvons émettre des hypothèses,
construire des théories et des axiomatiques, comme on vient
de voir dans l'exemple de la géométrie, de la théorie
des ensembles. Ainsi, à partir de l'« indémontrable
» (l'indécidable), on peut émettre des hypothèses
qui permettent de « tolérer ». Le réel
« tolère » donc certaines hypothèses et,
à l'épreuve de la praxis, en déclare d'autres
inacceptables. Là, nous remarquons l'importance de l'indémontrable
qui loin d'être un accident, devient un point fondateur.
III.3 AU DELà DE GÖDEL, CANTOR...
Il s'avère que la question centrale de notre problématique
est la question de la référence. Les réalistes
(Aristote, Kant, Laplace,...) pensaient que le Réel était
là, il était à dévoiler tandis que les
constructivistes construisent un monde virtuel. A partir de la crise
de 1900, les chercheurs ont perdu l'objet de leur recherche et pourtant
ils continuent à chercher... Le Réel apparaît
comme un accident, le constructivisme n'étant pas sans conséquence...
Le monde à dévoiler n'existe plus, la recherche de
la modernité construit une combinatoire de la recherche qui
se passe de l'objet de la recherche.
Nous avons évoqué différentes techniques de
l'Intelligence Artificielle dont la préoccupation principale
est de chasser l'incertitude, incertitude qui empêche le dévoilement
du réel, et qui est apparue comme la cause principale d'une
rupture épistémologique depuis la crise de 1900. On
peut facilement remarquer que l'Intelligence Artificielle a épuisé
le traitement technique sans épuiser la question. Ainsi,
on peut simplement dire que la question excède le traitement
technique de la question, l'essence de la technique n'étant
pas la technique. L'Intelligence Artificielle propose des traitements
régionaux à un problème transversal, un problème
de notre culture. Elle permet sans doute de résoudre les
problèmes posés par ce que nous appelons un hasard
faible (problèmes de choix), mais la résolution du
hasard fort (problèmes de décision) est un problème
culturel.
Ainsi, depuis 1900, la recherche va se mettre à travailler,
sans le dire, sur elle-même. On passe de la pensée
de l'être à une pensée centrée sur le
connaître, et ensuite sur le mécanisme du connaître,
le monde devenant un figurant.
Pour la post-modernité, tout est question de récit,
tout est possible. Or, Lacan dit que « si tout est possible,
rien n'est réel ». En effet, le possible n'entraîne
pas le réel. En plus, une trop grande virtualisation constructiviste
tend à produire des simulacres.
Notre position n'est ni réaliste, ni constructiviste. Pour
nous, le réel relève d'une fonction x, une interaction
entre les praxis et les énoncés. Ce x-là se
comporte comme un adversaire qui nous permet ou ne nous permet pas
de résoudre la question. Il faut insister lourdement sur
la différence fondamentale entre l'indiscernabilité
et l'incertitude.
Sur la question de l'indiscernabilité, Gödel rejoint
Damascius (VIème siècle) qui disait que « la
totalité englobante est incomplète, la totalité
englobée est infinie ». Pour Péras, l'infini
est l'ennemi du fini tandis que Apeïron pense surtout au mauvais
infini qui empêche la totalisation. En effet, la question
centrale est comment penser (ou ne pas penser) à l'infini
articulé au fini (et réciproquement) ? Le fini est-il
un accident de l'infini ?
De ce point de vue, il existe deux traitements de l'infini qui
arrivent à dégager une pensée finie de l'infini
:
-la pensée finie de l'infini est le concept de singularité
chez Spinoza,
-la totalité englobée de Damascius est infinie :
elle rejoint l'infini dénombrable, le a 0+1 de Cantor.
Le mauvais infini, l'infini englobant fait toujours défaut
à la totalité. C'est la source principale de nombreux
paradoxes de l'histoire de la logique et de la théorie des
ensembles.
Or, dans les mathématiques dites modernes, Leibniz et Newton,
à travers la notion de limite dans le calcul infinitésimal,
arrivent à établir une différentielle qui tend
vers zéro, et qui « compte pour un » c'est-à-dire
pour une limite à partir de laquelle on n'est plus dans cet
univers infinitésimal. On peut faire le lien avec les transfinis
de Cantor qui nous permettent d'établir une limite a 0 à
partir de laquelle on n'est plus dans un univers connu.
Dans l'histoire d'Achille et de la tortue, nous pouvons nous rendre
compte que la finitude est un accident de l'infini. En effet :
-d'une part, nous pouvons démontrer qu'entre Achille et
la tortue, il y a l'infini, (1)
-d'autre part, nous savons que Achille, à tous les coups,
gagne. (2)
La dernière proposition nous permet de comprendre que l'infini
n'est pensable que comme englobé. La bande de Möbius
est un autre exemple qui permet de faire la même constatation.
Les deux énoncés précités (1) et (2)
ne sont pas le dévoilement de la Réalité ;
ils ne peuvent donc pas être pensés depuis le réalisme.
Le constructivisme ne tolère pas non plus l'existence de
ces deux énoncés-là.
Alors, nous disons que ces deux énoncés-là
sont des énoncés x-tolérants. Nous n'adhérons
ni au réalisme, ni au constructivisme. Nous disons qu'il
y a du Réel comme une fonction de devenir permanent. Ce Réel-là
va tolérer certains énoncés. Le Réel
se comporte donc en tolérant et en exigeant. C'est ce qui
stimule le désir du chercheur, ce qui le fait « marcher
». Ainsi, la théorie n'apparaît plus comme une
référentialité du Réel (séparation
Sujet/Objet) mais comme une dimension du Réel. Par rapport
au Réel, tout énoncé x-tolérant est
équidistant.
Les énoncés x-tolérants sont des périphrases
d'une phrase qui n'existe pas. D'un point de vue spinoziste, on
peut dire que tout énoncé existe plus ou moins d'après
la puissance de ce que son concept englobe. Ainsi, tout énoncé
n'est pas x-tolérant bien que tout énoncé existe.
Nous sortons de l'inquisition réaliste (dichotomie vrai/faux),
mais nous ne sommes pas dans le flou constructiviste où les
énoncés sont simplement véridiques. Dans le
concept de x-tolérance, tout existe avec des puissances différentes.
Ainsi, le « cercle carré » renvoie à une
puissance minimale car l'énoncé existe à la
limite de ce qui n'existe pas. L'axiome d'Euclide sur les parallèles,
bien que pas vrai dans tous les mondes possibles, recouvre une très
grande puissance.
IV. CONCLUSION
L'Amour, l'Art ou les sciences basées sur des « vérités
statistiques » (comme la médecine, la météorologie,…)
fonctionnent sans avoir recours à des axiomatiques. L'idée
x de construire une axiomatique et ses règles de fonctionnement
constituaient bien un forçage. Euclide n'était pas
du tout placé devant un choix à faire parmi plusieurs
possibilités x1 ,x2 , x3 ,…xn , il a tout simplement
tenté un x qui se trouvait à la frontière de
la situation S, c'est-à-dire n'était pas immédiatement
déductible des hypothèses, mais qui finalement était
compatible avec S.
Le forçage est fondé sur une indiscernabilité
qui n'a pas de représentation. Cette indiscernabilité
est imaginable en tant qu'hypothèse, en tant que coup de
dé, sur la possibilité d'une fissure là où
nous n'apercevons qu'une surface lisse. On peut également
dire que le forçage arrive lors d'une interruption du régime
de nécessité. L'indiscernabilité est le propre
du forçage car celui-ci intervient là où il
n'y avait rien de discernable. Or, sur cette intervention va se
fonder une indécidabilité. Des énoncés
indécidables pourront être construits, le pari ontologique
aura été celui de procéder à un forçage
par la construction des énoncés indécidables
comme on vient de voir pour l'hypothèse du continu, pour
l'axiome sur les parallèles, etc,… Le pari dans le
sens faible sera celui qui va se jouer entre les énoncés
indécidables.
Le schéma directeur d'une opération de forçage
devient alors :
1) Pari à partir de l'hypothèse d'une indiscernabilité.
2) Création des hypothèses à partir du forçage.
3) Choix.
Les niveaux 1 et 2 constituent ce que nous appelons le hasard1,
le « pas analytiquement prévisible », ce sont
des niveaux ontologiques. Le niveau 3, c'est le hasard2, la machine
à lancer les dés et son déclencheur.
Une question qui revient souvent est le fait de savoir si toute
situation est « forçable ». On peut dire que
oui : on peut opérer un forçage dans toute situation,
mais le forçage est toujours le fruit d'un travail de recherche
car il n'est pas opérable de façon indiscriminée
sur n'importe quel élément de la situation.
Pourquoi le nouvel axiome de Lobatchevski sur les parallèles
a-t-il entraîné des résultats intéressants
? A notre avis, il existe des zones d'opacité où une
rencontre hasardeuse entre les opérateurs et un forçage
permet de constituer le Sujet.
L'axiomatique n'est pas entièrement transparente à
l'homme qui la travaille et l'élabore, peut-être parce
qu'elle est basée sur une vérité dont l'essence
n'est pas une vérité. La « x-tolérance
» signifie finalement que l'axiomatique n'établit pas
une transparence. Il y a un Autre de l'axiomatique. L'Autre de l'axiomatique
existe, en tant qu'hypothèse dans la situation ou bien en
tant que constat dans l'après-coup sous la figure de l'un
des axiomes fondateurs de la situation. Rappelons nous de Spinoza
qui a dit « le modèle n'est pas une vérité,
mais un type de rapport avec la vérité ».
Notre point de vue est que l'autre de l'axiomatique n'est pas une
axiomatique, c'est ce avec quoi l'axiomatique doit faire. Ce n'est
pas, non plus, une Boîte Noire qui a comme fonction de rétablir
imaginairement la consistance pour éviter toute interruption
du régime de la nécessité. Le concept de la
boîte noire pourrait, de prime abord, être identifié
avec notre concept de « x-tolérance ». Or, à
notre avis, ce n'est pas vrai car l'idée de boîte noire
renvoie dans une suite logique à une instance efficace, mais
non connue qui aurait comme fonction de permettre de refermer le
modèle. On peut dire que du point de vue épistémologique,
la boîte noire est un sophisme qui nous permet de continuer
à croire à la véracité du système.
Par contre, dans notre hypothèse de « x-tolérance
», la pensée de la vérité reste du côté
de « x », l'essence de la vérité n'étant
pas une vérité, la pensée conceptuelle est
à l'épreuve de cette autre instance non conceptuelle.
Cet article contient de très larges extraits d'un travail
commun aux trois auteurs [16]
REFERENCES
[1]REITER R. "Non-monotonic Reasoning" in Annual Review
Computer Sciences, 1987.
[2]REITER R. "A logic for default reasoning" in Artificial
Intelligence, 13, 1980.
[3]VAN BENTHEM J. "Essays in logical semantics", Reidel,
1986.
[4]KYBURG H.E. "Logical foundations of statistical inference"
in Kluwer Academic, Dordrecht,Holland, 1971.
[5]KYBURG H.E. "The reference class" in Philosophy of
Science, 50, 1983.
[6]KYBURG H.E. "Knowledge" in Uncertainty in Artificial
Intelligence 2, North-Holland, 1988.
[7]KYBURG H.E. "Probabilistic inference and non-monotonic
inference" in Uncertainty in Artificial Intelligence 5, North-Holland,
1990.
[8]KYBURG H.E. "Epistemological relevance and statistical
knowledge" in Uncertainty in Artificial Intelligence 4, North-Holland,
1990.
[9]BACCHUS F. "On probability distributions over possible
words" in Uncertainty in Artificial Intelligence 5, North-Holland,
1990
[10]BACCHUS F. "Representing and reasoning with probabilistic
knowledge: A logical approach to probabilities", The MIT Press
Cambridge, Massachusetts London, England, 1990.
[11] ZADEH L. "Fuzzy sets" in Information and Control
8, 1965.
[12]ZADEH L. " The concept of a linguistic variable and its
application in approximate reasoning. I, II, III" in Information
Sciences, 8, 9, 1975.
[13]ZADEH L. "Fuzzy sets as a basis for a theory of possibility"
in Fuzzy Sets and Systems 1, 1978.
[14]CHEESEMAN P. "In defense of Probability" in Proceedings
of Ninth International Joint Conference on Artificial Intelligence,
Los Angeles, 1985.
[15]ISRAEL D. "The role of logic in knowledge representation"
in IEEE computer review, Octobre 1983
[16] BENASAYAG M., AKDAG H. & SECROUN C. "Peut-on penser
le monde ? Hasard et Incertitude", Les éditions du Félin,
Paris 1997.
(*) Collectif Malgré Tout, (**) LERI-IMAD
(*) Collectif Malgré Tout, 77 rue Léon Frot 75011 PARIS
(**) LERI-IMAD, Rue des Crayères BP 1035 51687 REIMS CEDEX
2
|
|