"Nouveau millénaire, Défis libertaires"
Licence
"GNU / FDL"
attribution
pas de modification
pas d'usage commercial
Copyleft 2001 /2014

Moteur de recherche
interne avec Google
TITI est-il X-tolérant ?    (actes STP)
Miguel BENASAYAG (*), Herman AKDAG (*)(**)& Claude SECROUN (**)

Origine : http://www.lutecium.org/stp/akdag.html


I. INTRODUCTION

« Chaos », « indiscernable », « incapacité de prévoir », « fin du déterminisme »..., autant de mots, concepts, idées et parfois récits, qui hantent le discours courant de notre époque. Des gens en provenance des horizons les plus divers se mettent à parler en termes de « pari », « hasard », « probabilités », et plus personne ne prétend désormais que la raison puisse, depuis sa tour d'ivoire, programmer le déroulement des différentes situations du monde et encore moins imaginer ou créer des mondes nouveaux.

L'irruption dans le discours et dans la réalité, des éléments incertains (qui échappaient aux champs du déterminisme) a été vécue par nos contemporains comme la douloureuse rupture d'un bel appareil de connaissance et de transformation du monde sur lequel les générations des quelques siècles passés avaient mis tous leurs espoirs. Une telle rupture, malgré ce que certains peuvent prétendre ou souhaiter, est loin de se cantonner au territoire toujours un peu lointain des sciences et de la philosophie où l'incertitude existe comme véritable catastrophe (mais non pas désastre) depuis la fin du siècle dernier quand des critiques rigoureuses sont venues assombrir l'horizon jusqu'alors incontesté des mathématiques et de la philosophie.

Il s'agit en effet aujourd'hui de constater que l'irruption de l'incertitude en tant que rupture des modèles, paradigmes et principes jusque-là dominants, est devenue un véritable vécu quotidien pour l'homme et la femme de la rue.

L'incertitude s'est échappée des laboratoires de physique quantique où Heisenberg l'avait pensée, et aujourd'hui, tel un fantôme (mais beaucoup moins messianique que d'autres qui jadis parcouraient l'Europe), elle hante la pensée de nos contemporains dans des domaines aussi variés et multiples que la vie affective, par la dissolution des modèles familiaux, la vie sociale, par la dissolution des modèles de représentation, la vie politique, et même et surtout, le rapport que chacun de nous entretient avec lui-même et le monde.

La rupture du mythe du progrès est sans doute le corollaire le plus visible et le plus tangible de la fin de la pensée déterministe. Or cette rupture suscite chez les gens de bonne volonté, chez les « amis de la liberté » - ceux que l'on nommait « progressistes » - de fortes inquiétudes. En effet, si l'histoire n'a pas de sens, s'il n'y a pas de progrès inéluctable de l'émancipation, comment orienter et ordonner nos luttes, recherches et passions ? Nos amis clament ainsi que toute pensée en dehors du mythe du progrès, risque de nous plonger dans un obscurantisme moyenâgeux, comme si eux-mêmes ne pouvaient pas rompre avec le récit de la modernité dans lequel les forces de progrès et celles des lumières se battaient contre l'obscurité et la rareté. A ce sujet, une parenthèse s'impose : nous sommes en effet convaincus qu'une étude suffisamment sérieuse du Moyen Age nous permettrait de nous débarrasser de ces visions simplificatrices qui tendent à identifier en bloc cette période historique avec l'obscurantisme. Ce fut certes une des figures de proue du scientisme et de l'avant-gardisme en général que de concevoir la modernité comme l'histoire de la conquête du « continent noir » gardé par les forces de l'obscurantisme. Mais à notre avis, le véritable obscurantisme n'est pas celui qui énonce sous la forme d'un principe comme l'a fait Wittgenstein, que ce dont on ne peut parler, il faut le taire. Autrement dit, l'obscurantisme n'est pas l'énonciation de l'existence d'un « mystère », mais au contraire, il a représenté, et ce très tôt, la défense du principe d'autorité contre la pensée autonome rationnelle. On veut en effet nous faire croire que la rupture du mythe moderne d'une pensée totalisante et totalitaire capable de rendre le monde transparent, entraîne un véritable désastre pour la pensée et sonne le glas de la raison. Mais, cette rupture sonne plutôt le glas de cette pensée et de cet idéal de transparence totale propre au principe liberticide d'autorité, et, contre les mauvais augures, nous essayerons de montrer comment le fait qu'il y ait toujours au sein de la pensée rationnelle un noyau opaque, un objet non réductible à la transparence d'une axiomatique, loin d'être ce qui rend impossible toute pensée, est justement ce qui permet que celle-ci soit fondée.

Tout l'effort technologique de notre époque peut se comprendre comme la recherche d'une machine, logiciel ou système, capable de prendre des décisions susceptibles de dépasser l'indiscernabilité. Leur échec, que nous expliquerons comme l'impossibilité pour ces machines d'opérer de véritables décisions et donc leur incapacité à réaliser autre chose que des choix, pose à nouveau au centre de la problématique la question ouverte des indécidables. Et il nous convoque à la pensée de cette instance métamathématique d'un opérateur paradoxal capable de parier sur une décision.

Si nous voulons présenter à la façon d'un récit le devenir des enjeux épistémologiques qui aboutissent à l'époque actuelle, nous pouvons dire que la première grande rupture avec le monde pré-moderne est compréhensible et représenté par le mouvement qui déplace la préoccupation de la pensée, de la question de l'être à la question du connaître.

Que la question principale devienne celle de la connaissance est loin de représenter un phénomène historique mineur. Car, bien entendu, cela implique l'irruption dans le monde d'une nouvelle figure, en concurrence et en défi direct avec les divinités, à savoir celle d'un sujet humain de la connaissance. Il est évident que dans le monde préexistant à cette rupture, que nous pouvons nommer « le monde sacré », la place de l'homme, bien que privilégiée, est celle d'un étant parmi les étants, et toute velléité d'accéder un savoir-pouvoir divin est clairement condamnée par toutes les cultures non modernes.

Non pas que les cultures non modernes ont été incapables de produire des savoirs très importants, bien au contraire. Mais, ces savoirs se structurent sous condition de respect strict de sacré. Ledit respect strict de sacré ne limite pas le savoir, et il ne s'oppose pas non plus à la connaissance, mais les oriente et les structure d'une façon qui lui est propre. L'élément central étant, de façon comparative, que le sujet reste extérieur à l'homme et que l'homme ne va pas convoiter, ni violer les lieux et les lois sacrés. L'apologue de la tour de Babel nous donne un exemple parlant.

La priorité donnée à la connaissance comme question en dépit de celle de l'être représente ainsi une coupure et une rupture d'avec le monde sacré. L'homme apparaît ainsi comme un sujet qui se détache, par auto-réflexion, du monde qu'il habite. La désacralisation du monde paraît ainsi devenir la nouvelle étoile polaire qui oriente les agissements de ce nouveau venu dans l'histoire, le Sujet humain, identifié à sa propre conscience qui se donne comme tâche de rendre le réel transparent, maîtrisable et modifiable.

Le paradigme de ce nouveau monde sera donné par le schéma Kantien d'un Réel « chose en soi » auquel la conscience n'a pas d'accès direct, duquel nous n'avons ainsi qu'une idée à travers les catégories épistémologiques qui constituent de véritables fenêtres fermées à jamais, à travers lesquelles les hommes en tant que sujets de la connaissance arrivent à se faire une idée du monde qui est le leur.

Depuis le début du siècle, tout se passe comme si on était devenu incapable de définir s'il y a véritablement quelque chose de l'autre côté de la fenêtre. Ainsi, les gens se demandent si, tout compte fait, la nouvelle physique n'abolirait pas le Réel.

A partir de là, tous les efforts visent au remaniement de « fenêtres » (catégories, taxinomies, modèles) pour tenter de palier la catastrophe que représente pour le Sujet de la connaissance la perte de l'Objet à connaître. La tendance majoritaire, jusqu'aujourd'hui dominante, fait tacitement ou pas fi de l'Objet, et tente de continuer l'épopée de la modernité dans un feuilleton qui est devenu dorénavant à deux personnages: le Sujet et les catégories.

Ainsi, les constructivistes de tout poil nous expliquent que ce que nous avons pris pour des « fenêtres » étaient en réalité des écrans, sur lesquels il suffisait de projeter de beaux modèles saturés pour que l'idylle entre le sujet et le modèle construit soit éternelle. La seule question était : comment modéliser ? Quel est le bon modèle qui donne la bonne satisfaction à l'opérateur ? Hélas, comme dans les tangos, un troisième personnage est venu casser une si belle romance : celui-ci, sous la forme de l'incertitude, s'entête à casser ou faire disfonctionner les modèles auto-saturés. De là, ont vu le jour des efforts désespérés pour essayer de chasser, maîtriser ou du moins parquer l'irruption de l'indéterminisme et de l'incertitude, comme si on était encore en mesure de garder l'horizon chimérique de la modernité, d'une raison désacralisatrice et totalisatrice qui, envers et contre tout, pourrait garder les idéaux déterministes de Laplace comme fondements de la science.

II. SUR LA QUESTION DE L'INCERTITUDE

Dans presque tous les domaines des activités humaines, nous sommes témoins depuis un certain temps d'une préoccupation et d'un intérêt croissants pour la question de l'incertitude. En effet, dans des domaines aussi divers et variés que la médecine, l'économie, la politique, l'urbanisme et l'écologie (la liste n'est pas exhaustive), les différents acteurs sont occupés par tous les moyens à lever l'incertitude qui cohabite avec leur savoir-faire.

Tout se passe comme si le monde ou les catégories et les modèles qui nous permettaient de penser et d'agir étaient devenus ambigus, complexes, opaques, autrement dit incertains. Que ce soit au niveau des dirigeants de la planète, ou bien du plus simple mortel, toute pensée en terme de prévision paraît être devenue impossible. Car si toute connaissance de la réalité repose sur des structures cognitives préalables, les hommes de la fin du millénaire sont confrontés à l'angoisse et au désarroi de celui ou celle qui, pour ainsi dire « navigue à vue » et de surcroît, dans un monde qui, pour garder la métaphore, est un véritable océan déchaîné.

Au fond, on peut dire que l'incertitude renvoie à l'humanité de l'homme, parce qu'elle renvoie au fait d'être mortel. Or, si l'on considère que l'être humain, de par la conscience qu'il a de la mort et de la finitude est l'unique « être mortel », il est aussi cet être qui doit ordonner toutes ses certitudes à partir de la conscience et de l'expérience douloureuse de l'incertitude. C'est pourquoi, il est nécessaire de préciser que la question de l'incertitude dépasse largement le cadre des mathématiques, de la physique, de l'économie ou de la politique.

Ainsi, nous allons évoquer les différents traitements que les workers en mathématiques, les informaticiens, les « communicateurs », et autres constructeurs de l'idéologie dominante proposent pour faire face à la question de l'incertitude en procédant à la recherche des systèmes et appareils capables de « décider » au-delà de toute pensée, sujet et liberté. Précisons que pour la clarté de la présentation, nous allons citer d'abord les théories qui ont tendance à nier ou minimiser l'importance de l'irruption de l'incertitude dans les champs de la pensée rationnelle. Pour elles, tout se passe comme si, tout compte fait, l'incertitude et la rupture de la pensée déterministe n'étaient pas autre chose qu'un nouveau défi dans l'« épopée de la pensée scientifique ». Plus encore, l'incertitude viendrait potentialiser et développer un édifice qu'elle ne mettrait pas en cause.

Pour les tenants de cette tendance, qui est largement majoritaire, tous les discours et bruits autour de l'incertitude, relèvent d'un spectacle propre à la mode et en tant que tels sont appelés à disparaître.

Sur le trottoir d'en face et dans une position diamétralement opposée, les « admirateurs du chaos » déclarent tout savoir impossible. L'incertitude aurait démoli l'édifice de la rationalité et par conséquent le discours et la praxis scientifiques relèveraient d'un récit, sachant bien entendu que tous les récits s'équivalent. Certes, la théorie du chaos ne doit pas être confondue avec la tempête idéologique qu'elle a déchaînée, mais nous ne sommes pas loin de croire qu'elle est ce petit papillon qui aurait déclenché des tremblements de terre qui eux-mêmes auraient détruit l'édifice de la raison...

Il ne s'agit donc pas de nous lancer à la chasse aux papillons pour éradiquer les catastrophes, mais bien plutôt, de parier sur la possibilité du développement d'une pensée rationnelle qui tout en tolérant l'incertitude, ne la conçoive pas comme ravageante.

II.1 APPROCHES PHILOSOPHICO-MATHEMATIQUES

Beaucoup de travaux ont été effectués autour de la notion d'incertitude, surtout dans un courant de pensée logico-mathématique. Avant d'en citer un certain nombre, nous allons rappeler quelques grandes étapes de la pensée sur l'incertain à travers l'histoire.

L'incertitude en tant que questionnement du modèle épistémologique dominant apparaît périodiquement dans l'histoire de la pensée, sous des formes différentes. Ses ancêtres les plus reconnus sont probablement Démocrite et les philosophes mégaro-stoïciens.

Mais c'est à partir de la crise des fondements de la rationalité déterministe qui se joue aux alentours de 1900 que l'incertitude devient un concept central. C'est en effet autour de cette date que nous pouvons situer les différentes ruptures qui mirent en question, puis ébranlèrent les axes principaux des fondements de la rationalité moderne, et ce dans des domaines aussi différents que ceux de la géométrie, de la physique, de la politique et des sciences humaines notamment.

Jusqu'alors, la rationalité moderne était fondée sur le principe restrictif selon lequel n'est rationnel que l'analytiquement prévisible, c'est-à-dire le résultat d'une démonstration logico-mathématique. Et c'est le mariage entre déterminisme et raison qui a rythmé la construction de la mathésis universelle, mariage (articulation) dont la figure paradigmatique est sans doute celle de Laplace pour lequel hasard et contingence en tant que figures de l'incertitude n'étaient pas autre chose que les noms de l'ignorance.

Laplace rejoint ainsi l'acte de foi du physicien Kepler, qui affirme que la seule différence entre Dieu et les hommes c'est que le premier connaît depuis l'éternité tous les théorèmes, tandis que l'homme ne les connaît « pas tous encore ». Ce « pas encore » exprime clairement la temporalité classique de la modernité, d'un accomplissement de l'homme et de sa raison à travers le devenir temporel.

Ce « pas encore », ce concept de « tous les théorèmes » renvoient à un mythe qui définit l'humanité elle-même, c'est-à-dire qu' « est humain celui qui est fondé par ce mythe-là ». En ce sens, dompter l'incertitude a été, est, et sera l'un des principaux buts de l'humanité, exprimé par des formes et des énoncés très différents.

La rupture des fondements de la raison classique entraîne inévitablement le questionnement du fondement même de l'être humain, en tous cas tel qu'on le concevait dans la modernité en tant qu'être de raison et par elle, être libre. Car, et ceci est extrêmement important dans la pensée dominante de la modernité, la liberté apparaît toujours sous condition de la raison. C'est pourquoi la crise que nous traversons implique directement une crise dans la pensée et la praxis de la liberté.

Mais pour nous, cette rupture (des catégories épistémologiques dominantes) n'est pas réductible à un simple incident de parcours. Et de même que ce fut le cas pour la physique relativiste quantique, il ne s'agit pas, face à un défaut d'une théorie donnée, de construire de nouvelles théories qui la complètent. Il s'agit au contraire de constater une rupture radicale dans cette expérience, qui fait que le monde paraît se dérober, s'estomper, et avec lui les anciennes théories rassurantes qui constituaient les mécanismes et les structures de la référence. En effet, que ce soit en mathématiques, physique ou linguistique, les nouvelles théories ne viennent pas s'articuler au mythe du « pas encore », ne viennent donc pas compléter ou développer un savoir mais plutôt abolir un rapport au réel jusque-là dominant ou sur lequel, en tous cas, les sciences classiques se sont fondées.

Précisons que nous utilisons ici le concept de réel en le distinguant de celui de réalité. En effet, la réalité définit le monde, la situation dans laquelle nous vivons, pensons et agissons, tandis que le réel n'est conçu que comme les frontières erratiques qui délimitent la réalité, il apparaît comme le bord de cette situation auquel on articulera l'image de l'impossible, et par rapport auquel et sous la condition duquel des possibles existent (réalités).

Pour nos collègues et contemporains, que le monde ou le réel soit, par une rupture ou crise de la rationalité, « aboli », constitue une thèse beaucoup trop radicale et qui évoquerait plutôt pour eux un langage poétique que des concepts scientifiques. Dans l'histoire des sciences, tout se passe comme si le relativisme, l'incertitude, le hasard ou bien les questionnements de la référence étaient des concepts qui ne faisaient que s'incorporer, d'une façon certes un peu bruyante, à l'univers des connaissances existantes. Personne ne nie qu'ils cassent « quelque peu » l'unité des différents discours et pratiques scientifiques, mais tout compte fait, tout le monde agit comme si cette unité était dans un futur « incertain » promis aux hommes, comme si finalement, se colleter avec l'incertitude relevait d'une maladie infantile contre laquelle la science ne manquera pas de trouver un vaccin.

Or une incertitude radicale, c'est ce qui vient déconstruire tout récit, tout mythe d'une cohérence dans le réel du monde qui serait structuré par des règles ou des lois mathématiques et physiques dans une « mathésis universelle ». Une telle incertitude, que nous nommons « incertitude ravageante », ouvre la voie aux tendances obscurantistes actuelles qui toutes évoquent de près ou de loin l'échec de la raison « prétentieuse » et le retour vers des valeurs et des cosmogonies non centrées su r la raison.

Dans les positions agnostiques, nous percevons clairement une contestation radicale des principes modernes d'après « le réel est rationnel », à quoi elles répondront que c'est le rationnel qui interdit l'accès au réel. Ce sont de telles positions que nous trouverons chez les idéologues post-modernes dans ce qu'ils appellent « la pensée faible » et que nous, dans un hispanisme volontaire, appelons « la pensée débile ».

Cependant, il ne s'agit pas de rétablir un dualisme antagonique entre mythe imaginaire et pensée rationnelle. Ils coexistent et s'articulent sur un même plan d'immanence avec une articulation et des renvois mutuels complexes et indirects. C'est pourquoi, quand les tenants de l'idéologie post-moderne déclarent que la modernité fut tout compte fait « le récit de la modernité », nous y opposons non pas une n&eacut;gation, mais un a priori logique: si la modernité relevait effectivement aussi d'un récit, cela n'invalide pas pour autant les différentes praxis, savoirs, et progrès (multiples et en plusieurs directions), qui au sein de ce récit même ont été réalisés. Car le terme de récit n'est pas à comprendre comme la fumée qui nous empêcherait de voir la flamme, mais au contraire comme ce qui va nous permettre en général et en particulier dans la praxis scientifique d'avancer des hypothèses, de parier.

Toute hypothèse se fonde ainsi sur une croyance, qui ne relève cependant pas forcément de l'irrationnel, mais plutôt d'une « fidélité rationnelle » qui nous permet de dire que s'il y a eu telle rupture, telle découverte ou construction, il pourrait y en avoir d'autres, et ceci fonde à la fois la recherche et l'engagement.

Il faut bien comprendre que la question de l'irruption du hasard dans la raison est loin de représenter un petit problème pour des spécialistes de la philosophie et des mathématiques. La rupture du mythe de la téléologie de l'histoire entraîne la rupture de la figure centrale de la modernité, celle d'un homme guidé par sa raison et que Kant présentait dans ses trois critiques sous la forme des trois questions : Que puis-je savoir ? Que dois-je faire ? Que m'est-il permis d'espérer ?

La figure de l'homme de la modernité se structure autour des réponses à ces trois questions. La première, celle qui correspond au mythe de la raison toute-puissante, affirme que l'homme peut tout connaître grâce à la raison capable de dévoiler la mathésis universelle, « l'univers étoilé sur moi, la loi morale dans nous, l'harmonie était possible et connaissable ». La deuxième réponse est que tout simplement tu dois obéir. Cependant, Kant, contrairement à ce qu'ont avancé certaines exégèses « folkloriques », ne songe pas par là à établir un monde de servitude. Bien au contraire, l'homme est libre dans la mesure où il obéit à la loi qui à son tour est fondée dans la raison. La pratique de cet impératif mène à concevoir l'existence d'avant-gardes éclairées réclamant l'obéissance au nom de la raison qu'elles sont sensées représenter. Et c'est ainsi qu'apparaîtra le couple central caractérisant la modernité, le couple savoir-pouvoir, composé par deux instances qui tout en se renvoyant l'une à l'autre, créent un système de fonctionnement qui s'auto-légitime et s'auto-suffit. Le pouvoir apparaît fondé sur le savoir qu'il possède et le savoir de son côté sera produit, comme l'explique Foucault, à partir des rapports de pouvoir. La troisième réponse est celle de la promesse car grâce à la connaissance rationnelle des lois qui structurent le réel, à travers l'obéissance à cette raison, l'homme devient capable de maîtriser ces lois.

Alors que notre époque se caractérise par le vécu de la perte et du deuil impossible du mythe déterministe, les différentes approches en « logique mathématique » que nous allons citer relèvent de la tentative, quand même assez désespérée, de rétablir à tout prix une logique déterministe, même si pour cela elles se contentent souvent de déguiser un peu leur nom de manière à passer sous silence le changement pourtant total de l'objet en question.

II.2 APPROCHES LOGICO-MATHEMATIQUES

Les problèmes étudiés en intelligence artificielle sont mal définis c'est-à-dire que ce qu'on appelle « les situations incertaines » sont mal définies. L'incertitude est un élément dont on ne connaît pas les propriétés quantitatives et qui n'a pas une représentation arithmétique ou logique formelle. On peut dire qu'il existe des degrés d'incertitudes, mais la nature formelle du langage de l'incertain n'est pas claire. Il n'existe pas de méthode unique pour traiter l'incertitude.

Les systèmes d'intelligence artificielle ont besoin de prendre des « décisions », même quand les données sont incertaines. Le choix d'une « décision » fait partie de la complexité du raisonnement humain. Quelle décision faut-il choisir parmi plusieurs possibles ? C'est une question à laquelle on ne peut répondre facilement. La prise de décision doit-elle être faite automatiquement par la machine ? Ou bien, l'ordinateur doit-il seulement jouer le rôle d'un système d'aide à la décision en fournissant la liste des plus vraisemblables ?

Signalons qu'ici, le terme « décision » est utilisé du point de vue « technique » et non « philosophique ». Il y a souvent une confusion entre les mots « choix » et « décision ». La différence qui existe entre ces deux termes est la même que celle qui existe entre « signification » et « sens ». C'est ainsi que la signification renvoie à un ensemble consistant qui définit une situation, tandis que le sens, lui, relève du point d'inconsistance de la situation. Il est paradoxalement perçu comme le point de non-sens existant dans un ensemble cohérent. Ainsi le sens relève toujours d'un pari et d'une décision, décision, qui, et cela est fondamental, n'est pas déductible des éléments de la situation. Le choix, lui, reste un choix parmi les possibles, un choix dans la signification, donc dans la consistance, alors que la décision se joue forcément à la frontière de cet ensemble consistant. Il est toujours possible de faire un choix (un lancement de dé est toujours possible), tandis qu'une décision relève d'un indécidable. A la différence d'un choix, une décision est donc toujours non fondée, et d'autre part, comme on le disait plus tôt, elle n'abolit jamais le hasard dans le système. Il y a donc une différence fondamentale entre le pari et le déterminisme mathématique, et la « prise de décision » dans un système expert revient donc à faire un choix. Cependant, il est important de bien être conscient que choix et décision relèvent de deux registres foncièrement différents et qu'aucun des deux ne peut subsumer l'autre, l'éliminer ou l'aliéner, ces deux niveaux étant condamnés à coexister au sein d'une tension sans synthèse.

La logique est souvent perçue comme un art de modéliser le raisonnement. La logique classique est la logique parfaite, la logique du vrai et du faux, celle qui raisonne avec de l'information complète, correcte, qu'on peut qualifier de non-ambiguë.

On remarque toutefois que les hypothèses de la logique classique sont par trop réductrices et se prêtent mal à la modélisation du raisonnement humain, en particulier pour ce qui concerne la représentation et la manipulation de concepts linguistiques (plus ou moins, presque, à peine, la plupart, parfois, etc.), généralement non susceptibles d'être enfermés dans une dichotomie vrai-faux. La logique classique se trouve donc inadéquate pour représenter le langage dit « naturel », ainsi que les différentes facettes du raisonnement humain.

Toute la difficulté est de représenter un énoncé linguistique par une formulation logique. Ainsi que le fait remarquer, entre autres, un éminent chercheur en intelligence artificielle, Reiter [1, 2], la logique classique est inadéquate pour ce genre de manipulation.

Un système formel de déduction de la logique classique est composé d'un langage formel, d'un ensemble de schémas d'axiomes et de règles d'inférence. Le langage formel correspond à la description des structures de la représentation des connaissances du système et n'est en opposition directe ni avec le langage dit naturel, ni avec le raisonnement humain. C'est tout simplement un langage « artificiel » qui permet d'étudier le langage « naturel » en évitant les ambiguïtés et les équivoques. Précisons que cette langue que les mathématiciens qualifient de « naturelle » est à son tour ce qui dans l'histoire de la linguistique correspond à la langue désacralisée, langue polysémique. Ainsi, à travers l'élaboration d'un « système formel logique », les mathématiciens tentent de restituer cette langue référentielle (référence biunivoque), propre à la langue sacrée, ou monde-langue, où la chose et le mot entretiennent un rapport de consubstantialisation.

Au sein du système formel logique, le langage correspond à la structure du système de représentation des connaissances. Les axiomes constituent un sous-ensemble des formules du langage servant à décrire la connaissance sur le domaine. Les règles d'inférence sont des mécanismes de raisonnement sur la connaissance, elles permettent d'élaborer des théorèmes en s'appuyant sur les caractéristiques syntaxiques du système, tout en ignorant la sémantique.

On appelle une théorie de la preuve un système de démonstration purement syntaxique utilisant des règles d'inférence et des axiomes pour construire des théorèmes. Enfin, une sémantique de vérité basée sur la notion d'interprétation et de modèle est associée au langage de tout système formel logique. Une interprétation consiste à associer à toute formule A du langage une valeur de vérité (en logique classique: vrai ou faux).

Un système de démonstration pour un langage formel est dit adéquat et complet lorsqu'il y a correspondance exacte entre la relation de conséquence sémantique et la relation de démonstration syntaxique. Dans ce cas, nous serions dans la situation idéale d'une autoréférence réussie dont nous pouvons citer l'exemple frégéen pour qui, quand il affirme que « Chicago est une ville très peuplée », il se trouve face à une aporie référentielle (« très peuplée » d'accord, mais par rapport à quoi ?). Où commence le « très peuplé » et quand laisse-t-il la place au « trop peuplé » ? Par contre, s'il affirme que « Chicago est trisyllabique », il est là dans un système de véracité auto-démontrable.

Un tel système permet d'inférer des conclusions à partir de prémisses et définit donc une relation d'inférabilité entre formules, notée |-. Cette relation possède les propriétés suivantes qui traduisent certaines exigences du raisonnement valide.

-propriété de réflexivité : inférer une conclusion identique à l'une des prémisses est une opération valide. Ainsi, si « Chicago est trisyllabique » alors « Chicago est trisyllabique ».

-propriété de contraposition : si une prémisse implique une conclusion cela revient à dire que le contraire de la conclusion implique le contraire de la prémisse. Ainsi, si « Les hommes sont mortels » alors « Les immortels ne sont pas des hommes ».

-propriété de monotonie : un résultat acquis n'est jamais remis en cause par des résultats ultérieurs. Ainsi, si « Chicago est trisyllabique » alors rien ne permettra de démontrer, un jour, que « Chicago n'est pas trisyllabique ».

-propriété de transitivité : des résultats intermédiaires peuvent être utilisés pour établir la validité d'une conclusion. Ainsi, si « Les étudiants sont jeunes » et « Les jeunes ne sont pas riches », alors on pourra conclure que « Les étudiants ne sont pas riches ».

Dès que l'on franchit la frontière séparant le raisonnement rigoureux (représenté par la logique classique) du raisonnement plausible, on perd la plupart des propriétés suscitées.

Les logiciens étudient ces systèmes formels en privilégiant leurs propriétés métathéoriques que sont l'adéquation et la complétude. La complétude est également une propriété qu'on perd facilement quand on fait un raisonnement plausible.

Le prochain paragraphe consistera dans la présentation critique des principales théories que depuis, les mathématiques tentent de mettre en oeuvre par un traitement assimilant visant à « dresser » l'incertitude.

II.3 UN APERçU SUR LES LOGIQUES NON-CLASSIQUES

Une grande part de l'intelligence réside dans la faculté d'élaborer des raisonnements judicieux en présence d'une information incomplète. Dans l'absolu, ces raisonnements ne sont que plausibles, c'est-à-dire qu'ils sont révisés lorsque de nouvelles informations sont prises en compte.

Les logiques dites non-classiques sont celles qui essayent de formaliser ces types de raisonnements qui sont parfois des extensions - la logique modale qui introduit les notions de possibilité et nécessité - de la logique classique, et parfois des restrictions - la logique intuitionniste qui ignore le principe du tiers exclu - par rapport à cette logique. Il est à noter qu'un raisonnement logique peut contenir ces deux aspects (extension, restriction) à la fois.

Les recherches sur les logiques non-classiques datent de bien avant le développement de l'intelligence artificielle. Cependant, elles ont connu un certain regain d'intérêt depuis les tentatives de formalisation du raisonnement humain via l'intelligence artificielle. Celle-ci s'intéresse en effet souvent aux informations incertaines qui représentent soit un aspect prototypique, soit un aspect statistique.

Ces deux aspects de l'incertain correspondent bien aux deux aspects réels de l'incertain étudiés également par les philosophes, les linguistes, les psychologues, etc. En effet, il existe un premier aspect lié à un « pas encore », c'est-à-dire qu'on ne connaît pas encore une propriété d'un ensemble, mais des données supplémentaires vont arriver pour nous éclairer. Reste ainsi intacte la croyance qui soutient le récit totalisant. Un deuxième aspect est lié au fait que l'ensemble en question peut posséder au moins une propriété « récalcitrante » intrinsèque aux objets de l'ensemble. Cette propriété « récalcitrante » est également nommée incertaine. Dans ce dernier cas, l'incertitude ne se trouve pas dans le monde, mais dans la taxinomie utilisée puisque c'est à la codification que la propriété est récalcitrante.

L'une des principales qualités de la logique classique, la monotonie, disparaît partiellement ou totalement dès qu'on modélise le raisonnement plausible. Plus on s'éloigne de la logique classique, plus on s'éloigne de la monotonie. Les probabilités en sont un exemple parfait. A l'inverse, on peut remarquer que plus on veut construire un modèle monotone, plus on se rapproche de la logique classique.

Le raisonnement probabiliste donne une connotation statistique à l'incertain tandis que la plupart des approches symboliques, dont la logique des défauts, lui donnent une connotation prototypique. Le raisonnement probabiliste et le raisonnement par défaut se rejoignent via le principe de l'héritage par défaut (ou inférence directe). En outre, les deux approches sont presque équivalentes au vu de leurs avantages et inconvénients. On peut facilement remarquer que le raisonnement probabiliste peut être également considéré comme révisable .

Dans une théorie de quantification où il étudie les quantificateurs généralisés, c'est-à-dire les « La plupart », « Quelques », « Une bonne partie », etc…, le chercheur en intelligence artificielle, J. Van Benthem[3], les considère comme des propriétés relationnelles de second ordre, c'est-à-dire des propriétés des propriétés (ou des concepts). Ainsi dans « La plupart des A sont B » , la plupart établit une relation entre A et B , telle que si un objet satisfait la propriété A, il a mettons 50% de chances de satisfaire la propriété B.

Caractériser des ensembles par une propriété commune à une majorité de ses éléments fait partie du raisonnement humain. Un exemple classique du traitement de ce genre de problèmes est celui qui a constitué une abondante littérature autour de l'énoncé : « Les oiseaux volent ». Pour bien clarifier les choses, précisons que le terme « oiseau » est attribué à une classe d'animaux qui ont un certain nombre de propriétés. Il en existe huit mille espèces. La plupart des animaux auxquels la langue française (et bien d'autres) attribue la qualité d'oiseau ont également la qualité de voler. Cependant, quelques rares espèces ne peuvent pas voler (comme les autruches).

Beaucoup de travaux de recherche en intelligence artificielle se sont concentrés autour d'un oiseau que les chercheurs ont nommé le plus souvent TITI, la question étant bien évidemment de savoir si, étant donné TITI, celui-ci volait ou non.

Signalons que TITI répond aux deux aspects de l'incertain faible: à l'aspect « pas encore » parce que des informations supplémentaires peuvent nous indiquer s'il vole ou non, ainsi qu'au second aspect car tous les oiseaux ne volent pas, c'est-à-dire qu'il existe des éléments « récalcitrants », comme les autruches, parmi les oiseaux. Mais ce n'est qu'une remarque faite dans un premier temps, sous le charme de la belle présentation du problème par d'éminents chercheurs. Dire comme nous venons de le faire que c'est un problème qui se pose dans le cadre d'une incertitude faible est dénué de sens. C'est un problème qui relève non pas d'une véritable incertitude, dans le sens d'une irruption dans le réel, mais plutôt d'un problème taxinomique que l'on ne peut comparer avec « La plupart du temps, il fait très beau début août ». Si, malgré la définition du mot « oiseau » dans le Larousse (ou un autre dictionnaire), il existe des oiseaux qui ne volent pas, cela veut tout simplement dire que la taxinomie trouve inévitablement ses propres limites dans l'impossibilité d'une taxinomie totale. Nous pourrions nommer « ausoix » toutes les espèces d'oiseaux qui ne volent pas, et le problème ne se poserait absolument pas. Il n'y a donc aucune incertitude, même faible, dans « Les oiseaux volent ». Il est étonnant et décevant que beaucoup de chercheurs aient planché là-dessus sans s'être rendu compte de cette faille. Par contre, « La plupart du temps, il fait très beau début août » ne relève pas d'un problème taxinomique.

Plusieurs théories formelles du raisonnement dit révisable ont vu le jour ces dernières années. On les appelle souvent des « logiques » malgré l'absence de quelques propriétés chères à la logique classique.

D'un point de vue purement syntaxique, construire un système d'inférences non monotone nécessite d'affaiblir au moins les deux propriétés (monotonie et transitivité car c'est en général par transitivité que l'incertitude se propage) caractérisant les systèmes déductifs de la logique classique. Or ces deux propriétés sont très importantes et souhaitées dans le fonctionnement de tout système déductif. Sans ces deux propriétés, la notion de « déduction » n'aurait pas beaucoup d'intérêt. C'est pourquoi beaucoup d'encre a coulé et coule encore pour arriver au moins à une transitivité affaiblie et peut-être à une monotonie affaiblie.

Ainsi, si « La plupart des étudiants sont jeunes » et « La plupart des jeunes ne sont pas riches », alors on aimerait conclure que « La plupart des étudiants ne sont pas riches ». Ce qui nous conduirait à une transitivité faible. Quant à la monotonie faible, sur le même exemple, sachant que « Ernesto est étudiant », on aimerait conclure que « Ernesto n'est pas riche » avec la possibilité de revenir, si besoin est, sur notre conclusion et éventuellement conclure qu'« Ernesto est riche ».

D'un point de vue purement sémantique, construire une logique non monotone nécessite la définition d'une relation d'inférence permettant de tirer des conclusions qui ne sont pas vérifiées dans tous les modèles des prémisses.

II.4 LES APPROCHES NUMERIQUES

L'inférence utilisée dans les approches numériques est en général une inférence faible dont l'exemple typique est l'inférence statistique qui ne conclut pas certainement mais qui évalue les chances, la vraisemblance de la conclusion. Comme nous allons le voir, la question de l'incertitude sera soigneusement évitée en affectant soit des nombres, soit des fonctions aux concepts manipulés. Les résultats obtenus seront des concepts munis de poids numériques ou para-numériques. Ainsi, par exemple, la proposition « il fait beau un 5 août » sera affectée d'un poids numérique égal à 0,96.

Quand on parle de la représentation de l'incertitude par des nombres, on pense d'abord aux probabilités. Autant la logique a, depuis toujours, symbolisé le raisonnement rigoureux, autant la théorie des probabilités depuis qu'elle existe formellement (et sans doute bien avant) a été considérée comme un modèle parfait du raisonnement plausible (approximatif, incertain, inexact).

La probabilité d'un événement est vue, historiquement, soit comme un degré de confirmation, soit comme une fréquence théorique ou calculée a priori. Elle reflète la connaissance, le savoir de l'expert, de l'observateur sur l'ensemble P. Ces connaissances sont la plupart du temps soit subjectives, c'est-à-dire données arbitrairement par un connaisseur, soit statistiques.

Beaucoup de chercheurs considèrent que la théorie des probabilités est le seul outil qui permette de représenter adéquatement tout aspect de l'incertain. Ainsi, la « typicalité », c'est-à-dire l'étude des quantificateurs tels que « la plupart », « sauf exception », etc., est souvent effectuée à l'aide d'outils probabilistes.

Nous ne pouvons pas ne pas rappeler que le chercheur américain H. E. Kyburg[4..8] insiste sur le sentiment qu'on a sur le fait que la « fréquence » et la « typicalité » sont deux choses différentes, et en effet, elles le sont. L'interprétation « fréquentiste » est une des interprétations possibles (mais restreinte) de la « typicalité ». Nous aussi, nous avons déjà remarqué une différence fondamentale sur des assertions telles que « Les oiseaux volent » ou « il fait beau un 5 août ».

D'après Kyburg, une bonne méthode de résolution de ce type de problèmes doit tenir compte du principe des sous-ensembles (classes) de référence (spécificité): si la plupart des oiseaux volent, que les pingouins sont des oiseaux, la plupart des pingouins ne volent pas, et si TITI est un pingouin alors il est très vraisemblable qu'il ne vole pas (TITI hérite les propriétés des pingouins, sa classe de référence la plus spécifique). C'est une interprétation de la règle d'inférence directe chère à F. Bacchus[9,10], autre chercheur à ne pas oublier lorsqu'on évoque des travaux sérieux dans ce domaine.

Une bonne méthode doit également tenir compte du principe de Bayes, principe souvent utilisé dans les jeux du hasard et qui introduit le concept de probabilité conditionnelle (a posteriori), et surtout du fait qu'une information supplémentaire doit affiner le résultat: là se pose le problème de la monotonie ou de la non-monotonie. Kyburg ne croit pas à la monotonie (la vraie, la pure) dans le traitement de l'information incertaine. De plus, les sous-ensembles de référence doivent être uniformes; on remarque que chez les oiseaux, ils ne le sont pas puisque la plupart des pingouins ne volent pas…

Dans le même contexte, Bacchus a défini une logique pour l'information statistique afin de raisonner dans l'incertain sur des propositions de type « Les oiseaux volent » qui signifie dans sa logique que « plus de x% des oiseaux volent » avec par exemple x = 75. Il distingue cette proposition statistique de celle « la probabilité pour que TITI vole est de 75% » où une probabilité (qui selon lui est un nombre rationnel plutôt que réel) est attachée à une proposition afin d'exprimer un degré de croyance.

La seule règle d'inférence qu'il utilise est celle du modus ponens, c'est-à-dire de la déduction à partir des propriétés de sa classe de référence. Ainsi, si un élément appartient à une classe, il en hérite toutes les propriétés. Dans ce cas particulier, le degré de croyance auquel « TITI vole » étant donné que « TITI est un oiseau » est égal à la proportion des oiseaux qui volent (information statistique), ce qui lui permet de faire un raisonnement de type par défaut. Ainsi, c'est parce que la proportion des oiseaux qui volent est très élevée que, pour ainsi dire, par défaut la qualité de voler est affectée à tout oiseau.

La théorie des probabilités ainsi que ses méthodes annexes comme la méthode de Bayes sont bien évidemment celles qui sont « logiquement » les plus solides. Elles ont longtemps servi à modéliser des jeux de hasard et pourtant elles ne permettent pas toujours de gagner. Réciproquement, on peut se demander si la personne qui a gagné, il y a trois ans, en France, presque 10 millions de dollars au loto a utilisé des outils probabilistes. L'efficacité de ces outils est donc mise en cause. La théorie des probabilités permet de faire un choix, un pari, selon la terminologie en usage. Pourtant le pari dont il est question ici n'a rien à voir avec celui dont nous parlerons plus tard et qui renvoie au concept de décision ; ici, il se réduit à un choix entre plusieurs possibilités.

Le problème vient de la règle de l'inférence directe. Il n'y a, en effet, aucune raison ni mathématique, ni philosophique pour justifier l'affectation à un élément donné de la probabilité de sa classe de référence.

Les ensembles flous ont été introduits par le savant irano-américain Lütfi Zadeh[11..13] au milieu des années soixante. Ils autorisent des degrés d'appartenance intermédiaires entre l'appartenance complète et la non-appartenance et ont été originellement motivés par des problèmes de classification. D'après cette théorie, le sens de la plupart des termes du langage naturel qualifiant des grandeurs, des quantités, des intensités est représenté au moyen d'un sous-ensemble flou.

Considérons, par exemple, l'ensemble flou « jeune » dont la fonction d'appartenance est-jeune associe à tout u un réel compris entre 0 et l : tout individu dont l'âge est égal à u appartient à l'ensemble flou « jeune » à un degré est-jeune(u). On considère donc que tout expert qui utilise le prédicat « jeune » est capable de donner sa fonction d'appartenance. C'est sans doute vrai pour le prédicat « jeune », mais nous avons d'énormes doutes sur la possibilité de l'expert de donner effectivement la fonction d'appartenance de tout prédicat, par exemple celle de « riche », « beau », « grand », « intelligent », etc….

La théorie des ensembles flous a donc pour objectif de fournir un cadre conceptuel permettant de représenter des concepts difficilement représentables dans la théorie classique des ensembles. L'intuition sous-jacente est la suivante: est-il correct de considérer qu'un individu est jeune si et seulement si son âge est inférieur ou égal à 18 ans et (donc) qu'un individu dont l'âge est égal à 18 ans et un jour n'est pas jeune ?

Le concept d'ensemble flou a donc vocation à généraliser le concept classique d'ensemble. Les opérations usuelles en théorie des ensembles peuvent donc elles-mêmes être étendues aux ensembles flous. Finalement, au-delà de la réelle efficacité pratique d'un tel concept, il est évident qu'il existe ici une véritable "humilité", ou peut-être s'agit-il tout bêtement d'un profil bas épistémologique qui revient à affirmer "ceci est plus ou moins comme ça..." même si un tel "profil bas" se cache derrière des définitions apparemment très sérieuses propres à la logique classique.

Découlant de la théorie des ensembles flous, la théorie des possibilités, fondée également par Zadeh en 1978, fournit un modèle de représentation de l'incertitude dans lequel l'incertitude d'un événement est décrite par un degré de possibilité de cet événement et un degré de possibilité de l'événement complémentaire (qui peut être interprété comme un degré de nécessité), ces deux degrés étant faiblement liés.

Possibilité(A) = 1 signifie que A est possible. En particulier, si KA désigne le complémentaire de A, on a max[Possibilité(A),Possibilité(KA)]=1, dont l'interprétation est que, de deux événements contraires, l'un au moins a une possibilité maximale. De plus, lorsqu'un événement est possible, rien n'interdit que son complémentaire le soit.

Remarquons que sémantiquement parlant, une distribution de possibilités nous donne l'ensemble des valeurs plus ou moins possibles d'un objet ou d'une variable et que la possibilité de la proposition p peut être souvent considérée comme la probabilité de la proposition p'= « p est possible ». En effet, cela revient le plus souvent à faire la liste des événements dont les probabilités ne sont pas négligeables.

Fondée sur la théorie des ensembles flous et la théorie des possibilités, la logique floue a pour objectif de fournir un modèle formel au raisonnement approximatif. Le raisonnement approximatif, selon Zadeh permet de déduire des conclusions imprécises à partir de faits imprécis, tous représentés par des sous-ensembles flous. La logique floue consiste en effet à faire un ensemble de calculs en utilisant les opérateurs flous pour finalement parier sur une distribution de possibilités résultante. Comme les probabilités, elle fait un choix, un pari. Signalons enfin que l'expression « Les A sont B » se traduit, en logique floue par « plus on est A plus on est certain qu'on est B ».

II.5 LES APPROCHES SYMBOLIQUES

Dans les approches symboliques, l'inférence qu'on utilise est fond&eacutee sur les suppositions, les hypothèses qu'on fait par analogie. Le manque d'information est comblé par des croyances, basées généralement sur l'inférence par similarité (« Si A alors B, C est similaire à A, donc B est vrai », ou « D est différent de A, donc B n'est pas vrai ») ou l'inférence ensembliste (« TITI est un oiseau, donc il vole », ou « Concorde n'est pas un oiseau, donc il ne vole pas »). Signalons que dans ces deux derniers exemples, nous avons également utilisé l'inférence négative (« Si A alors B, A n'est pas vrai, donc B non plus »). Les conclusions obtenues à partir des approches symboliques ne sont pas accompagnées de poids numériques, mais on prend le risque qu'elles soient fausses donc qu'elles soient remises en cause ultérieurement (ce qu'on appelle la non-monotonie). La conclusion de type « TITI vole » est justifiée par le fait qu'il y a beaucoup de chances pour que « x vole » sachant que « x est un oiseau ».

Rappelons que TITI répond aux deux aspects de l'incertain. Ceci est un problème de taxinomie, de classification c'est-à-dire qu'il existe des éléments « récalcitrants » parmi les oiseaux. Une telle vision de l'existence d'objets « récalcitrants » énonce tacitement la croyance dans une taxinomie totalisante qui pourrait réduire le monde à sa transparence épistémologique.

Le raisonnement rigoureux dans un contexte certain est le plus souvent formalisé à l'aide de la logique des prédicats. Celle-ci étant une logique monotone, elle ne permet pas de revenir sur un résultat (théorème), afin de le réviser à la suite d'une nouvelle information contradictoire. C'est le besoin de formaliser un raisonnement révisable qui a permis le développement de ces techniques appelées « logiques non monotones ».

Soient m variables à valeurs dans un ensemble U = {u, v, w, …}, chacune de ces variables peut avoir seulement une valeur. Lorsqu'il y a plus d'une valeur possible pour une variable, une supposition peut être effectuée, et une valeur assignée à la variable. Lorsqu'une nouvelle information arrive sur la valeur de la variable, la supposition doit être révisée… une mise à jour doit être effectuée. Les logiques non monotones essaient de fournir une justification théorique à ce genre de systèmes, tout en préservant la contrainte de la consistance (les conclusions ne doivent pas être mutuellement contradictoires). Ces logiques permettent de « sauter à la conclusion » ou assigner des valeurs à des variables dans les cas où le contraire n'est pas « évident ». Signalons que les soi-disant conclusions ne sont pas des conclusions (puisqu'elles ne concluent pas), mais des choix…

En outre, on peut légitimement se poser des questions sur leurs ambitions car vouloir résoudre le problème de la non-monotonie est déjà prétentieux en soi. Cela voudrait dire qu'on pourrait arriver à une sorte d'identité entre la machine et l'homme, et même, que la machine dépasserait l'homme, et pourrait changer d'avis sans avoir de renseignements complémentaires. Vouloir résoudre le problème de TITI est encore plus prétentieux, car, étant donné un oiseau, la machine, en faisant des calculs « compliqués », saurait s'il vole ou non. Cela n'a pourtant pas empêché qu'une littérature abondante soit produite à ce sujet. Mais attention, tous déclarent qu'il est possible pour eux de revenir en arrière et de réviser leur résultat. En plus d'être prétentieuse, c'est une attitude hypocrite qui est à la limite de la tricherie et qui s'explique seulement par la volonté d'automatiser à tout prix n'importe quoi ! Aucun système intelligent ne pourra répondre à ce genre de questions. Etant donné un oiseau, on ne peut pas savoir, à coup sûr, s'il vole ou non. Et, quels que soient les calculs effectués, la réponse ne pourra être qu'un choix parmi les deux éventualités possibles. Ceci est encore une attitude qui veut nier la rupture.

Les logiques non monotones permettent d'obtenir, en général, plusieurs ensembles incompatibles de conclusions possibles, qui sont le plus souvent appelés extensions. La caractérisation et la construction des extensions sont souvent difficiles car certains raisonnements révisables sont circulaires : on ne peut inférer certaines conclusions qu'après avoir vérifié que d'autres résultats ne peuvent être obtenus.

Un système non monotone permet d'inférer des formules dites consistantes, c'est-à-dire vérifiées dans au moins un modèle des prémisses, et qui appartiennent donc à au moins une image du monde qu'il est possible de donner sur la base des prémisses.

On caractérise les ensembles de formules qui peuvent être inférées à partir d'un système axiomatique opérant sur un ensemble de prémisses par l'évaluation des « points fixes » de cette opération. Un point fixe est un ensemble stable de croyances pour lequel aucune nouvelle formule ne peut être inférée de façon consistante.

Les notions de théorème, d'inférence valide, de démonstration, qui constituent les éléments de base d'un système déductif, s'affaiblissent. Un théorème, qui peut être inféré via un système de réécriture, ne produit pas forcément une inférence valide et une démonstration revient souvent à établir, pour une formule donnée, une preuve de l'existence d'un ensemble stable et consistant de croyances.

L'inférence non-monotone se fait donc, non seulement par ce qui est connu, mais également par ce qui est inconnu. L'expression « Les A sont B » peut se traduire par « un A est un B par défaut », « si on ne sait pas qu'un A particulier n'est pas un B, alors il est B » …

A notre avis, ladite « inférence non monotone » est une mauvaise façon d'évoquer tout en le refoulant le principe d'après lequel il existe la possibilité logique de démontrer qu'il y a de l'indémontrable. Dit d'une autre façon, que la consistance est fondée par un noyau inconsistant, en même temps qu'elle le tolère, ce noyau-là pouvant être pensé comme un opérateur de totalisation qui ne se totalise pas lui-même. D'ailleurs, et ce dans la plus classique tradition philosophique occidentale, le Socrate de L'apologie ne fait pas autre chose quand il affirme qu'il sait qu'il ne sait rien.

Un système non monotone doit avoir des règles d'inférence munies de conditions d'application (par exemple : « si on ne sait pas qu'un A particulier n'est pas un B »). Evidemment, dès l'instant où l'on sait que ce A n'est pas un B, alors on revient sur l'inférence fausse. Les règles d'inférence non monotones doivent donc être révisables et éviter le danger de la circularité. Afin d'éviter l'utilisation abusive de ce type de raisonnement, on peut supposer que toute cette littérature concerne les cas de figures où « Les A sont B » doit au moins vouloir dire « un A est un B dans plus de la moitié des cas ».

Malgré les arguments d'un certain nombre de chercheurs en intelligence artificielle en faveur du raisonnement non-monotone, d'éminents chercheurs comme P. Cheeseman[14], D. Israel[15] sont farouchement contre « cette introduction dans la logique d'un raisonnement par nature illogique ». Effectivement, il est clair que la nature logique et rigoureuse de la procédure disparaît, et qu'on évite le problème en faisant tout simplement un choix. L'un des principaux arguments de Cheeseman est que la théorie des probabilités est plus appropriée pour traiter ce genre de connaissances. En d'autres termes, il identifie les propriétés statistiques avec les propriétés prototypiques. Nous pouvons interpréter son point de vue en disant qu'il considère que la théorie des probabilités est l'outil le plus adéquat pour faire des choix, qui comme nous l'avons fait remarquer plus haut se voient appelés paris. Mais il s'agit ici d'entendre « pari » dans son acception pascalienne, c'est-à-dire « faible ». En effet, si le choix convoque à un pari faible, la décision convoque au contraire un pari dans le sens fort. Entre les deux, les différences sont multiples. Nous avons déjà évoqué l'une d'elles, à savoir que le pari pascalien est un mode de dépassement, d'Aufhebung du hasard. Par contre, le pari dans son sens fort est celui qui revêt la figure du forçage n'abolissant pas le hasard. Pour Pascal, tout se passe comme si l'opacité était définitivement dans le réel c'est-à-dire que Dieu peut exister ou ne pas exister : il est donc simplement question de deux possibilités qui entraînent à leur tour deux suites et deux combinatoires différentes. Il ne s'agit que du hasard en son sens faible, « probabilistique », en tant qu'un moment à dépasser.

Par contre, le hasard dans son sens fort, loin de trouver dans le pari son mécanisme de dépassement et de dissolution va s'ancrer dans celui-ci en tant que devenir et constat d'un hasard structural et par là non abolissable.

Dans un autre registre, Israel critique le raisonnement non-monotone en arguant que ce type de raisonnement constitue une mauvaise politique parce qu'il considère comme vrais des événements dont les probabilités sont élevées, mais qui ne sont pas certains.

Le raisonnement par défaut le plus connu est proposé par R. Reiter qui suppose que l'incertitude liée à une règle (« Les oiseaux volent ») se lève partiellement par la liste jointe des exceptions. Un résultat est donc supposé vrai jusqu'à la preuve du contraire. C'est un résultat typique susceptible d'être défait (« défaisabilité des règles »), un raisonnement non-monotone dû à l'incomplétude de l'information. Aucune affectation numérique n'accompagne les règles.

Ainsi, si « Les oiseaux volent » et si « TITI est un oiseau » alors TITI vole jusqu'à preuve du contraire, parce que c'est une conclusion consistante, qui semble la plus naturelle.

L'expression « Les A sont B » se traduit donc par:

« S'il est consistant d'inférer qu'un A est un B, alors on peut inférer qu'un A est un B ».

La règle d'inférence appliquée s'appelle défaut. L'interprétation intuitive d'un défaut est la suivante:

Si a est cru et si b est consistant avec a alors inférer g . Lorsque b et g sont identiques, alors on dit qu'on a un défaut normal.

Pour un tel système il existe un certain nombre d'ensembles consistants de croyances (de zéro à plusieurs) qui peuvent en être inférées. Ces ensembles de croyances sont appelés les extensions de la théorie avec défauts. Une théorie dont tous les défauts sont normaux admet au moins une extension et possède la propriété de semi-monotonie : si on accroît l'ensemble des défauts d'une théorie normale, alors la nouvelle théorie normale ainsi obtenue admet une extension qui inclut une extension de la première théorie.

Les défauts normaux semblent suffisamment expressifs pour représenter un grand nombre de formes de raisonnement. Cependant, l'interaction de différents défauts normaux au moyen de la transitivité (les étudiants sont adultes, les adultes sont mariés donc les étudiants sont mariés) peut faire apparaître des conclusions non souhaitées.

Signalons que le raisonnement probabiliste et le raisonnement par défaut se rejoignent via le principe de l'héritage par défaut (ou celui de l'inférence directe). Par exemple, soit un individu dont on sait qu'il est parisien, français et européen, et dont on veut une idée sur le niveau de vie. En l'absence de toute autre information, la classe la plus spécifique à laquelle il appartient étant la classe des Parisiens, on va lui inférer les propriétés d'un Parisien moyen.

Cette structure est analogue aux deux raisonnements. Dans le raisonnement probabiliste, on obtient une valeur numérique comprise entre 0 et 1, tandis que dans le raisonnement par défaut la valeur vaut 0 ou 1. Le raisonnement probabiliste est une subtile généralisation du raisonnement par défaut. Ce n'est pas étonnant parce qu'on vient de voir que les deux méthodes ne servent qu'à faire des choix. Les classes de référence permettent d'ordonner les défauts (ordre de préférence).

II.6 ENCORE UN PEU SUR LA QUESTION DE L'INCERTITUDE

Jusqu'ici nous avons évoqué et présenté ce que l'on pourrait nommer les tentatives de construction de différents systèmes qui seraient en mesure de déduire tout choix à partir des éléments de la situation. Cela implique, comme nous l'avons dit, un parti pris épistémologique et philosophique qui évite la question de la décision et du pari et qui correspond à une conception du modèle saturé sur lui-même.

Si toute pensée n'est que pensée de l'inconsistance de la situation, c'est-à-dire pensée du et des bords, nous comprenons, après le développement et la présentation des différentes techniques en question, qu'elles partagent toutes la claire volonté d'éviter que dans la situation, il y ait de la pensée. Ceci non pas d'un point de vue moral ou éthique, mais tout bêtement parce que comme nous l'avons clairement vu, dans chacune de ces techniques, l'objectif est d'établir une solution de continuité mécanique qui abolit par forclusion tout point de non-sens.

Il existe une deuxième tendance qui essaie de répondre aux problèmes posés par l'incertitude dans la logique et dans le champ de la pensée. Nous allons simplement l'évoquer car sauf certaines exceptions, elle reste cantonnée à une batterie d'hypothèses largement moins utilisées dans la recherche appliquée et dans le monde de la technique que la logique floue et ses « voisines ». Il s'agit de la théorie dite du chaos et de celle « des catastrophes ». Des théories qui, provenant de champs scientifiques différents, tiennent compte, plus encore, se structurent autour de l'irruption de l'indiscernabilité.

Ces théories ont en commun, au contraire des logiques non classiques qui comme nous l'avons vu sont à l'origine d'une série de techniques applicables, d'avoir produit un véritable déferlement d'exégèses idéologiques plus fantaisistes les unes que les autres. C'est pourquoi il est difficile de présenter le traitement concret qu'elles proposent pour l'incertitude sans préalablement évoquer les exégèses en question qui le plus souvent s'avèrent carrément antagoniques des énoncés rationnels des théories en question.

Catastrophe et chaos sont devenus dans l'idéologie post-moderne des mots quasi magiques qui évoquent une sorte de « désastre de la raison ». La raison raisonnante devient ainsi dans sa prétention de comprendre, prédire, et projeter, une véritable « vanité des vanités » qui aurait échoué dans ses folles prétentions. C'est ce que l'on trouve à l'origine du néo-réalisme post-moderne qui affirme que « le monde est ce qu'il est ». Ceci constitue bien entendu l'énonciation de ce que l'on nommait plus tôt une véritable inconsistance ravageante au regard de laquelle tout ordre, toute hiérarchie, pensée ou savoir ne saura relever que d'un récit et où toute pensée, toute recherche, tout énoncé, reste condamné à la polysémie la plus radicale et déconstructive qu'on puisse imaginer.

Cette idéologie, tout compte fait agnostique, n'est pas étrangère aux énoncés de la logique floue, car tout se passe comme si, en abandonnant tout principe de vérité, nous étions condamnés à cette pensée faible de la véracité. Or si la vérité ordonne la véracité dans le même rapport que l'impossible ordonne le possible, nous ne pouvons pas ne pas conclure que ce monde de véracité apparaît comme celui où, si tout est possible, rien n'est réel.

Ainsi, comme un frère jumeau mais symétriquement opposé, le constructivisme répond d'une façon revancharde et hargneuse à l'universalisme classique, que, finalement, toute théorie, toute pensée, tout concept, tout discours n'est pas autre chose qu'une simple construction relative. Force est de conclure que de tels énoncés idéologiques n'ont presque plus aucun rapport avec ce qui, dans la théorie du chaos comme dans celle des catastrophes, est proposé. Que ce soit du côté de la première, appelée carrément « théorie du chaos déterministe », comme du côté de celle des catastrophes, il s'agit toujours de deux façons d'aborder la complexité d'un système étudié dans lequel le rapport déterministe linéaire de cause à effet ne peut plus être maintenu dans sa simplicité.

Du côté du chaos déterministe, nous en sommes à constater qu'il existe à différents niveaux et en différents lieux, des comportements « chaotiques », c'est-à-dire, des comportements qui de prime abord paraissent justement n'obéir à aucune détermination, et sont donc impossibles à prévoir et à comprendre. Or justement, nous n'avons affaire ici qu'à l'apparence car nous sommes là face à des phénomènes où la question de la « monotonie », de la répétition et de la détermination, relèvent d'une complexité qui nous empêche de la repérer directement. Ainsi, les comportements chaotiques ne seront abordables rationnellement qu'en faisant appel à l'aide des fractals qui depuis la géométrie (celle qui à son tour a pu ou su rompre avec la symétrie et les « bonnes formes ») nous offrent un concept spatial pour comprendre cet ordonnancement déterministe non perceptible par les grilles classiques. Ces récurrences chaotiques se repèrent aux différents « attracteurs » (attracteurs de Lorenz) qui représentent peut-être le point d'articulation avec la théorie des catastrophes. Celle-ci pourrait être pensée comme une codification des ruptures et discontinuités. Il y a bien un avant et un après, mais pour penser la discontinuité, la théorie des catastrophes fait appel au concept assez classique de la boîte noire. Ce qui se passe dans cette boîte noire représente une rupture (catastrophe) qui n'obéit donc pas aux règles classiques de cause à effet, sans que cela implique pour autant forcément un échec pour la raison. Car rien de ce qui se passe dans la boîte noire ne relèverait de l'irrationnel, mais serait en revanche compréhensible dans l'après coup comme la conjonction non prévisible de différentes séries autonomes et dont la compréhension aussi fait appel au concept d'attracteur.

Nous avons tous entendu parler à ce sujet, peu ou prou de l'inquiétant danger que représentent certains papillons par rapport aux catastrophes naturelles; toutefois la théorie des catastrophes n'apparaît pas en mesure de réintroduire un déterminisme lourd laplacien capable de déceler les mauvais papillons.

Finalement, nous nous trouvons dans le cas de figure que nous avons défini comme la croyance dans l'existence d'un modèle transparent et maîtrisable parce que construit par l'homme, qui tenterait d'éliminer les zones d'opacité qui existent dans le monde. Zones d'opacité qui, comme notre TITI, seraient de véritables points récalcitrants résistants à l'idéal d'une taxinomie totale et totalisante capable de dompter, voire vaincre l'indiscernable.

III. VERS La « X-TOLERANCE »

La question de la fabrication de modèles part ainsi tacitement de la réfutation de la conception de Schopenhauer d'après laquelle le monde n'est que sa représentation. En effet, il existe traditionnellement dans la science la certitude naïve de ce que le monde existe, c'est-à-dire, que les choses sont là quelque part tel TITI en attendant simplement le bon modèle, la bonne taxinomie capables de dévoiler par un acte de nomination leur vraie nature, c'est-à-dire, comment elles fonctionnent, selon quelles lois et dans quel sens.

Ainsi, depuis sa naissance, la modernité énonce comme « découverte » chaque théorème, loi ou règle sensés ordonner le fonctionnement du monde. Les modèles scientifiques ne sont de ce fait pas pensés sous la forme d'une fiction théorique mais bien au contraire, l'humanité a fonctionné et fonctionne encore selon la conception totalisante énoncée par Laplace d'après laquelle : « Nous devons donc envisager l'état présent de l'univers comme l'effet de son état antérieur, et comme cause de celui qui va suivre. Une intelligence qui pour un instant donné connaîtrait toutes les forces dont la nature est animée et la situation respective des êtres qui la composent, si d'ailleurs elle était assez vaste pour soumettre ces données à l'analyse, embrasserait dans la même formule les mouvements des plus grands corps de l'univers et ceux du plus léger atome : rien ne serait incertain pour elle, et l'avenir, comme le passé, serait présent à ses yeux… ». Et si pour Laplace comme pour Kepler le modèle totalisant n'était pas encore atteint par les hommes, des voix plus optimistes se sont fait entendre déclarant que la raison humaine avait gagné son combat, tel le chimiste français Marcellin Berthelot qui affirmait en 1887 : « Pour la science, le monde est désormais sans mystère ».

La vision réaliste classique veut que les théorèmes existent en soi dans la « nature » et dans le monde, et comme le disait Kepler, nous ne les connaissons pas tous encore. C'est ainsi qu'Archimède, grâce à un plongeon heureux dans sa baignoire, a découvert le principe qui portera son nom qui donc préexistait dans la baignoire : il suffisait de s'y plonger pour le découvrir…

Les scientifiques savent que les eaux peuvent être plus ou moins opaques, mais les principes, théorèmes et axiomes sont pensés comme préexistant dans un « en soi » en attendant la découverte du chercheur, ce qui nous plonge bien évidemment dans un dispositif déterministe car l'« en soi » déterminant le « pour soi », les hommes sont ainsi les agents surdéterminés d'un univers « écrit en langage mathématique » et par rapport auquel ils peuvent simplement voir juste ou bien se tromper. Dans cette conception, bien entendu, le monde n'est pas du tout pensé comme une représentation. Le modèle lui-même n'est pas conçu comme une représentation car le modèle, ou en tous cas le bon modèle, la bonne taxinomie, sont perçus comme faisant partie du monde. Une axiomatique serait ainsi le code à travers lequel l'univers « fonctionne » et elle dépasse par là largement le cadre de la représentation pour faire partie du monde qui se présente aux yeux et à la raison du chercheur. Dans l'optique classique que nous présentons ainsi succinctement, nous pouvons dire qu'il existe un fondement et une hypothèse ontologiques forts.

Le problème se présente lorsque nous mettons en cause le déterminisme et la croyance dans le mythe du progrès comme ordonnant notre pensée. Mettre en cause le déterminisme est apparu au début du vingtième siècle comme une véritable mise en cause de la raison elle-même. Si penser signifiait ordonner des causes et des effets de façon analytiquement prévisible, il paraissait impossible de sauver la raison à la fin du déterminisme. Pourtant, force est de se rendre compte que bien avant l'avènement de la modernité et souvent de façon parallèle, de multiples cultures ont produit de grandes quantités de savoirs. Par exemple le transfert des savoirs et des techniques fut à un moment donné très important dans le sens de la Chine vers l'Occident (boussole, poudre, spaghettis…). Or ces savoirs-là comme nous l'avons vu précédemment n'ont pas produit dans d'autres civilisations la croyance, voire la certitude d'un déterminisme qui mènerait la raison au poste de commande. Ceci s'expliquerait par le fait que les différents savoirs produits par une civilisation ne s'agencent pas forcément autour et dans le sens du mythe du progrès. Loin de là. C'est en effet le propre de la modernité, c'est ce qui la singularise, que d'avoir fourni cet agencement aux savoirs qui la précèdent et aux savoirs qu'elle a produits. Sans oublier au passage que tout mythe forclôt une série de savoirs qui le précèdent (préexistent) et pour une raison ou une autre contredisent ses fondements. Le mythe du progrès n'a pas fait exception à la règle : une série de savoirs qu'on commence à peine à redécouvrir dans le champ de la médecine, de la biologie, de l'éducation, etc., contrairement à la croyance en un développement linéaire et quantitatif qui cumule tous les savoirs partiels, furent ensevelis par les savoirs ou les ignorances agencés au sein du mythe du progrès qui de ce fait devinrent dominants. C'est le cas de toutes les sciences officielles et « nobles » qui tantôt cohabitèrent avec des savoirs dits non scientifiques, tantôt les refoulèrent. C'est pourquoi nous pouvons aujourd'hui constater que le mariage entre raison et déterminisme peut se dissoudre sans pour autant entraîner l'anéantissement de la raison. La question qui se pose donc tourne autour du statut des connaissances, car si les modèles scientifiques ne sont plus conçus comme des découvertes du monde réel, si nous ne pouvons plus imaginer que les théorèmes préexistaient dans un ciel platonicien, quel sera donc le critère et la norme qui nous permettront de discriminer dans une hypothèse le vrai du faux ? Autrement dit, une fois abandonnée l'hypothèse ontologique forte qui établissait un rapport biunivoque entre le modèle et le monde, comment savoir si notre modèle a un rapport quelconque avec le monde dont il est censé parler ? et que peut bien être ce rapport ?

Le danger imminent est celui de tomber sous le coup de la description que fait Durkheim des illusions propres à ceux qu'il appelle « les primitifs ». Durkheim dit qu'en politique les hommes modernes se comportent comme des primitifs qui croient qu'il suffit de danser pour que la pluie tombe. La remarque du sociologue peut donc être extensive à la pratique scientifique. En effet, il se pose la question de la praxis, c'est-à-dire de ce qui dans un dispositif scientifique ne serait pas du semblant. Comment savoir quel rapport il y a entre notre pratique et les effets qu'elle est sensée produire ? Même si la plupart des techniciens et des scientifiques nient de nos jours une telle mise en cause, la prise en compte de la complexité du réel les plonge malgré eux dans des situations proches des dites « primitives ».

Cela ne signifie pas pour autant qu'on ne soit pas sans savoir un certain nombre de choses sur les effets auxquels on peut s'attendre à partir d'une cause concrète, que ce soit allumer la lumière en actionnant un interrupteur, produire de l'énergie à partir de la fusion de l'atome, ou provoquer une immuno-résistance à partir d'un vaccin. A vrai dire, tout se passe comme si en réduisant au maximum notre champ de vision et d'analyse, nous pouvions rester dans le champ du déterminisme (l'analytiquement prévisible). Mais pour peu qu'on tienne compte de la complexité de l'intrication des situations, nous nous rendons compte que la partie prévisible d'une intervention quelconque représente stricto sensu l'image classique de la pointe de l'iceberg par rapport au non su (encore) et à ce que l'on ne peut pas savoir.

La réponse « faible » correspond aux différentes tentatives dont, comme nous l'avons dit, les logiques non-classiques font partie. La tendance dominante est marquée par un geste qui consiste à faire en science comme si on avait aboli le réel. De la sorte, le constructivisme énonce, de façon symétriquement opposée au réalisme classique, que rien n'existe en soi.

Plus précisément les théorèmes ne sont pas là en puissance comme le voulait le réalisme, en attendant sagement d'être découverts mais il s'agit toujours de constructions qui ne connaîtront d'autre hiérarchie ou validité que le critère statistique. Quelque chose marche parce que statistiquement nous prouvons que ça marche. Mais le problème de la validation d'une théorie par la preuve de ce qu'elle marche nous plonge d'emblée dans une tautologie auto-référentielle : en effet, c'est la caractéristique de toute pratique empiriste que d'appeler « preuve » les gestes à travers lesquels la conclusion ordonne l'expérience. Ça ne peut pas ne pas marcher sans pour cela que la tautologie empiriste nous laisse une place pour la véritable question rationnelle qui serait : « qu'est-ce qui marche quand ça marche ? », question qui n'est autre que celle de l'indiscernable car il s'agit de formuler un avis sur le sens de ce qui marche.

III.1 Un réel « tolérant »

Si nous pouvons dire qu'avec des nuances et des contradictions les deux tendances décrites sont les deux conceptions classiques aujourd'hui dominantes dans la théorie du modèle, il s'agirait d'avancer dans l'élaboration de l'hypothèse tendant à une compréhension différente du modèle qui ne tombe pas pour autant dans la tentation aujourd'hui très forte d'un « néo-néo-positivisme » qui cherche par exemple dans le paradigme des fractals une connaissance directe du monde non représentée par un modèle quelconque. De notre côté, nous avancerons l'hypothèse, pour ainsi la nommer, de la « tolérance » car comme nous le verrons, c'est celle qui « tolère » le mieux en son sein une véritable pensée de l'incertitude.

Il s'agit selon cette hypothèse de concevoir le réel non pas comme un territoire obscur à éclaircir (réalisme), mais plutôt comme une « fonction ». Le réel serait ce point, ce x autour duquel et par rapport auquel dans les différents champs du savoir et de la connaissance, nous pouvons émettre des hypothèses, construire des théories et des axiomatiques. Le réel ainsi, « tolérerait » certaines hypothèses et, à l'épreuve de la praxis, en déclarerait d'autres inacceptables.

Nous ne sommes ni pour ni contre le réel en soi classique, ni pour l'abolition du réel des néo-positivistes, mais nous le pensons sous un autre registre, celui dans lequel le réel se comporte, ontologiquement, selon l'hypothèse : « il y a quelque chose plutôt que rien. » Non pas ontologiquement par le dépliement de ce qui doit être mais plutôt par le constat beaucoup plus humble et moins rassurant de ce que, en effet, « il y a quelque chose plutôt que rien ». Cela signifie que le chercheur ne doit ni ne peut construire ou énoncer n'importe quel théorème ni le poète n'importe quel poème en attendant que des statistiques ou des preuves tautologiques lui donnent raison, mais qu'il existe quelque chose (x) qui tolère, qui fait fonction de vérité par rapport au mathème ou au poème énoncé. Le réel sous la forme du « x » se comporte ainsi comme cet inattendu que pourtant nous cherchons, peut-être énonçable sous la formule d'Héraclite « celui qui n'attend pas l'inattendu ne le décèlera pas. Il demeurera pour lui introuvable et inaccessible ».

Ainsi, le point de départ de la théorie d'Einstein est identifiable à un point de vérité, à une vérité, dans la mesure où cette théorie n'est pas la mise en forme de cette vérité, mais où au contraire, nous pouvons localiser cette vérité comme étant ce point de butée pour la physique newtonienne qui précédait. Ainsi la vérité a un rapport d'extériorité avec le savoir mais en même temps, ces deux registres, l'un phénoménal, l'autre structural, sont condamnés à cohabiter sans Aufhebung possible. En science, nous sommes toujours dans la position de celui qui doit se contenter de dire si « ça marche ou pas », et « comment ça marche ». Par contre le pourquoi ça marche, relève toujours d'une chaîne et d'une combinatoire limitée au-delà de laquelle nous sommes sur le terrain d'un mythe des origines.

C'est pourquoi nous aimons bien l'image d'Althusser selon laquelle un matérialiste (nous dirions plutôt la pensée rationnelle) est quelqu'un qui peut simplement affirmer qu'il est dans un train. Contrairement à l'idéaliste qui prétend toujours savoir d'où vient le train où il est embarqué, vers où il va et surtout pourquoi il y va. Faute d'un tel registre totalisateur d'informations, le nihilisme, fondement philosophique du constructivisme, prétend que finalement tout peut plus ou moins marcher, procédant ainsi à la forclusion de la fonction de vérité, chose qui conduit comme nous le verrons plus tard à la forclusion de la pensée du sujet. Une telle conception de la vérité implique bien entendu de ne plus considérer les différentes axiomatiques et théories existantes comme étant nécessaires et indispensables pour le développement des connaissances. Bien au contraire. Rien ne nous permet d'affirmer que la géométrie d'Euclide est la seule possible, et ce, non pas seulement à la lumière de Lobatchevsky et Riemann, mais plus encore parce qu'on peut très bien imaginer que d'autres géométries également rationnelles auraient pu se développer en déterminant une tout autre conception de l'espace, ensuite du temps et par là bien entendu de notre monde et de l'homme. Or que d'autres théories, que d'autres catégories épistémologiques existent, n'implique nullement pour les concevoir l'abandon de la raison. Bien au contraire. C'est dans la mesure où elles sont « x-tolérées », donc qu'elles gardent un rapport de structuration avec la fonction de vérité que ces théories seront rationnelles. Quand nous disons « x-toléré », nous faisons allusion à ce quelque chose qui, sans doute, non pas par sa plénitude mais par son vide, a une qualité ontologique.

III.2 GÖDEL, CANTOR, COHEN...

C'est la pensée logico-mathématique qui guide toute tentative de modélisation depuis la géométrie euclidienne jusqu'à l'intelligence artificielle de nos jours. Les théories mathématiques sont fondées sur des principes assez simples basés sur la notion de système formel. Un système formel est un ensemble de données purement abstrait qui décrit les règles de manipulation d'un ensemble de symboles traités de façon uniquement syntaxique. Un système formel est constitué d'un alphabet, d'un vocabulaire à priori sans signification, d'un procédé de ‘bien-formation' de mots (formules, propositions), d'un sous-ensemble d'expressions bien formées primitives (axiomes) et d'un nombre fini de règles d'inférence qui transformeront les axiomes en théorèmes. Ainsi, les théories mathématiques constituent des disciplines dites déductives.

Les axiomes doivent constituer les fondements de la théorie, les théorèmes l'ensemble des résultats, c'est-à-dire les propriétés de sa « structure ». Cette idée de systématisation remonte aux Grecs. Ils ont en particulier axiomatisé la géométrie. C'est vers la fin du XIXème siècle que la logique, essentiellement liée au discours, a eu droit à une restructuration axiomatique. L'axiomatisation de l'arithmétique par Péano date de la même époque. La géométrie, l'arithmétique, la logique classique, la théorie des ensembles sont les exemples les plus classiques des théories axiomatiques.

La première tentative d'axiomatisation est donc celle de la géométrie qui est due à Euclide. La géométrie a presque toujours été enseignée comme une discipline déductive par opposition aux disciplines expérimentales où les résultats (théorèmes) doivent être admis en raison de leur accord avec l'observation. La géométrie fut pendant longtemps considérée comme la seule branche des mathématiques qui repose sur une axiomatique sûre.

L'une des théories les plus controversées depuis presqu'un siècle est la théorie des ensembles fondée par Cantor. Pour donner une base axiomatique à la théorie des ensembles, tout en évitant les différents paradoxes (dont celui de Russell) qui ont fait couler beaucoup d'encre, Ernst Zermelo et Abraham Fraenkel ont été conduits à poser un ensemble constitué de neuf axiomes. Le huitième axiome est resté célèbre sous le nom d'axiome de choix. L'axiome de choix a été refusé par certains des plus grands mathématiciens du début du vingtième siècle.

Au début de ce siècle, deux problèmes fondamentaux troublaient les mathématiciens. Le premier consistait à établir la consistance des mathématiques. Le second problème résidait dans ce qu'on appelle la complétude. D'une manière générale, la complétude signifie que les axiomes sont suffisants pour que l'on puisse engendrer toutes les tautologies du système. Cela suppose bien évidemment qu'on sache interpréter le système, c'est-à-dire qu'on puisse établir entre signifiés et signifiants des effets de signification univoques. Une théorie n'a pas d'intérêt cognitif si elle n'est pas interprétée. Une autre définition de la complétude est de dire qu'elle consiste à vérifier que les axiomes suffisent à établir la vérité ou la fausseté de n'importe quelle proposition bien formée, c'est-à-dire formée conformément aux règles syntaxiques du système formel. Dans la littérature mathématique cette question est connue sous le nom de « problème de décision ».

Pendant quelques années, des systèmes axiomatiques relativement triviaux, tels que celui du calcul propositionnel, ont vu leur consistance, voire leur complétude démontrées. En 1930, Kurt Gödel démontrait la complétude du calcul des prédicats du premier ordre. C'est un résultat très important qui a eu des conséquences heureuses en programmation logique, une branche périphérique de l'informatique qui a vu le jour au cours des dernières décennies. Cependant, ce résultat ne conduit pas à une procédure effective de décision, décision qui évoque le problème de la vérité.

En 1931, Kurt Gödel publia deux résultats sensationnels concernant les théories formelles incluant l'arithmétique relativement développée :

1) Inconsistance : La consistance n'est pas démontrable à l'intérieur de cette théorie.

2) Incomplétude : Si une théorie formelle est consistante, alors elle est incomplète (il existe des propositions indécidables). Le prix de la consistance est donc l'incomplétude.

Ce que veut dire en particulier le résultat de Gödel est que la méthode axiomatique contient certaines limites internes qui excluent la possibilité d'axiomatiser dans sa totalité l'arithmétique.

Il existe donc des limites à ce que peut établir l'axiomatisation. Le théorème d'incomplétude de Gödel constitue jusqu'à un certain point une négation de la loi du tiers exclu.

L'un des problèmes qui a le plus préoccupé d'éminents chercheurs a été soulevé par Cantor, véritable génie de la fin du dix-neuvième siècle et du début du vingtième, sous l'appellation de l'hypothèse du continu, qui traite le concept de l'infini. En effet, les mathématiciens utilisent la notion de l'infini en la distinguant de la notion de fini. Plus simplement, un ensemble est fini si l'on peut mettre en correspondance cet ensemble avec un autre ensemble fini. Dans le cas contraire, on a un ensemble infini.

La découverte fondamentale de Cantor est de trouver que tous les ensembles infinis n'ont pas la même taille. Il y a donc une infinité de tailles différentes pour les infinis. Ainsi, quel que soit l'ensemble considéré, il existe un ensemble encore plus grand, et les tailles sont donc sans limites.

Sachant, d'après le théorème de Cantor, que l'ensemble P(N) ayant pour éléments tous les ensembles d'entiers positifs est plus grand que l'ensemble N des entiers positifs, une question s'est posée tout à fait naturellement : y a-t-il des ensembles de taille intermédiaire entre la taille de N et celle de P(N) ? c'est la question fondamentale soulevée par Cantor. On ne connaît pas encore la réponse. Cantor a supposé qu'il n'existait pas de taille intermédiaire entre la taille de N et celle de P(N), et c'est la fameuse hypothèse du continu. C'est une hypothèse, ou une conjecture qui n'a jamais été prouvée, ni réfutée. Comment ne pas penser à l'axiome des parallèles de la géométrie ? Pourquoi Cantor a-t-il supposé que non ?

La question de l'indépendance de l'axiome du choix (axiome 8 de l'axiomatique de Zermelo-Fraenkel) et de la conjecture de Cantor par rapport au système Zermelo-Fraenkel a fait couler beaucoup d'encre. En 1939, Gödel démontra que la conjecture de Cantor est consistante avec le système Zermelo-Fraenkel. Aussitôt après, en 1940, de nouveau Gödel démontra que si le système d'axiomes de Zermelo-Fraenkel, abstraction faite de l'axiome du choix, est consistant, alors le système obtenu par l'adjonction de cet axiome l'est lui aussi, ce qui revient à dire que l'axiome ne peut être réfuté. En 1947, Gödel conjectura que l'hypothèse du continu est indépendante des axiomes de Zermelo-Fraenkel (y compris l'axiome du choix).

Paul Cohen a montré en 1963 que l'hypothèse du continu est indécidable à partir du système de Zermelo-Fraenkel. Il s'en suit que si la théorie des ensembles est non contradictoire, on peut lui ajouter comme axiome l'hypothèse du continu, ou sa négation. Il démontra aussi que l'axiome du choix est indépendant des autres axiomes de Zermelo-Fraenkel si ces derniers sont consistants, ce qui revient à dire qu'il ne peut être démontré sur la base des autres axiomes de Zermelo-Fraenkel. Précisons que, même si l'axiome du choix est conservé dans le système de Zermelo-Fraenkel, l'hypothèse du continu ne pourrait pas être démontrée. Ces résultats indépendants signifient que dans le système de Zermelo-Fraenkel l'axiome de choix et l'hypothèse du continu sont indécidables.

Dans son principe, la méthode de Cohen, dénommée « méthode du forçage », n'était pas différente des autres preuves d'indépendance : trouver une interprétation et un modèle qui satisfassent aux autres axiomes mais non à celui qui est en question. Le « forçage de Cohen » permet donc d'adopter plusieurs positions possibles si l'on veut édifier les mathématiques sur la théorie des ensembles.

Dans ces situations de forçage, les hypothèses ontologiques qu'on fait peuvent ne pas exister. On peut très bien imaginer une géométrie sans l'axiome sur les parallèles (et elle existe…) qui soit parfaitement cohérente. De même une théorie des ensembles sans l'hypothèse du continu est, comme on vient de le voir, cohérente. Le forçage arrive peut-être par hasard puisqu'il n'y avait aucune raison pour qu'une géométrie non euclidienne ne précède celle d'Euclide, mais il n'est pas le fruit d'une procédure de décision utilisant le hasard (le coup de dé), il est le fruit d'un acte (libre). C'est la liberté même sous la figure de l'irruption non prévisible. Cet acte se passe sous condition de l'hypothèse ontologique qui énonce « qu'il existe quelque chose dans ce qui existe ». Or, ce qui existe est justement ce qui dans une situation insiste sous la forme d'une exigence, d'un problème qui refuse les solutions qui tendent à le saturer. Dans la tradition néo-platonicienne, la liberté était liée à ce point d'exigence situationnelle et non à une quelconque vision narcissique d'une machine ou d'un homme autonome par rapport à toute surdétermination.

Le forçage n'est pensable que dans la catégorie d'une décision qui ne se déduit pas des éléments de la situation, donc il est radicalement non prévisible pour et par la catégorie de la situation ; le forçage, pour ainsi dire, « s'auto-exige » sous la forme d'une « zone de turbulence ». Nous pouvons imaginer que la décision consiste en un acte « libre » qui s'opère sur une surface absolument lisse, la surface étant toujours lisse et sans faille depuis le point de vue de la consistance interne de la situation. C'est bien là que réside la différence avec « la machine à lancer les dés » car bien que le lancement des dés implique une manoeuvre propre de l'aléatoire, il faut bien, pour que la machine se mette en route, qu'il y ait une faille dans la surface de la situation capable de la déclencher. Or, le forçage est une possibilité axiomatique, mais la procédure du forçage nécessite pour être pensée une instance métamathématique. Il est important que le forçage opère sur une surface lisse, ça montre qu'il nécessite une instance autre que le combinatoire. La conséquence du forçage sur une surface lisse n'est pas d'abolir le hasard.

La liberté, c'est le possible sous la figure de l'impossible, la possibilité de tenter l'impossible d'un pli. C'est le fait de parier à la possibilité de l'existence d'un x, d'effectuer un acte x qui se trouve à la limite de la situation, qui n'est pas de l'ordre du possible, qui n'est pas nécessaire et par conséquent qui évoque l'inconsistance. Le forçage est ce qui permet de trouver ce x, d'effectuer cet acte x, alors qu'il n'y a aucune raison déterministe…

La liberté est donc le possible de l'« impossible », la possibilité de tenter l'impossible. Un impossible qui appelle le « pas nécessaire ». L'un des forçages parmi les plus importants de l'histoire des sciences est celui qu'a effectué Euclide, en proposant l'Axiomatique de la géométrie, ou la notion d'axiomatique tout court. A l'époque d'Euclide, dans la situation donnée, il n'y avait aucune raison déterministe pour que la méthode axiomatique voie le jour. Elle était du domaine du « pas nécessaire ».

Le forçage, la possibilité de l'impossible, celle du « non nécessaire », le fait de tenter un x à la frontière d'une situation S, x ne faisant pas partie de S, est l'expression même de la liberté. Ce n'est pas une décision parmi plusieurs choix possibles. Ce qui va avec une décision, c'est le Sujet qui est celui qui se forme du fait de l'interruption de la norme qui implique un pari. Le forçage ne résulte pas du tout du fait de l'interruption de la norme dans une situation donnée. Il vient « tout seul ». Cette conception du Sujet n'a rien à avoir avec les conceptions classiques d'un Sujet pré-reflexif, c'est-à-dire un Sujet qui préexiste à l'acte du forçage. Au contraire, nous ne concevons le Sujet qu'en tant que fondé et fondateur de l'acte du forçage.

Le forçage est fondé sur une indiscernabilité qui n'a pas de représentation. Cette indiscernabilité est imaginable en tant qu'hypothèse, en tant que coup de dé, sur la possibilité d'une fissure là où nous n'apercevons qu'une surface lisse. On peut également dire que le forçage arrive lors d'une interruption du régime de nécessité. L'indiscernabilité est le propre du forçage car il intervient là où il n'y avait rien de discernable. Or, sur cette intervention va se fonder une indécidabilité. Des énoncés indécidables pourront être construits, le pari ontologique aura été celui de procéder à un forçage par la construction des énoncés indécidables comme on vient de voir pour l'hypothèse du continu, pour l'axiome sur les parallèles, etc.

Le forçage est la rencontre d'un chercheur avec ce qu'il ne pensait pas trouver, et que pourtant il ne cesse de chercher. Or, tout chercheur travaille et émet ses hypothèses dans le cadre d'un paradoxe. Car, si d'un côté la fertilité d'une hypothèse sera prouvée dans l'après-coup par la réussite du forçage, tout forçage signifie déliaison et rupture d'avec les cadres jusque-là dominants. Or, d'autre part, et voilà le paradoxe, tout chercheur travaille dans le cadre d'un récit idéologique qui a comme fonction de permettre à la pensée d'exister dans un champ tissé de liaisons.

Nous nous permettons d'insister sur le lien entre « l'impossibilité de démontrer » et « la tolérance » qui aboutit à la conception des points « x-tolérants ». Il existe donc au moins un point x autour duquel et par rapport auquel, nous pouvons émettre des hypothèses, construire des théories et des axiomatiques, comme on vient de voir dans l'exemple de la géométrie, de la théorie des ensembles. Ainsi, à partir de l'« indémontrable » (l'indécidable), on peut émettre des hypothèses qui permettent de « tolérer ». Le réel « tolère » donc certaines hypothèses et, à l'épreuve de la praxis, en déclare d'autres inacceptables. Là, nous remarquons l'importance de l'indémontrable qui loin d'être un accident, devient un point fondateur.

III.3 AU DELà DE GÖDEL, CANTOR...

Il s'avère que la question centrale de notre problématique est la question de la référence. Les réalistes (Aristote, Kant, Laplace,...) pensaient que le Réel était là, il était à dévoiler tandis que les constructivistes construisent un monde virtuel. A partir de la crise de 1900, les chercheurs ont perdu l'objet de leur recherche et pourtant ils continuent à chercher... Le Réel apparaît comme un accident, le constructivisme n'étant pas sans conséquence... Le monde à dévoiler n'existe plus, la recherche de la modernité construit une combinatoire de la recherche qui se passe de l'objet de la recherche.

Nous avons évoqué différentes techniques de l'Intelligence Artificielle dont la préoccupation principale est de chasser l'incertitude, incertitude qui empêche le dévoilement du réel, et qui est apparue comme la cause principale d'une rupture épistémologique depuis la crise de 1900. On peut facilement remarquer que l'Intelligence Artificielle a épuisé le traitement technique sans épuiser la question. Ainsi, on peut simplement dire que la question excède le traitement technique de la question, l'essence de la technique n'étant pas la technique. L'Intelligence Artificielle propose des traitements régionaux à un problème transversal, un problème de notre culture. Elle permet sans doute de résoudre les problèmes posés par ce que nous appelons un hasard faible (problèmes de choix), mais la résolution du hasard fort (problèmes de décision) est un problème culturel.

Ainsi, depuis 1900, la recherche va se mettre à travailler, sans le dire, sur elle-même. On passe de la pensée de l'être à une pensée centrée sur le connaître, et ensuite sur le mécanisme du connaître, le monde devenant un figurant.

Pour la post-modernité, tout est question de récit, tout est possible. Or, Lacan dit que « si tout est possible, rien n'est réel ». En effet, le possible n'entraîne pas le réel. En plus, une trop grande virtualisation constructiviste tend à produire des simulacres.

Notre position n'est ni réaliste, ni constructiviste. Pour nous, le réel relève d'une fonction x, une interaction entre les praxis et les énoncés. Ce x-là se comporte comme un adversaire qui nous permet ou ne nous permet pas de résoudre la question. Il faut insister lourdement sur la différence fondamentale entre l'indiscernabilité et l'incertitude.

Sur la question de l'indiscernabilité, Gödel rejoint Damascius (VIème siècle) qui disait que « la totalité englobante est incomplète, la totalité englobée est infinie ». Pour Péras, l'infini est l'ennemi du fini tandis que Apeïron pense surtout au mauvais infini qui empêche la totalisation. En effet, la question centrale est comment penser (ou ne pas penser) à l'infini articulé au fini (et réciproquement) ? Le fini est-il un accident de l'infini ?

De ce point de vue, il existe deux traitements de l'infini qui arrivent à dégager une pensée finie de l'infini :

-la pensée finie de l'infini est le concept de singularité chez Spinoza,

-la totalité englobée de Damascius est infinie : elle rejoint l'infini dénombrable, le a 0+1 de Cantor.

Le mauvais infini, l'infini englobant fait toujours défaut à la totalité. C'est la source principale de nombreux paradoxes de l'histoire de la logique et de la théorie des ensembles.

Or, dans les mathématiques dites modernes, Leibniz et Newton, à travers la notion de limite dans le calcul infinitésimal, arrivent à établir une différentielle qui tend vers zéro, et qui « compte pour un » c'est-à-dire pour une limite à partir de laquelle on n'est plus dans cet univers infinitésimal. On peut faire le lien avec les transfinis de Cantor qui nous permettent d'établir une limite a 0 à partir de laquelle on n'est plus dans un univers connu.

Dans l'histoire d'Achille et de la tortue, nous pouvons nous rendre compte que la finitude est un accident de l'infini. En effet :

-d'une part, nous pouvons démontrer qu'entre Achille et la tortue, il y a l'infini, (1)

-d'autre part, nous savons que Achille, à tous les coups, gagne. (2)

La dernière proposition nous permet de comprendre que l'infini n'est pensable que comme englobé. La bande de Möbius est un autre exemple qui permet de faire la même constatation.

Les deux énoncés précités (1) et (2) ne sont pas le dévoilement de la Réalité ; ils ne peuvent donc pas être pensés depuis le réalisme. Le constructivisme ne tolère pas non plus l'existence de ces deux énoncés-là.

Alors, nous disons que ces deux énoncés-là sont des énoncés x-tolérants. Nous n'adhérons ni au réalisme, ni au constructivisme. Nous disons qu'il y a du Réel comme une fonction de devenir permanent. Ce Réel-là va tolérer certains énoncés. Le Réel se comporte donc en tolérant et en exigeant. C'est ce qui stimule le désir du chercheur, ce qui le fait « marcher ». Ainsi, la théorie n'apparaît plus comme une référentialité du Réel (séparation Sujet/Objet) mais comme une dimension du Réel. Par rapport au Réel, tout énoncé x-tolérant est équidistant.

Les énoncés x-tolérants sont des périphrases d'une phrase qui n'existe pas. D'un point de vue spinoziste, on peut dire que tout énoncé existe plus ou moins d'après la puissance de ce que son concept englobe. Ainsi, tout énoncé n'est pas x-tolérant bien que tout énoncé existe.

Nous sortons de l'inquisition réaliste (dichotomie vrai/faux), mais nous ne sommes pas dans le flou constructiviste où les énoncés sont simplement véridiques. Dans le concept de x-tolérance, tout existe avec des puissances différentes. Ainsi, le « cercle carré » renvoie à une puissance minimale car l'énoncé existe à la limite de ce qui n'existe pas. L'axiome d'Euclide sur les parallèles, bien que pas vrai dans tous les mondes possibles, recouvre une très grande puissance.

IV. CONCLUSION

L'Amour, l'Art ou les sciences basées sur des « vérités statistiques » (comme la médecine, la météorologie,…) fonctionnent sans avoir recours à des axiomatiques. L'idée x de construire une axiomatique et ses règles de fonctionnement constituaient bien un forçage. Euclide n'était pas du tout placé devant un choix à faire parmi plusieurs possibilités x1 ,x2 , x3 ,…xn , il a tout simplement tenté un x qui se trouvait à la frontière de la situation S, c'est-à-dire n'était pas immédiatement déductible des hypothèses, mais qui finalement était compatible avec S.

Le forçage est fondé sur une indiscernabilité qui n'a pas de représentation. Cette indiscernabilité est imaginable en tant qu'hypothèse, en tant que coup de dé, sur la possibilité d'une fissure là où nous n'apercevons qu'une surface lisse. On peut également dire que le forçage arrive lors d'une interruption du régime de nécessité. L'indiscernabilité est le propre du forçage car celui-ci intervient là où il n'y avait rien de discernable. Or, sur cette intervention va se fonder une indécidabilité. Des énoncés indécidables pourront être construits, le pari ontologique aura été celui de procéder à un forçage par la construction des énoncés indécidables comme on vient de voir pour l'hypothèse du continu, pour l'axiome sur les parallèles, etc,… Le pari dans le sens faible sera celui qui va se jouer entre les énoncés indécidables.

Le schéma directeur d'une opération de forçage devient alors :

1) Pari à partir de l'hypothèse d'une indiscernabilité.

2) Création des hypothèses à partir du forçage.

3) Choix.

Les niveaux 1 et 2 constituent ce que nous appelons le hasard1, le « pas analytiquement prévisible », ce sont des niveaux ontologiques. Le niveau 3, c'est le hasard2, la machine à lancer les dés et son déclencheur.

Une question qui revient souvent est le fait de savoir si toute situation est « forçable ». On peut dire que oui : on peut opérer un forçage dans toute situation, mais le forçage est toujours le fruit d'un travail de recherche car il n'est pas opérable de façon indiscriminée sur n'importe quel élément de la situation.

Pourquoi le nouvel axiome de Lobatchevski sur les parallèles a-t-il entraîné des résultats intéressants ? A notre avis, il existe des zones d'opacité où une rencontre hasardeuse entre les opérateurs et un forçage permet de constituer le Sujet.

L'axiomatique n'est pas entièrement transparente à l'homme qui la travaille et l'élabore, peut-être parce qu'elle est basée sur une vérité dont l'essence n'est pas une vérité. La « x-tolérance » signifie finalement que l'axiomatique n'établit pas une transparence. Il y a un Autre de l'axiomatique. L'Autre de l'axiomatique existe, en tant qu'hypothèse dans la situation ou bien en tant que constat dans l'après-coup sous la figure de l'un des axiomes fondateurs de la situation. Rappelons nous de Spinoza qui a dit « le modèle n'est pas une vérité, mais un type de rapport avec la vérité ».

Notre point de vue est que l'autre de l'axiomatique n'est pas une axiomatique, c'est ce avec quoi l'axiomatique doit faire. Ce n'est pas, non plus, une Boîte Noire qui a comme fonction de rétablir imaginairement la consistance pour éviter toute interruption du régime de la nécessité. Le concept de la boîte noire pourrait, de prime abord, être identifié avec notre concept de « x-tolérance ». Or, à notre avis, ce n'est pas vrai car l'idée de boîte noire renvoie dans une suite logique à une instance efficace, mais non connue qui aurait comme fonction de permettre de refermer le modèle. On peut dire que du point de vue épistémologique, la boîte noire est un sophisme qui nous permet de continuer à croire à la véracité du système. Par contre, dans notre hypothèse de « x-tolérance », la pensée de la vérité reste du côté de « x », l'essence de la vérité n'étant pas une vérité, la pensée conceptuelle est à l'épreuve de cette autre instance non conceptuelle.

Cet article contient de très larges extraits d'un travail commun aux trois auteurs [16]

REFERENCES

[1]REITER R. "Non-monotonic Reasoning" in Annual Review Computer Sciences, 1987.

[2]REITER R. "A logic for default reasoning" in Artificial Intelligence, 13, 1980.

[3]VAN BENTHEM J. "Essays in logical semantics", Reidel, 1986.

[4]KYBURG H.E. "Logical foundations of statistical inference" in Kluwer Academic, Dordrecht,Holland, 1971.

[5]KYBURG H.E. "The reference class" in Philosophy of Science, 50, 1983.

[6]KYBURG H.E. "Knowledge" in Uncertainty in Artificial Intelligence 2, North-Holland, 1988.

[7]KYBURG H.E. "Probabilistic inference and non-monotonic inference" in Uncertainty in Artificial Intelligence 5, North-Holland, 1990.

[8]KYBURG H.E. "Epistemological relevance and statistical knowledge" in Uncertainty in Artificial Intelligence 4, North-Holland, 1990.

[9]BACCHUS F. "On probability distributions over possible words" in Uncertainty in Artificial Intelligence 5, North-Holland, 1990

[10]BACCHUS F. "Representing and reasoning with probabilistic knowledge: A logical approach to probabilities", The MIT Press Cambridge, Massachusetts London, England, 1990.

[11] ZADEH L. "Fuzzy sets" in Information and Control 8, 1965.

[12]ZADEH L. " The concept of a linguistic variable and its application in approximate reasoning. I, II, III" in Information Sciences, 8, 9, 1975.

[13]ZADEH L. "Fuzzy sets as a basis for a theory of possibility" in Fuzzy Sets and Systems 1, 1978.

[14]CHEESEMAN P. "In defense of Probability" in Proceedings of Ninth International Joint Conference on Artificial Intelligence, Los Angeles, 1985.

[15]ISRAEL D. "The role of logic in knowledge representation" in IEEE computer review, Octobre 1983

[16] BENASAYAG M., AKDAG H. & SECROUN C. "Peut-on penser le monde ? Hasard et Incertitude", Les éditions du Félin, Paris 1997.



(*) Collectif Malgré Tout, (**) LERI-IMAD

(*) Collectif Malgré Tout, 77 rue Léon Frot 75011 PARIS

(**) LERI-IMAD, Rue des Crayères BP 1035 51687 REIMS CEDEX 2