Rehseis

Science et critique du langage dans la

Nouvelle Theorie de la Vision de George Berkeley

Everaldo Skrock

I

L’étude de la philosophie de Berkeley a connu un nouvel élan au cours des cinquante dernières années. La redécouverte de nouveaux textes, la plupart antérieur aux Principes de la Connaissance Humaine, est plus la conséquence que la cause d’une sympathie généralisée pour sa pensée. Ce qui nous semble exactement l’inverse de la méfiance avec laquelle son oeuvre a été accueillie à son époque. Le remplacement du concept d’idée comme représentation ou image par le concept d’idée comme signe arbitraire - un pas osé qui remettait en question des fondements très anciens de la métaphysique occidentale - était scandaleux à son époque et est aujourd’hui reconnu comme étant une anticipation d’importantes théories du signe et du langage qui ont vu le jour pendant ce siècle.

L’Essai pour une Nouvelle Théorie de la Vision est un de ces textes qui a pris beaucoup d’importance dans ces dernières années. Les commentateurs ont remarqué le caractère stratégique de cette oeuvre: avec la résolution de certains problèmes de l’optique de son époque, Berkeley veut séduire les savants à une philosophie qui a l’objectif secret de miner les fondements métaphysiques des sciences géométriques et mécaniques. Sa nouvelle théorie essaie de montrer concretement que les bases de ces sciences sont en grande partie constituées de croyances qui peuvent être abandonnées sans dommage pour la science et avec grand intérêt pour la philosophie. La Nouvelle Théorie de la Vision veut expliquer les mécanismes de la perception de l’espace et résoudre certains problèmes qui constituent de véritables apories pour l’optique classique. Tout comme un hors-d’oeuvre pour plaire à tous les goûts avant l’arrivée d’un plat étrange aux habitudes des invités, Berkeley veut préparer les sprits a une philosophie qui est, comme il bien le sait, assez radicale.

Cependant, le résultat d’une telle tactique ne será pas tout à fait ce que Berkeley attendait. Parce qu’économique et d’un grand pouvoir explicatif, la théorie de la vision est très bien acceptée comme oeuvre scientifique mais cette valorisation démesurée et unilatérale de ses aspects scientifiques a fini par obscurcir ses buts critiques. Ce que Berkeley utilisait comme un moyen a été pris comme une fin, un objectif en soi, ce qui a mené à la méconnaissance des vrais objectifs critiques de la Nouvelle Théorie de la Vision.

Nous essayons de comprendre dans quel sens la Nouvelle Théorie de la Vision peut être considérée comme une oeuvre scientifique et si c’est pour des raisons simplement stratégiques que Berkeley utilise cette science pour atteindre un but surtout philosophique. Nous pensons qu’ il y a dans la Nouvelle Théorie de la Vision un projet, quoiqu’un peu dissimulé, qui veut mettre en lumière une région antérieure, plus “fondamentale” si l’on peut dire, à la catégorisation dichotomique de la réalité introduite par le langage. Ce projet, que j’appelle pour l’instant critique, on pourrait le décrire, très succinctement parce que nous y reviendrons, comme un combat au dogmatisme philosophique et son produit le plus important, le dualisme métaphysique. Cette critique consistera à identifier les racines de cette thèse et de cette croyance dans le carrefour entre 1)l’identification d’objets discrets dans la perception et 2)sa nomination par le langage.

Si l’on réussit à comprendre ce noyau théorique, ce projet critique d’analyse de la genèse de l’illusion dualiste, on peut peut être éclaircir, tout d’abord

1) comment et pourquoi exactement un livre qui a un objectif philosophique clair est écrit comme un ouvrage scientifique; puis

2) comment cette oeuvre a été, d’une part appropriée pour la science tout en ignorant son contenu philosophique et d’autre part ignorée ou mal comprise par les philosophes, et enfin,

3) dans quelle mesure cette réception a conditionnée la mauvaise compréhension des oeuvres les plus connues de Berkeley.

II

La critique de Berkeley vise non seulement la métaphysique moderne mais aussi les résidus dogmatiques d’une tradition très ancienne qui sont restés cachés sous les nouvelles sciences et la nouvelle philosophie. La géométrisation cartésienne de l’espace a été un facteur de progrès pour la science. Mais la conséquence de cette objectivation de l’espace est un renforcement de croyances naturelles qui sont à l’origine de certains problèmes philosophiques jamais résolus. Ces problèmes, apparemment importants, s’avereront a un examen plus minutieux être de faux problèmes, des problémes sans solution possible qui peuvent et doivent donc être évités. L’un des plus importants de ces problèmes illusoires est celui de la justification de la connaissance comme relation de deux substances distinctes, l’une materielle, l’autre spirituelle.

Ce dualisme radical a été la contrepartie de l’abandon de l’ontologie et de l’épistémologie aristotélicienne au profit du mécanisme moderne. La mathématisation objectivante de l’espace exige que le concept classique d’idée, conçu comme ousia, comme essence, donne place au concept moderne d’idée comme figure. La conséquence est que l’écart entre l’âme et les choses, qui était en quelque sorte atténué par le concept grecque de logos, s’est beaucoup élargi. En effet, pour Aristote le logos est défini tantôt comme rapport de convenance entre le senti et l’organe sentant, tantôt comme condition et expression de l’essence. Le logos est à la fois condition de l’apparence des choses et du discours sur ces apparences; condition des choses en même temps que condition de l’expression des choses dans le langage. Dans L’Ontologie Gris de Descartes, Jean-Luc Marion dit à ce propos: “Descartes ne va pas assez loin pour atteindre à l’eidos, mais s’en éloigne d’autant plus qu’il abstrait, là précisément où Aristote opère une concentration (de la “matière” à la “forme”, du quantitatif au qualitatif, de l’interaction et de l’harmonie), et renonce à tenir le centre d’un réseau saturé de sens, pour opérer, comme à distance, le relevé de paramètres disjoints”.

III

La Nouvelle Théorie de la Vision peut être divisée en deux parties:

1) dans la première partie la distance, la magnitude et la situation, les concepts fondamentaux des théories de la vision de l’époque, sont expliqués à partir de la thèse suivante: “les idées de la vision ne sont pas représentations, images de ‘choses réelles’, mais sont les produits de relations de signification entre les idées de la vision et du toucher. (Berkeley utilise parfois aussi les mots “suggestion” ou “anticipation” tenant lieu de “signification”.) Ces relations sont régulières et constantes par effet de l’expérience et de l’habitude mais ne sont pas nécessaires.” Ensuite, trois problèmes récalcitrants de l’optique géométrique liés à ces trois thèmes sont résolus: le problème de la taille apparente de la lune selon qu’elle soit plus proche ou plus éloignée de l’horizon, le problème dit “de Barrow”, sur le rapport entre la distance et la magnitude des images aperçues à travers des lentilles concaves ou convexes et le problème de l’inversion de l’image rétinienne.

2) La deuxième partie expose la thèse critique de l’hétérogénéité essentielle entre les modalités sensibles. Selon cette thèse les idées des différentes modalités ont entre elles un rapport qui est de même nature que la relation entre les mots et les idées, soit une relation signifiante. Ce qui conduit à la conclusion suivante: la vision est le language de la nature. (De l’Auteur de la nature dans la deuxième édition).

Dans sa première partie, la Nouvelle Théorie de la Vision peut donc bien être appellée “oeuvre scientifique”, au moins au sens large de “science” du XVII et XVIIIème siècles. Dans la mesure où Berkeley parle aux opticiens de son époque, critique leur paradigme géométrique et propose des réponses satisfaisants à leurs questions irrésolues, la Nouvelle Théorie de la Vision peut être considerée - au moins dans sa première partie - comme étant une “optique”. Mais la deuxième partie, dans la mesure où elle questionne les fondements même de toutes les sciences géométriques, a un propos beaucoup plus que scientifique.

De toute façon, la Nouvelle Théorie de la Vision est devenue un chapitre important non seulement de l’histoire de la philosophie moderne, mais aussi de l’histoire de la science. Pourtant, elle est plutôt entrée dans l’histoire de la psychologie que dans l’histoire de l’optique. Certains aspects de la théorie berkeleienne de la vision sont à l’origine de ce qu’on trouve dans les manuels de psychologie de la perception comme la première formulation du modèle dit structuraliste de la perception de l’espace. Ce modèle explicatif accepte comme vraie une des idées fondamentales de la théorie de Berkeley: la distance, la magnitude et la position sont des idées indirectes ou médiates qui sont le résultat de l’anticipation des idées immédiates du toucher par les idées aussi immédiates de la vision. Les sensations “tactiles” qui accompagnent les sensations purement visuelles (liés au mouvement du globe oculaire et au mise-au-point de l’image) sont devenues dans la psychologie les mécanismes d’accommodation et de convergence, les indices de la perception de l’espace. La distinction entre idées immédiates-signifiantes et idées médiates-suggérées donnera naissance à la distinction entre sensation et perception et au concept d’inférence inconsciente.

Ces distinctions, entre deux niveaux, le premier passif (“sensation”) et le deuxième actif (“perception”) sont typiques des psychologies d’inspiration associacioniste. L’empirisme associacioniste ne renonce pas au concept géométrique d’espace. Pour l’associacionisme, l’esprit est une sorte d’espace analogue à l’espace geométrique. Les idées ont des rapports entre elles tout comme les choses en ont dans l’espace. Bref, Les outils théoriques que Berkeley avait utilisés pour arriver à une philosophie de la perception sans pressuposés dogmatiques sont donc absorbés par une science qui ignore la deuxième partie de la Nouvelle Theorie de la Vision et ne renonce absolument pas à ces préjugés.

Les noms les plus connus de cette tradition scientifique sont Helmholtz, avec son Optique Physiologique et Mach avec l’Analyse des Sensations. Ce modèle a eu une longue vie: ce n’est que dans les années soixante et soixante dix que Gibson a proposé une alternative à la distinction sensation / perception.

IV

Mais nous revenons à Berkeley pour essayer de montrer que sa philosophie de la vision a un but critique qui interdit l’utilisation de la distinction entre idée médiate et idée imediate dans un contexte associationniste.

Dans la Théorie de la Vision Justifiée et Expliquée Berkeley dit que l’on doit distinguer trois choses dans l’étude de la vision:

a) la physique de la vision, qui étudie la physiologie des organes mise en euvre dans la vision;

b) la géométrie de la vision, qui permet la construction d’intruments optiques utiles, et

c) la philosophie de la vision, qui doit expliquer “comment l’esprit de l’homme simplement voit”. Selon Berkeley, ce troisième aspect est aussi important que les deux précédents et peut être réduit à la question suivante: comment des idées totalement différentes des idées du toucher, peuvent nous les suggérer, s’il n’y a aucune relation nécessaire entre elles? Cette question sera donc la vraie question, la question qui se substitura à la question classique qui demande comment l’esprit peut représenter les choses, comment les représentations peuvent ressembler à des entités qui lui sont étrangères.

Les idées “entièrement différentes du toucher” qui les suggérent sont, nous l’avons vu, les idées de la vision (voire de l’audition). La perception de l’espace (de la distance, de la magnitude et de la situation) est le résultat des relations de signification (ou anticipation) entre les idées de la vision et les idées du toucher, idées qui n’ont rien en commun mais qui, pour des raisons pratiques, sont naturellement conçues comme des aspects d’un même objet de perception et condensées dans la réfèrence unique et stricte d’un même mot qui les nome.

C’est exactement ici, à ce point de confluence entre la perception et le langage, que Berkeley identifie les origines des présupposés qui mènent à la croyance dualiste. Cette croyance n’est pas à priori négative ni pour le sens commun ni pour la science. Le discours commun et le discours scientifique peuvent même bénéficier de cette croyance pour mieux atteindre leurs objectif pratiques. Le problème naît lorsqu’une deuxième croyance vient s’accrocher à la croyance naturelle première: la croyance selon laquelle cette relation d’ordre pragmatique entre le sujet et son environnement constitue un problème épistémologique, exige une justification théorique. Le dogmatisme nait donc de la transformation de présupposés et de croyances naturelles utiles en thèses philosophiques.

Le langage est pour Berkeley un instrument utile qui prolonge la perception et partage avec elle une même nature. Les mots constituent une espèce particulière de signes dans l’ensemble plus vaste de tous les signes ou, dans le vocabulaire de Berkeley, de toutes les idées. Les relations entre les idées sont, comme les relations entre les mots et les idées, régulières et contingentes. Les relations entre les mots et les idées, tout comme les relations entre les idées, ne sont pas uniquement de nomination d’un particulier par un particulier. Les idées conçues comme signes permettent une conception plus dynamique de l’esprit que les idées conçues comme répresentations. Les mots étaient déjà pensés par la tradition comme des signes arbitraires, mais ce nouveau modèle permet une théorie du langage sans les contraintes “référencialistes” qui caracterisaient, par exemple, la théorie du language de Locke.

V

La version de ces analyses que l’on trouve dans la Nouvelle Théorie de la Vision ne sont pas bien connus. En général les arguments présentés dans les Principes de la Connaissance Humaine et dans son Introduction sont davantage pris en compte. Pourtant dans ce texte la stratégie de Berkeley est déjà d’une toute autre nature. Berkeley présente maintenant comme fondement du langage la thèse suivante: “les mots généraux réprésentent chacun des particuliers d’une classe et non une idée abstraite constituée des qualités communes à ces particuliers” et comme principe de son ontologie la thèse: “être c’est percevoir ou être perçu”. Ca veut dire: à la fois une critique et une alternative à une certaine théorie du langage et à l'ontologie à laquelle elle est liée. Ces thèses peuvent être appellées “principes” dans le sens d’axiome dans une démonstration mais ils sont déjà les produits de l’analyse critique que nous trouvons dans la Nouvelle Théorie de la Vision, analyse qui veut identifier et montrer les préjugés d’ordre pré-catégorielles qui sont à la racine de ces constructions théoriques particulières.

VI

Avec celá Berkeley peut avancer une toute nouvelle théorie de la causalité et par conséquent de la science. La science lui apparaîtra comme le prolongement naturel de ce processus qui va de la perception au langage, des idées aux mots. La nature est constituée de relations permanentes et régulières d’idées. La science peut calculer et faire des prévisions tout comme la perception. Mais en utilisant des outils mathématiques et des outils qui prolongent les sens elle peut augmenter davantage ce pouvoir d’explication. Pourtant, la connaissance scientifique n’atteint jamais une réalité cachée sous les phénomènes, une substance censée les supporter, parce que la réalité c’est seulement et simplement des phénomènes, les idées sont des choses et les choses ne sont rien de plus que des collections d’idées vues comme des signes.

Selon Berkeley, il n’existe pas de causalité efficiente dans la nature. Nous pouvons même dire qu’il est absolument nécessaire pour un bon fonctionnemment de ce système que la relation des idées-choses entre elles soit contingente. La prévision est possible parce ces relations sont, bien sûr, constantes: Dieu les aperçoit sans cesse et garantit leur régularité. Mais elles sont toujours contingentes parce que ce sont des relations signifiantes, au même titre que les relations entre les mots et les idées.

VII

Kant critique Berkeley en disant que sa conception ("empiriste") de l’espace est ingénue, parce que l’espace doit être une condition nécessaire de la synthèse des sensations et non aperçue avec les sensations. Mais cette critique, qui peut être adéquate par rapport à Locke et Hume, ne va pas avec Berkeley, parce que son espace est non géométrique. Berkeley ne veut pas dire que nous pouvons percevoir l’espace. Cela serait réduire l’espace à l’ensemble des idées immédiates de la vision, sans aucune référence aux autres (parmi eux, bien sur, le toucher). Berkeley veut montrer que le concept d’espace comme extériorité, espace que nous pourrions appeller “espace du sens commun”, est le produit d’une sorte de confluence, de collaboration entre la perception et le langage. L’espace n’est ni un continent vide où sont placés le sujet percevant et les choses, ni une condition a priori de la perception. L’espace est le résultat de toutes les interactions, de toutes les relations signifiantes entre les différentes modalités sensibles. C’est l’espace de l’action. Les idées de la vision sont seulement la lumière et les couleurs. L’espace est l’intervalle d’action nécessaire pour que l’on arrive à toucher ce que les idées immédiates de la vision anticipaient.

Dans la relation signifiante, le plus important est toujours le signifié à transmettre et non le signifiant, qui est arbitraire et renvoit à une autre chose, à un signifié. Dans la relation des idées de la vision et du toucher le plus important sont tout de même ces derniéres. Les idées immédiates de la vision sont les moyens pour atteindre les idées du toucher, les seules qui sont vraiment l’occasion du plaisir et de la douleur, de la conservation ou de la mort de l’individu. L’hypothèse trompeuse des idées comme représentations d’une réalité substancielle peut ainsi être économisée: l’espace est le résultat des relations entre idées qui, anticipant, prévoyant, l’unes des autres, garantissent la survie et le bien être des individus et non l’endroit vide où seraient placés les objets d’une contemplation désinteressée.

La relation de signification, contrairement à la relation de représentation, doit sa régularité à la répétition de l’expérience et non à une quelconque ressemblance nécessaire. Les idées de la vision et les idées du toucher sont reliées dans l’action. Pour faciliter cette action ces idées hétérogènes et regulièrement coexistentes sont identifiées à des objets particuliers dans la perception et en même temps reçoivent un même nom dans le langage. L’espace comme extériorité qui contient ces collections d’idées que nous appellons “objets” est donc, avant d’être conceptualisé et nommé par le langage, simplement un intervalle de temps, l’intervalle nécessaire à l’action pour actualiser une relation tactile déjà potentiellement présente dans la vision.

La théorie de la vision de Berkeley est un exemple concret de cette science qui atteint son but tout en renonçant au dogmatisme d’une science qui pretend dire la vérité d’une réalité au delà des idées, au delà des signes. Cette théorie de la vision n’est donc pas simplement une stratégie rhétorique. Même dans sa première partie, elle prétend montrer l’identité de nature entre le discours scientifique et le discours de la vie ordinaire. Tout comme pour l’homme commun la conception d’espace comme extériorité est nécessaire pour l’action, ainsi pour la science les présupposés réalistes peuvent être utiles pour que la science atteigne ses buts pratiques, mais n’ont jamais qu’une valeur instrumentale.

En général, ce que ll’on reproche à la philosophie empiriste classique de la perception c’est la conception du mental comme collection d’idées conçues comme unités discrètes. On dit souvent que la conception associacioniste cherche à appliquer au mental le même modèle d’attraction universel de Newton. L’incompréhénsion du dessein critique de Berkeley et l’utilisation de sa théorie de la vision pour une psychologie d’inspiration associacioniste peut être due, au moins en partie, à l’attribution à Berkeley d’un concept d’idée qui est exactement le même de Locke (et pêut être de Hume). Mais il y a de bonnes raisons pour penser que’au contraire, l’approche de Berkeley veut pousser ce modèle associationiste à ses limites. Si l’idée n’est plus conçue comme représentation, comme copie, mais comme signe, l’atomisme des idées peut être remplacé par un schéma dans lequel la relation entre les idées est aussi dynamique que la relation entre les mots d’un langage. Le sens d’une phrase ne se réduit pas à l’addition des sens de chaque mot qui la compose; les sens de chacun de ces mots ne sont pas des unités atomiques, totalement discernables. Le rapprochement de la perception à la pensée, et l’analogie de cet ensemble que Berkeley appelle “nature”, avec le langage peut être vu comme un modèle que Berkeley utilise pour dépasser l’atomisme dissimulé sous les doctrines associacionistes. Berkeley remplace ce schéma qui veut que les idées reproduisent dans l’esprit les relations de causalité, de ressemblance et de contiguïté des choses dans l’espace, par un modèle où toutes les relations mécaniques sont réduites a des relations contingentes de signification.

Gentilly, juin 1998.

Bibliografia

ARNHEIM, R. - La Pensée Visuelle, Traduit de l’américain par Claude Noel et Marc le Cannu, Flammarion, Paris, 1976.

ARNOULD, Antoine et NICOLE, Pierre - La Logique ou l’Art de Penser, Édition Critique par Pierre CLAIR et François GIRBAL, Paris, Vrin, 1997.

AUSTIN, J. L. - Sense and Sensibilia , London, Oxford University Press, 1962.

BRYKMAN, Geneviève - Berkeley et le Voile des Mots, Paris, J.Vrin, 1993.

BUVERESSE, Jacques - Langage, Perception et Realité, Tome I:La Perception et le Jugement, Ed. Jacqueline Chambon, Nîmes, 1995.

BUVERESSE, Jacques - Leçon Inaugurale au Collège de France, 1995;

BERKELEY, G. - Philosophical Works, Including the Works on Vision, Intr. and Notes by M. R. AYERS, London, J. M. Dent & Sons Ltda, 1985.

CASSIN, B. - Aristote et le Logos, Paris, puf, 1997.

ECO, H. - La production des Signes.

FLAGE, D. - Berkeley's Doctrine of Notions: a Reconstruction Based on his Theory of Meaning, London & Sydney, Croom Helm Ltd, 1987.

GRUPO m - Traité du Signe Visuel. Pour une rhétorique de l’image, Paris, Ed.Seuil, La Coleur des idées, 1992.

LEBRUN, G. - Berkeley ou le Ceticisme Malgré Lui, in Revista Manuscrito n.2, Campinas, Ed. Unicamp, 1985.

LOCKE, J. - An Essay Concerning Human Understanding, London, Ward, Lock & Co., 1905.

MALEBRANCHE, N. - De la Recherche de la Verité, Paris, J. Vrin, 1945.

MORIZOT, J. - La Philosophie de l’art de Nelson Goodman, Paris, Ed. Jacqueline Chambon, 1996.

PONTY, M-M. - La Phenomenologie de la Perception, Paris, Gallimard, 1945.

POYNCARÉ, H. - La Science et l’Hipothése, Flammarion, Paris, 1968.

PROUST, J. (org.) - Perception et Intermodalité - Aproches actuelles de la question de Molyneux, Paris, PUF, 1997.

SCHWARTZ, R. - Vision - Variations on Some Berkeleyan Themes,[..]Blackwell, 1994.

SMITH, A. D. - Berkeley's Central Argument, in Essays on Berkeley, Clarendon Press, Oxford, 1985.

SMITH, W. K. - Berkeley's Philosophie of Science, in Essays on Berkeley - Clarendon Press, Oxford, 1985.

WUNENBURGUER, J-J. - La Raison Contradictoire, Paris, Albin Michel, 1990.

Home