Simplicité

Table des matières:

Simplicité
Simplicité

Vidéo: Simplicité

Vidéo: Simplicité
Vidéo: Matia Bazar - Tu semplicità (video 1978) 2024, Mars
Anonim

Navigation d'entrée

  • Contenu de l'entrée
  • Bibliographie
  • Outils académiques
  • Aperçu du PDF des amis
  • Informations sur l'auteur et la citation
  • Retour au sommet

Simplicité

Publié pour la première fois le 29 octobre 2004; révision de fond mar 20 déc.2016

La plupart des philosophes croient que, toutes choses étant égales par ailleurs, des théories plus simples sont meilleures. Mais à quoi correspond exactement la simplicité théorique? La simplicité syntaxique, ou élégance, mesure le nombre et la concision des principes de base de la théorie. La simplicité ontologique, ou parcimonie, mesure le nombre de types d'entités postulé par la théorie. Une question concerne la relation entre ces deux formes de simplicité. Il y a aussi un problème concernant la justification des principes, comme le rasoir d'Occam, qui favorisent les théories simples. L'histoire de la philosophie a vu de nombreuses approches pour défendre le rasoir d'Occam, des justifications théologiques du début de la période moderne aux justifications contemporaines utilisant les résultats de la théorie des probabilités et des statistiques.

  • 1. Introduction
  • 2. Parcimonie ontologique
  • 3. Justifications a priori de la simplicité
  • 4. Justifications naturalistes de la simplicité
  • 5. Justifications probabilistes / statistiques de la simplicité
  • 6. Autres problèmes de simplicité

    • 6.1 Parcimonie quantitative
    • 6.2 Principes de plénitude
    • 6.3 Simplicité et induction
  • Bibliographie
  • Outils académiques
  • Autres ressources Internet
  • Entrées connexes

1. Introduction

Il existe une présomption philosophique répandue selon laquelle la simplicité est une vertu théorique. Cette présomption selon laquelle des théories plus simples sont préférables apparaît sous de nombreuses formes. Souvent, cela reste implicite; parfois elle est invoquée comme proposition primitive et évidente; d'autres fois, il est élevé au statut de «principe» et étiqueté comme tel (par exemple, le «principe de parcimonie»). Cependant, il est peut-être mieux connu sous le nom de «rasoir d'Occam (ou d'Ockham)». Les principes de simplicité ont été proposés sous diverses formes par des théologiens, des philosophes et des scientifiques, de l'Antiquité au Moyen Âge en passant par les temps modernes. Ainsi Aristote écrit dans son analyse postérieure,

On peut supposer la supériorité ceteris paribus de la démonstration qui découle de moins de postulats ou d'hypothèses. [1]

Passant à la période médiévale, Thomas d'Aquin écrit:

Si une chose peut être faite convenablement au moyen d'un, il est superflu de le faire au moyen de plusieurs; car nous observons que la nature n'emploie pas deux instruments là où l'un suffit (Aquinas, [BW], p. 129).

Kant - dans la Critique de la raison pure - soutient la maxime selon laquelle «les rudiments ou principes ne doivent pas être inutilement multipliés (entia praeter necessitatem non esse multiplicanda)» et soutient qu'il s'agit d'une idée régulatrice de la raison pure qui sous-tend la théorisation des scientifiques sur la nature (Kant, 1781/1787, pp. 538–9). Galileo et Newton ont tous deux accepté les versions d'Occam's Razor. En effet, Newton inclut un principe de parcimonie comme l'une de ses trois `` règles de raisonnement en philosophie '' au début du livre III de Principia Mathematica (1687):

Règle I: Nous ne devons pas admettre plus de causes des choses naturelles que celles qui sont à la fois vraies et suffisantes pour expliquer leurs apparences.

Newton poursuit en faisant remarquer que «la nature se plaît à la simplicité et n'affecte pas le faste des causes superflues» (Newton 1687, p. 398). Galilée, en faisant une comparaison détaillée des modèles ptolémaïque et copernicien du système solaire, soutient que «la nature ne multiplie pas inutilement les choses; qu'elle utilise les moyens les plus faciles et les plus simples pour produire ses effets; qu'elle ne fait rien en vain, etc. »(Galilée 1632, p. 397). Les partisans scientifiques des principes de simplicité ne sont pas non plus limités aux rangs des physiciens et des astronomes. Voici le chimiste Lavoisier écrivant à la fin du XVIIIe siècle

Si toute la chimie peut être expliquée d'une manière satisfaisante sans l'aide du phlogistique, cela suffit à rendre infiniment vraisemblable que le principe n'existe pas, que c'est une substance hypothétique, une supposition gratuite. C'est, après tout, un principe de logique de ne pas multiplier inutilement les entités (Lavoisier 1862, pp. 623–4).

Comparez cela au passage suivant d'Einstein, écrit 150 ans plus tard.

[L] e grand objectif de toute science… est de couvrir le plus grand nombre possible de faits empiriques par des déductions logiques à partir du plus petit nombre possible d'hypothèses ou d'axiomes (Einstein, cité dans Nash 1963, p. 173).

Les rédacteurs d'un récent volume sur la simplicité ont envoyé des sondages à 25 récents lauréats du prix Nobel d'économie. Presque tous ont répondu que la simplicité jouait un rôle dans leurs recherches et que la simplicité est une caractéristique souhaitable des théories économiques (Zellner et al. 2001, p. 2). Riesch (2010) a interrogé 40 scientifiques et a trouvé une gamme d'attitudes à l'égard de la nature et du rôle des principes de simplicité en science.

Dans la philosophie, le rasoir d'Occam (OR) est souvent utilisé contre les théories métaphysiques qui impliquent un appareil ontologique prétendument superflu. Ainsi, les matérialistes à propos de l'esprit peuvent utiliser OU contre le dualisme, au motif que le dualisme postule une catégorie ontologique supplémentaire pour les phénomènes mentaux. De même, les nominalistes sur les objets abstraits peuvent utiliser OU contre leurs adversaires platoniciens, les prenant à la tâche pour s'engager dans un royaume infiniment vaste d'entités mathématiques abstraites. Le but des appels à la simplicité dans de tels contextes semble être davantage de déplacer la charge de la preuve et moins de réfuter carrément la théorie moins simple.

Les enjeux philosophiques entourant la notion de simplicité sont nombreux et quelque peu enchevêtrés. Le sujet a été étudié au coup par coup par des scientifiques, des philosophes et des statisticiens (bien que pour un traitement philosophique inestimable d'une longueur de livre, voir Sober 2015). L'apparente familiarité de la notion de simplicité signifie qu'elle est souvent laissée sans analyse, tandis que son imprécision et la multiplicité des significations contribuent au défi de cerner précisément la notion. [2] Une distinction est souvent faite entre deux sens fondamentalement distincts de la simplicité: la simplicité syntaxique (en gros, le nombre et la complexité des hypothèses) et la simplicité ontologique (en gros, le nombre et la complexité des choses postulées). [3]Ces deux facettes de la simplicité sont souvent appelées respectivement élégance et parcimonie. Pour les besoins du présent aperçu, nous suivrons cet usage et réserverons la «parcimonie» spécifiquement à la simplicité au sens ontologique. Il convient toutefois de noter que les termes «parcimonie» et «simplicité» sont utilisés de manière pratiquement interchangeable dans une grande partie de la littérature philosophique.

L'intérêt philosophique pour ces deux notions de simplicité peut s'organiser autour de réponses à trois questions fondamentales;

(i) Comment définir la simplicité? [Définition]

(ii) Quel est le rôle des principes de simplicité dans différents domaines d'enquête? [Usage]

(iii) Y a-t-il une justification rationnelle à ces principes de simplicité? [Justification]

Comme nous le verrons, répondre à la question de la définition, (i), est plus simple pour la parcimonie que pour l'élégance. Inversement, plus de progrès sur la question (iii) de la justification rationnelle ont été faits pour l'élégance que pour la parcimonie. Il convient également de noter que les questions ci-dessus peuvent être soulevées pour les principes de simplicité à la fois dans la philosophie elle-même et dans l'application à d'autres domaines de la théorisation, en particulier la science empirique.

En ce qui concerne la question (ii), il y a une distinction importante à faire entre deux sortes de principes de simplicité. Le rasoir d'Occam peut être formulé comme un principe épistémique: si la théorie T est plus simple que la théorie T *, alors il est rationnel (toutes choses étant égales par ailleurs) de croire T plutôt que T *. Ou cela peut être formulé comme un principe méthodologique: si T est plus simple que T *, alors il est rationnel d'adopter T comme théorie de travail à des fins scientifiques. Ces deux conceptions du rasoir d'Occam nécessitent différentes sortes de justification en réponse à la question (iii).

En analysant la simplicité, il peut être difficile de garder ses deux facettes - élégance et parcimonie - séparées. Des principes tels que le rasoir d'Occam sont fréquemment énoncés d'une manière ambiguë entre les deux notions, par exemple «Ne multipliez pas les postulations au-delà de la nécessité». Ici, il n'est pas clair si la «postulation» se réfère aux entités postulées, ou aux hypothèses qui font le postulation, ou aux deux. La première lecture correspond à la parcimonie, la seconde à l'élégance. Des exemples des deux types de principes de simplicité peuvent être trouvés dans les citations données plus haut dans cette section.

Bien que ces deux facettes de la simplicité soient souvent confondues, il est important de les traiter comme distinctes. Une des raisons pour cela est que les considérations de parcimonie et d'élégance tirent généralement dans des directions différentes. Postuler des entités supplémentaires peut permettre de formuler une théorie plus simplement, tandis que réduire l'ontologie d'une théorie ne peut être possible qu'au prix de la rendre syntaxiquement plus complexe. Par exemple, la postulation de Neptune, à l'époque non directement observable, a permis d'expliquer les perturbations sur les orbites d'autres planètes observées sans compliquer les lois de la mécanique céleste. Il y a généralement un compromis entre l'ontologie et l'idéologie - pour utiliser la terminologie privilégiée par Quine - dans laquelle la contraction dans un domaine nécessite une expansion dans l'autre. Ceci indique une autre façon de caractériser la distinction élégance / parcimonie, en termes de simplicité de la théorie contre simplicité du monde respectivement.[4] Sober (2001) soutient que ces deux facettes de la simplicité peuvent être interprétées en termes de minimisation. Dans le cas (atypique) des entités théoriquement inactives, les deux formes de minimisation tirent dans la même direction; postuler l'existence de telles entités rend nos théories (du monde) et le monde (tel que représenté par nos théories) moins simples qu'ils pourraient l'être.

2. Parcimonie ontologique

La formulation la plus courante de la forme ontologique du rasoir d'Occam est peut-être la suivante:

(OU) Les entités ne doivent pas être multipliées au-delà de la nécessité.

Il convient de noter que les formulations modernes de rasoir d'Occam sont connectés seulement très ténus au 14 e figure -century Guillaume d'Ockham. Nous ne nous intéressons pas ici à la question exégétique de la manière dont Ockham a voulu que son «rasoir» fonctionne, ni aux usages auxquels il a été mis dans le contexte de la métaphysique médiévale. [5] Les philosophes contemporains ont eu tendance à réinterpréter OU comme un principe de choix théorique: OU implique que - toutes choses étant égales par ailleurs - il est rationnel de préférer les théories qui nous engagent à des ontologies plus petites. Cela suggère la paraphrase suivante de OR:

(OU 1) Toutes choses égales par ailleurs, si T 1 est plus parcimonieux ontologiquement que T 2 alors il est rationnel de préférer T 1 à T 2.

Que signifie dire qu'une théorie est ontologiquement plus parcimonieuse qu'une autre? La notion de base de parcimonie ontologique est assez simple et est généralement encaissée en termes de concept d'engagement ontologique de Quine. Une théorie, T, est ontologiquement engagée dans F s si et seulement si T implique que F existe (Quine 1981, pp. 144–4). Si deux théories, T 1 et T 2, ont les mêmes engagements ontologiques sauf que T 2 est ontologiquement engagé dans F s et T 1 ne l'est pas, alors T 1 est plus parcimonieux que T 2. Plus généralement, une condition suffisante pour que T 1 soit plus parcimonieux que T 2signifie que les engagements ontologiques de T 1 sont un sous-ensemble propre de ceux de T 2. Notez que OR 1 est considérablement plus faible que la version informelle d'Occam's Razor, OR, avec laquelle nous avons commencé. OU stipule seulement que les entités ne doivent pas être multipliées au-delà de la nécessité. OR 1, en revanche, stipule que les entités ne doivent pas être multipliées toutes choses égales par ailleurs, ce qui est compatible avec la parcimonie étant une vertu théorique relativement faible.

Un cas «facile» où OR 1 peut être appliqué directement est celui où une théorie, T, postule des entités qui sont sans explication. L'excision de ces entités de T produit une deuxième théorie, T *, qui a les mêmes vertus théoriques que T mais un plus petit ensemble d'engagements ontologiques. Par conséquent, selon OR 1, il est rationnel de choisir T * sur T. (Comme indiqué précédemment, la terminologie telle que «choisir» et «préférer» est d'une ambiguïté cruciale entre les versions épistémique et méthodologique du rasoir d'Occam. Pour définir la parcimonie ontologique, il n'est pas nécessaire de résoudre cette ambiguïté.) Cependant, de tels cas sont vraisemblablement rare, et cela indique une inquiétude plus générale concernant l'étroitesse de l'application de OR 1. Premièrement, combien de fois arrive-t-il réellement que nous ayons deux (ou plus) théories concurrentes pour lesquelles «toutes choses sont égales par ailleurs»? Comme le fait remarquer le biologiste Kent Holsinger,

Le rasoir d'Occam ne devant être invoqué que lorsque plusieurs hypothèses expliquent également bien le même ensemble de faits, en pratique, son domaine sera très limité … 144–5).

Deuxièmement, à quelle fréquence les engagements ontologiques d'une théorie candidate sont-ils un sous-ensemble approprié de ceux d'une autre? Les situations où les ontologies de théories concurrentes se chevauchent sont beaucoup plus courantes, mais chaque théorie a des postulats qui ne sont pas élaborés par l'autre. Des comparaisons simples de parcimonie ontologique ne sont pas possibles dans de tels cas.

Avant de mettre de côté la question de la définition pour la parcimonie ontologique, il convient de mentionner une autre distinction. Cette distinction se situe entre la parcimonie qualitative (en gros, le nombre de types (ou sortes) de chose postulée) et la parcimonie quantitative (en gros, le nombre de choses individuelles postulées). [6]La lecture par défaut du rasoir d'Occam dans la majeure partie de la littérature philosophique est un principe de parcimonie qualitative. Ainsi, le dualisme cartésien, par exemple, est moins parcimonieux qualitativement que le matérialisme parce qu'il est engagé dans deux grands types d'entités (mentale et physique) plutôt qu'un seul. La section 6.1 contient une brève discussion sur la parcimonie quantitative; à part cela, l'accent sera mis sur la notion qualitative. Il convient de noter que l'interprétation du rasoir d'Occam en termes de types d'entités apporte avec elle un bagage philosophique supplémentaire. En particulier, les jugements de parcimonie dépendent de la façon dont le monde est découpé en sortes. Les conseils issus d'un usage extra-philosophique - et en particulier de la science - ne sont pas non plus toujours clairs. Par exemple,Une particule subatomique inconnue jusqu'alors composée d'un nouveau réarrangement de sous-particules déjà découvertes est-elle un nouveau «genre»? Qu'en est-il d'une espèce biologique, qui ne contient vraisemblablement pas de nouveaux constituants de base? Aussi, faut-il accorder plus de poids à des divisions larges et apparemment fondamentales du genre - par exemple entre le mental et le physique - qu'à des divisions plus paroissiales? Intuitivement, la postulation d'un nouveau type de matière semblerait exiger une justification beaucoup plus étendue et solide que la postulation d'une nouvelle sous-espèce d'araignée.faut-il donner plus de poids aux divisions larges et apparemment fondamentales du genre - par exemple entre le mental et le physique - qu'à des divisions plus paroissiales? Intuitivement, la postulation d'un nouveau type de matière semblerait exiger une justification beaucoup plus étendue et solide que la postulation d'une nouvelle sous-espèce d'araignée.faut-il donner plus de poids aux divisions larges et apparemment fondamentales du genre - par exemple entre le mental et le physique - qu'à des divisions plus paroissiales? Intuitivement, la postulation d'un nouveau type de matière semblerait exiger une justification beaucoup plus étendue et solide que la postulation d'une nouvelle sous-espèce d'araignée.[7]

La troisième et dernière question de la section 1 concerne les justifications potentielles des principes de parcimonie ontologique tels que le rasoir d'Occam. La demande de justification de tels principes peut être comprise de deux manières très distinctes, correspondant à la distinction entre principes épistémiques et principes méthodologiques faite à la fin de la section 1. Justifier un principe épistémique nécessite de répondre à une question épistémique: pourquoi les théories parcimonieuses sont-elles plus probables? pour être vrai? Justifier un principe méthodologique nécessite de répondre à une question pragmatique: pourquoi est-il sensé en pratique que les théoriciens adoptent des théories parcimonieuses? [8]La plupart de l'attention dans la littérature s'est concentrée sur la première question épistémique. Il est facile de voir comment l'élégance syntaxique dans une théorie peut apporter des avantages pragmatiques, comme être plus perspicace, être plus facile à utiliser et à manipuler, etc. Mais le cas est plus difficile à faire pour la parcimonie ontologique. [9] On ne sait pas quels inconvénients pragmatiques particuliers reviennent aux théories qui postulent des types supplémentaires d'entités; en effet - comme cela a été mentionné dans la section précédente - de telles postulations peuvent souvent entraîner une simplification syntaxique frappante.

Avant d'examiner les approches pour répondre à la question de la justification épistémique, il convient de mentionner deux positions dans la littérature qui ne rentrent pas directement dans le camp pragmatique ou épistémique. La première position, associée principalement à Quine, soutient que la parcimonie comporte des avantages pragmatiques et que les considérations pragmatiques elles-mêmes fournissent des motifs rationnels de discrimination entre des théories concurrentes (Quine 1966, Walsh 1979). La position quinéenne fonde une réponse à la seconde question sur la réponse à la première, brouillant ainsi la frontière entre justification pragmatique et épistémique. La deuxième position, due à Sober, rejette l'hypothèse implicite dans les deux questions ci-dessus selon laquelle une justification globale de la parcimonie peut être trouvée (Sober 1988, 1994). Au lieu de cela, Sober soutient que les appels à la parcimonie dépendent toujours d'hypothèses locales pour leur justification rationnelle. Ainsi Sober écrit:

La légitimité de la parcimonie repose ou tombe, dans un contexte de recherche particulier, sur des considérations spécifiques au sujet (et a posteriori). […] Ce qui rend la parcimonie raisonnable dans un contexte peut n'avoir rien de commun avec pourquoi c'est important dans un autre (Sober 1994).

Les philosophes qui rejettent ces arguments de Quine et Sober, et prennent ainsi au sérieux la demande d'une justification épistémique globale, ont développé une variété d'approches pour justifier la parcimonie. La plupart de ces approches peuvent être regroupées sous deux grandes rubriques:

(A) Justifications a priori philosophiques, métaphysiques ou théologiques.

(B) Justifications naturalistes, fondées sur l'appel à la pratique scientifique.

Comme nous le verrons, le contraste entre ces deux types d'approche reflète un fossé plus large entre les traditions rivales du rationalisme et de l'empirisme dans la philosophie dans son ensemble.

Outre la parcimonie, la question de la justification rationnelle peut également être soulevée pour les principes fondés sur l'élégance, la deuxième facette de la simplicité distinguée dans la section 1. Les approches de justification de l'élégance du type (A) et (B) sont possibles, mais beaucoup des travaux récents relèvent d'une troisième catégorie;

(C) Justifications basées sur les résultats de la théorie des probabilités et / ou des statistiques.

Les trois sections suivantes examinent ces trois modes de justification des principes de simplicité. Les justifications a priori de la catégorie (A) concernent la simplicité à la fois dans ses formes de parcimonie et d'élégance. Les justifications de la catégorie (B) relèvent principalement de la parcimonie, tandis que celles de la catégorie (C) relèvent principalement de l'élégance.

3. Justifications a priori de la simplicité

Le rôle de la simplicité en tant que vertu théorique semble si répandu, fondamental et implicite que de nombreux philosophes, scientifiques et théologiens ont cherché une justification pour des principes tels que le rasoir d'Occam sur des bases tout aussi larges et fondamentales. Cette approche rationaliste est liée à l'idée que faire des hypothèses de simplicité a priori est le seul moyen de contourner la sous-détermination de la théorie par les données. Jusqu'à ce que la seconde moitié du 20 èmeSiècle, c'était probablement l'approche prédominante de la question de la simplicité. Plus récemment, la montée de l'empirisme au sein de la philosophie analytique a conduit de nombreux philosophes à argumenter de manière désobligeante que les justifications a priori maintiennent la simplicité dans le domaine de la métaphysique (voir Zellner et al. 2001, p.1). Malgré ses fortunes changeantes, l'approche rationaliste de la simplicité a toujours ses adeptes. Par exemple, Richard Swinburne écrit:

Je cherche … à montrer que - toutes choses étant égales par ailleurs - l'hypothèse la plus simple proposée comme explication des phénomènes a plus de chances d'être la vraie que toute autre hypothèse disponible, que ses prédictions sont plus vraisemblablement vraies que celles de toute autre hypothèse. hypothèse disponible, et que c'est un principe épistémique a priori ultime que la simplicité est la preuve de la vérité (Swinburne 1997, p. 1).

(i) Justifications théologiques

La période post-médiévale a coïncidé avec une transition progressive de la théologie à la science comme moyen prédominant de révéler les rouages de la nature. Dans de nombreux cas, les principes de parcimonie adoptés ont continué à porter leurs origines théologiques sur leurs manches, comme avec la thèse de Leibniz selon laquelle Dieu a créé le meilleur et le plus complet de tous les mondes possibles, et son lien entre cette thèse et des principes simplificateurs tels que la lumière le chemin le plus court (dans le temps). Une attitude et une rhétorique similaires sont partagées par les scientifiques au début de la période moderne et moderne, notamment Kepler, Newton et Maxwell.

Une partie de cette rhétorique a survécu jusqu'à nos jours, en particulier parmi les physiciens théoriciens et cosmologistes tels qu'Einstein et Hawking. [10] Pourtant, il y a des dangers évidents à s'appuyer sur une justification théologique des principes de simplicité. Premièrement, de nombreux scientifiques, probablement les plus contemporains, sont réticents à lier les principes méthodologiques à la croyance religieuse de cette manière. Deuxièmement, même les scientifiques qui parlent de «Dieu» se révèlent souvent utiliser le terme métaphoriquement, et pas nécessairement comme se référant à l'être personnel et intentionnel des religions monothéistes. Troisièmement, même s'il existe une tendance à justifier les principes de simplicité par une croyance littérale en l'existence de Dieu, une telle justification n'est rationnelle que dans la mesure où des arguments rationnels peuvent être donnés pour l'existence de Dieu.[11]

Pour ces raisons, peu de philosophes se contentent aujourd'hui de se reposer sur une justification théologique des principes de simplicité. Pourtant, il n'y a aucun doute sur l'influence de telles justifications sur les attitudes passées et présentes à l'égard de la simplicité. Comme l'écrit Smart (1994):

Il y a une tendance… pour nous à prendre la simplicité… comme guide de la vérité métaphysique. Cette tendance découle peut-être de notions théologiques antérieures: nous nous attendons à ce que Dieu ait créé un bel univers (Smart 1984, p. 121).

(ii) Justifications métaphysiques

Une approche pour justifier les principes de simplicité consiste à intégrer ces principes dans un cadre métaphysique plus général. L'exemple historique le plus clair de métaphysique systématique de ce type est peut-être l'œuvre de Leibniz. Le principal exemple contemporain de cette approche - et en un sens un descendant direct de la méthodologie de Leibniz - est le cadre des mondes possibles de David Lewis. Dans l'une de ses œuvres antérieures, Lewis écrit:

Je souscris à l'opinion générale selon laquelle la parcimonie qualitative est bonne dans une hypothèse philosophique ou empirique (Lewis 1973, p. 87).

Lewis a été attaqué pour ne pas en dire plus sur ce qu'il considère exactement comme la simplicité (voir Woodward 2003). Cependant, ce qui est clair, c'est que la simplicité joue un rôle clé dans le fondement de son cadre métaphysique, et est également considérée comme une vertu théorique prima facie.

Bien que le rasoir d'Occam ait sans doute été un outil important et de longue date dans l'essor de la métaphysique analytique, ce n'est que relativement récemment qu'il y a eu beaucoup de débats parmi les métaphysiciens concernant le principe lui-même. Cameron (2010), Schaffer (2010) et Sider (2013) plaident chacun pour une version d'Occam's Razor qui se concentre spécifiquement sur les entités fondamentales. Schaffer (2015, p. 647) nomme cette version «Le Laser» et la formule comme une injonction de ne pas multiplier les entités fondamentales au-delà de la nécessité, avec la compréhension implicite qu'il n'y a pas une telle injonction contre la multiplication des entités dérivées. Baron et Tallant (à venir) attaquent des `` rasoirs-réviseurs '' tels que Schaffer,soutenant que des principes tels que Le Laser ne parviennent pas à s'accorder avec les modèles réels de choix de théorie en science et ne sont pas non plus justifiés par certaines des lignes de justification du rasoir d'Occam.

(iii) Justifications de la `` valeur intrinsèque ''

Certains philosophes ont abordé la question de la justification des principes de simplicité en faisant valoir que la simplicité a une valeur intrinsèque en tant qu'objectif théorique. Sober, par exemple, écrit:

Tout comme la question «pourquoi être rationnel? peut ne pas avoir de réponse non circulaire, il peut en être de même pour la question «pourquoi la simplicité devrait-elle être prise en compte dans l'évaluation de la plausibilité des hypothèses? (Sober 2001, p. 19).

Une telle valeur intrinsèque peut être «primitive» dans un certain sens, ou elle peut être analysée comme un aspect d'une valeur plus large. Pour ceux qui préfèrent la deuxième approche, un candidat populaire pour cette valeur plus large est esthétique. Derkse (1992) est un développement d'une longueur de livre de cette idée, et des échos peuvent être trouvés dans les remarques de Quine - en relation avec sa défense du rasoir d'Occam - concernant son goût pour le «ciel clair» et les «paysages désertiques». En général, établir un lien entre la vertu esthétique et les principes de simplicité semble mieux adapté pour défendre des principes méthodologiques plutôt qu'épistémiques.

(iv) Justifications via les principes de rationalité

Une autre approche consiste à essayer de montrer comment les principes de simplicité découlent d'autres principes de rationalité mieux établis ou mieux compris. [12]Par exemple, certains philosophes stipulent simplement qu'ils prendront la «simplicité» comme un raccourci pour tout ensemble de vertus théoriques qui est (ou devrait être) caractéristique de l'enquête rationnelle. Une alternative plus substantielle consiste à lier la simplicité à un objectif théorique particulier, par exemple l'unification (voir Friedman 1983). Bien que cette approche puisse fonctionner pour l'élégance, il est moins clair comment elle peut être maintenue pour la parcimonie ontologique. A l'inverse, une argumentation qui semble mieux adaptée pour défendre la parcimonie que pour défendre l'élégance est de faire appel à un principe de conservatisme épistémologique. La parcimonie dans une théorie peut être considérée comme minimisant le nombre de «nouveaux» types d'entités et de mécanismes qui sont postulés. Cette préférence pour les mécanismes anciens peut à son tour être justifiée par une prudence épistémologique plus générale, ou conservatisme,qui est caractéristique de l'enquête rationnelle.

Il faut noter que le style d'approche ci-dessus peut recevoir à la fois une glose rationaliste et empiriste. Si l'unification ou le conservatisme épistémologique sont eux-mêmes des principes rationnels a priori, alors les principes de simplicité hériteront de cette caractéristique si cette approche peut être menée à bien. Cependant, les philosophes ayant des sympathies empiristes peuvent également poursuivre une analyse de ce type, puis justifier les principes de base soit de manière inductive par les succès passés, soit de manière naturaliste par le fait que ces principes sont en fait utilisés en science.

Pour résumer, le principal problème des justifications a priori des principes de simplicité est qu'il peut être difficile de distinguer entre une défense a priori et l'absence de défense (!). Parfois, la vertu théorique de la simplicité est invoquée comme une proposition primitive et évidente qui ne peut pas être davantage justifiée ou élaborée. (Un exemple est le début de l'article de Goodman et Quine en 1947, où ils déclarent que leur refus d'admettre des objets abstraits dans leur ontologie est «basé sur une intuition philosophique qui ne peut être justifiée par un appel à quelque chose de plus ultime.») (Goodman & Quine 1947, p. 174). On ne sait pas d'où peut venir l'effet de levier pour persuader les sceptiques de la validité de tels principes, surtout si les motifs invoqués ne sont pas eux-mêmes de soulever d'autres questions. Des appréhensions de ce genre ont conduit à un abandon des justifications enracinées dans la «première philosophie» vers des approches qui s'engagent davantage dans les détails de la pratique réelle, à la fois scientifique et statistique. Ces autres approches seront discutées dans les deux prochaines sections.

4. Justifications naturalistes de la simplicité

La montée de l'épistémologie naturalisée en tant que mouvement au sein de la philosophie analytique dans la seconde moitié du 20 e siècle a largement écarté le style d'approche rationaliste. Du point de vue naturaliste, la philosophie est conçue comme continue avec la science, et non comme ayant un statut indépendamment privilégié. La perspective du philosophe naturaliste est peut-être plus large, mais ses préoccupations et ses méthodes ne sont pas fondamentalement différentes de celles du scientifique. La conclusion est que la science n'a pas besoin - ni ne peut légitimement recevoir - de justification philosophique externe. C'est dans ce contexte largement naturaliste que certains philosophes ont cherché à fournir une justification épistémique des principes de simplicité, et en particulier des principes de parcimonie ontologique tels que le rasoir d'Occam.

Les principales preuves empiriques portant sur cette question sont les modèles d'acceptation et de rejet des théories concurrentes par les scientifiques en activité. Le développement de la relativité spéciale par Einstein - et son impact sur l'hypothèse de l'existence de l'éther électromagnétique - est l'un des épisodes les plus souvent cités (par les philosophes et les scientifiques) comme exemple du rasoir d'Occam en action (voir Sober 1981, p. 153). L'éther est par hypothèse un milieu fixe et un cadre de référence pour la propagation de la lumière (et d'autres ondes électromagnétiques). La théorie spéciale de la relativité inclut le postulat radical que la vitesse d'un rayon lumineux à travers un vide est constante par rapport à un observateur quel que soit l'état de mouvement de l'observateur. Compte tenu de cette hypothèse, la notion de référentiel universel est incohérente. Par conséquent, la Relativité Spéciale implique que l'éther n'existe pas.

Cet épisode peut être vu comme le remplacement d'une théorie empiriquement adéquate (la théorie de Lorentz-Poincaré) par une alternative plus ontologiquement parcimonieuse (relativité spéciale). Par conséquent, il est souvent considéré comme un exemple du rasoir d'Occam en action. Le problème avec l'utilisation de cet exemple comme preuve pour le rasoir d'Occam est que la relativité spéciale (SR) a plusieurs autres avantages théoriques par rapport à la théorie de Lorentz-Poincaré (LP) en plus d'être plus parcimonieux d'un point de vue ontologique. Premièrement, SR est une théorie plus simple et plus unifiée que LP, car afin de «sauver les phénomènes», un certain nombre de correctifs ad hoc et physiquement non motivés avaient été ajoutés à LP. Deuxièmement, LP soulève des doutes sur la signification physique des mesures de distance. Selon LP, une tige se déplaçant avec une vitesse, v,contrats par un facteur de (1 - v 2 / c2) 1/2. Ainsi, seules les mesures de distance effectuées dans une trame au repos par rapport à l'éther sont valides sans modification par un facteur de correction. Cependant, LP implique également que le mouvement par rapport à l'éther est en principe indétectable. Alors, comment mesurer la distance? En d'autres termes, le problème ici est compliqué par le fait que, selon LP, l'éther n'est pas simplement un élément d'ontologie supplémentaire, mais un élément supplémentaire indétectable. Compte tenu de ces avantages de SR sur LP, il semble clair que l'exemple de l'éther n'est pas simplement un cas de parcimonie ontologique compensant une théorie par ailleurs inférieure.

Un véritable cas de test pour le rasoir d'Occam doit impliquer une théorie ontologiquement parcimonieuse qui n'est pas clairement supérieure à ses rivaux à d'autres égards. Un exemple instructif est l'épisode historique suivant de la biogéographie, une sous-discipline scientifique née vers la fin du XVIIIe siècle et dont le but principal était d'expliquer la répartition géographique des espèces végétales et animales. [13] En 1761, le naturaliste français Buffon a proposé la loi suivante;

(BL) Les zones séparées par des barrières naturelles ont des espèces distinctes.

Il y avait également des exceptions connues à la loi de Buffon, par exemple des îles éloignées qui partagent des espèces (dites) «cosmopolites» avec des régions continentales très éloignées.

Deux théories rivales ont été développées pour expliquer la loi de Buffon et ses exceptions occasionnelles. Selon la première théorie, due à Darwin et Wallace, les deux faits peuvent être expliqués par les effets combinés de deux mécanismes causaux: la dispersion et l'évolution par sélection naturelle. L'explication de la loi de Buffon est la suivante. Les espèces migrent progressivement vers de nouvelles zones, un processus que Darwin appelle «dispersion». Comme la sélection naturelle agit au fil du temps sur la distribution initiale contingente des espèces dans différentes zones, des espèces complètement distinctes finissent par évoluer. L'existence d'espèces cosmopolites s'explique par une «dispersion improbable», le terme de Darwin désignant la dispersion à travers des barrières apparemment impénétrables par des «moyens de transport occasionnels» tels que les courants océaniques, les vents et la glace flottante. Les espèces cosmopolites sont expliquées comme le résultat d'une dispersion improbable dans un passé relativement récent.

Dans les années 50, Croizat a proposé une alternative à la théorie de Darwin-Wallace qui rejette leur présupposition de stabilité géographique. Croizat soutient que le changement tectonique, et non la dispersion, est le principal mécanisme causal qui sous-tend la loi de Buffon. Des forces telles que la dérive des continents, la submersion des fonds océaniques et la formation de chaînes de montagnes ont agi dans le cadre de l'histoire de l'évolution pour créer des barrières naturelles entre les espèces là où il n'y en avait pas auparavant. La théorie de Croizat était le point culminant sophistiqué d'une tradition théorique qui remontait à la fin du 17 e siècle. Les adeptes de cette tradition dite «vulgarisatrice» avaient postulé l'existence d'anciens ponts terrestres pour expliquer les anomalies dans la répartition géographique des plantes et des animaux.[14]

Les théories extensionnistes sont clairement moins parcimonieuses ontologiquement que les théories de dispersion, puisque les premières sont engagées dans des entités supplémentaires telles que les ponts terrestres ou les plaques tectoniques mobiles. De plus, les théories extensionnistes n'étaient (étant donné les preuves alors disponibles) pas manifestement supérieures à d'autres égards. Darwin a été l'un des premiers critiques des théories extensionnistes, faisant valoir qu'elles allaient au-delà des «déductions légitimes de la science». Un autre critique des théories extensionnistes a souligné leur «dépendance à des hypothèses ad hoc, telles que les ponts terrestres et les extensions continentales de grande étendue, pour répondre à chaque nouvelle anomalie distributionnelle» (Fichman 1977, p. 62) Le débat sur les théories de dispersion plus parcimonieuses s'est centré sur la question de savoir si le mécanisme de dispersion est suffisant à lui seul pour expliquer les faits connus sur la répartition des espèces,sans postuler aucune entité géographique ou tectonique supplémentaire.

Les critiques adressées aux théories de l'extension et de la dispersion suivent un schéma caractéristique des situations dans lesquelles une théorie est plus parcimonieuse ontologiquement que ses rivales. Dans de telles situations, le débat porte typiquement sur la question de savoir si l'ontologie supplémentaire est vraiment nécessaire pour expliquer les phénomènes observés. Les théories les moins parcimonieuses sont condamnées pour débauche et manque de preuves directes. Les théories les plus parcimonieuses sont condamnées pour leur incapacité à expliquer les faits observés. Cela illustre un thème récurrent dans les discussions sur la simplicité - tant à l'intérieur qu'à l'extérieur de la philosophie - à savoir comment trouver le juste équilibre entre la simplicité et la qualité de l'ajustement. Ce thème occupe une place centrale dans les approches statistiques de la simplicité abordées dans la section 5.

Moins de travail a été fait sur la description des épisodes scientifiques où l'élégance - par opposition à la parcimonie - a été (ou a pu être) le facteur crucial. Cela peut simplement refléter le fait que les considérations liées à l'élégance sont si omniprésentes dans le choix de la théorie scientifique qu'elles ne sont pas remarquables comme sujet d'étude spéciale. Une exception notable à cette négligence générale est le domaine de la mécanique céleste, où la transition de Ptolémée à Copernic à Kepler à Newton est un exemple souvent cité de considérations de simplicité en action, et une étude de cas qui a beaucoup plus de sens lorsqu'elle est vue à travers le lentille d'élégance plutôt que de parcimonie. [15]

Le naturalisme dépend d'un certain nombre de présupposés qui sont sujets à débat. Mais même si ces présuppositions sont accordées, le projet naturaliste de se tourner vers la science comme guide méthodologique au sein de la philosophie se heurte à une difficulté majeure, à savoir comment `` lire '' à partir de la pratique scientifique réelle ce que les principes méthodologiques sous-jacents sont censés être. Burgess, par exemple, soutient que ce que montrent les modèles de comportement scientifique n'est pas un problème de multiplication des entités en soi, mais un souci plus spécifique de multiplication des «mécanismes causaux» (Burgess 1998). Et Sober considère le débat en psychologie sur l'égoïsme psychologique par rapport au pluralisme motivationnel, arguant que la première théorie postule moins de types de désir ultime mais un plus grand nombre de croyances causales,et donc que comparer la parcimonie de ces deux théories dépend de ce qui est compté et comment (Sober 2001, pp. 14–5). Certaines des préoccupations soulevées dans les sections 1 et 2 réapparaissent également dans ce contexte; par exemple, la façon dont le monde est découpé en types influe sur la mesure dans laquelle une théorie donnée «multiplie» les types d'entités. Justifier une manière particulière de trancher devient plus difficile une fois que le naturaliste épistémologique laisse derrière lui les présuppositions a priori et métaphysiques de l'approche rationaliste. Justifier une manière particulière de trancher devient plus difficile une fois que le naturaliste épistémologique laisse derrière lui les présuppositions a priori et métaphysiques de l'approche rationaliste. Justifier une manière particulière de trancher devient plus difficile une fois que le naturaliste épistémologique laisse derrière lui les présuppositions a priori et métaphysiques de l'approche rationaliste.

Un débat philosophique où ces inquiétudes sur le naturalisme deviennent particulièrement aiguës est la question de l'application des principes de parcimonie aux objets abstraits. Les données scientifiques sont - dans un sens important - ambiguë. Les applications du rasoir d'Occam en science concernent toujours des entités concrètes et causalement efficaces, qu'il s'agisse de ponts terrestres, de licornes ou d'éther lumineux. Peut-être que les scientifiques appliquent une version illimitée du rasoir d'Occam à cette partie de la réalité qui les intéresse, à savoir le monde concret, causal et spatio-temporel. Ou peut-être que les scientifiques appliquent sans restriction une version «concrétisée» du rasoir d'Occam. Quel est le cas? La réponse détermine sur quel principe philosophique général on aboutit: faut-il éviter la multiplication d'objets de quelque nature que ce soit,ou simplement la multiplication d'objets concrets? La distinction ici est cruciale pour un certain nombre de débats philosophiques centraux. Le rasoir d'Occam sans restriction favorise le monisme sur le dualisme et le nominalisme sur le platonisme. En revanche, le Rasoir d'Occam «concrétisé» n'a aucun rapport avec ces débats, puisque les entités supplémentaires dans chaque cas ne sont pas concrètes.

5. Justifications probabilistes / statistiques de la simplicité

Les deux approches discutées dans les sections 3 et 4 - le rationalisme a priori et l'empirisme naturalisé - sont toutes deux extrêmes dans un certain sens. Les principes de simplicité sont considérés soit comme n'ayant aucun fondement empirique, soit comme ayant uniquement un fondement empirique. Peut-être en conséquence, ces deux approches donnent des réponses vagues à certaines questions clés sur la simplicité. En particulier, ni l'un ni l'autre ne semble en mesure de répondre à la manière dont la simplicité doit être mise en balance avec l'adéquation empirique. Des théories simples mais extrêmement inexactes ne sont pas difficiles à trouver. Les théories précises ne sont pas non plus très complexes. Mais quelle précision faut-il sacrifier pour gagner en simplicité? Les limites en noir et blanc du fossé rationalisme / empirisme peuvent ne pas fournir les outils appropriés pour analyser cette question. En réponse,Les philosophes se sont récemment tournés vers le cadre mathématique de la théorie des probabilités et des statistiques, espérant dans le processus combiner la sensibilité à la pratique réelle avec la force «trans-empirique» des mathématiques.

Les premiers travaux philosophiquement influents dans cette direction ont été réalisés par Jeffreys et Popper, qui ont tous deux tenté d'analyser la simplicité en termes probabilistes. Jeffreys a fait valoir que «les lois les plus simples ont la plus grande probabilité a priori», et a continué en fournissant une mesure opérationnelle de la simplicité, selon laquelle la probabilité a priori d'une loi est de 2 - k, où k = ordre + degré + valeurs absolues du coefficients, lorsque la loi est exprimée comme une équation différentielle (Jeffreys 1961, p. 47). Une généralisation de l'approche de Jeffreys consiste à ne pas examiner des équations spécifiques, mais des familles d'équations. Par exemple, on pourrait comparer la famille, LIN, des équations linéaires (de la forme y = a + bx) avec la famille, PAR, des équations paraboliques (de la forme y = a + bx + cx 2). Puisque PAR est d'un degré plus élevé que LIN, la proposition de Jeffreys attribue une probabilité plus élevée à LIN. Les lois de cette forme sont intuitivement plus simples (dans le sens d'être plus élégantes).

Popper (1959) souligne que la proposition de Jeffreys, telle qu'elle est, contredit les axiomes de probabilité. Chaque membre de LIN est également membre de PAR, où le coefficient, c, est fixé à 0. Par conséquent, «Law, L, est membre de LIN» implique «Law, L, est un membre de PAR». L'approche de Jeffreys attribue une probabilité plus élevée au premier qu'au second. Mais il résulte des axiomes de probabilité que lorsque A implique B, la probabilité de B est supérieure ou égale à la probabilité de A. Popper soutient, contrairement à Jeffreys, que LIN a une probabilité antérieure plus faible que PAR. Par conséquent, LIN est - au sens de Popper - plus falsifiable, et devrait donc être préféré comme hypothèse par défaut. Une réponse à l'objection de Popper est d'amender la proposition de Jeffrey et de restreindre les membres de PAR aux équations où c ≠ 0.

Des travaux plus récents sur la question de la simplicité ont emprunté des outils aux statistiques ainsi qu'à la théorie des probabilités. Il convient de noter que la littérature sur ce sujet a tendance à utiliser les termes «simplicité» et «parcimonie» plus ou moins de manière interchangeable (voir Sober 2003). Mais, quel que soit le terme préféré, il existe un accord général parmi ceux qui travaillent dans ce domaine sur le fait que la simplicité doit être encaissée en termes de nombre de paramètres gratuits (ou «ajustables») d'hypothèses concurrentes. Ainsi, l'accent est mis ici totalement au niveau de la théorie. Les philosophes qui ont apporté des contributions importantes à cette approche sont Forster et Sober (1994) et Lange (1995).

Le cas standard de la littérature statistique sur la parcimonie concerne l'ajustement des courbes. [16]Nous imaginons une situation dans laquelle nous avons un ensemble de points de données discrets et recherchons la courbe (c'est-à-dire la fonction) qui les a générés. La question de savoir à quelle famille de courbes appartient la réponse (par exemple dans LIN ou PAR) est souvent appelée sélection de modèle. L'idée de base est qu'il existe deux critères concurrents pour la sélection du modèle: la parcimonie et la qualité de l'ajustement. La possibilité d'erreur de mesure et de «bruit» dans les données signifie que la courbe correcte peut ne pas passer par chaque point de données. En effet, si la qualité de l'ajustement était le seul critère, alors il y aurait un risque de «surajustement» du modèle à des écarts accidentels non représentatifs de la régularité plus large. La parcimonie agit comme un contrepoids à un tel surajustement, car une courbe passant par chaque point de données est susceptible d'être très alambiquée et donc d'avoir de nombreux paramètres ajustés.

Si les partisans de l'approche statistique sont généralement d'accord pour dire que la simplicité doit être encaissée en termes de nombre de paramètres, il y a moins d'unanimité sur ce que devrait être l'objectif des principes de simplicité. C'est en partie parce que l'objectif n'est souvent pas rendu explicite. (Un problème analogue se pose dans le cas du rasoir d'Occam. 'Les entités ne doivent pas être multipliées au-delà de la nécessité.' 'Mais la nécessité de quoi, exactement?) Forster distingue deux objectifs potentiels de la sélection de modèle, à savoir la vérité probable et l'exactitude prédictive, et affirme que ceux-ci sont très distincts (Forster 2001, p. 95). Forster soutient que la précision prédictive est généralement ce qui intéresse le plus les scientifiques. Ils se soucient moins de la probabilité qu'une hypothèse soit exactement exacte que de son degré de précision élevé.

Une des raisons pour étudier les approches statistiques de la simplicité est le mécontentement face aux caprices des approches a priori et naturalistes. Les statisticiens ont proposé une variété de propositions numériquement spécifiques pour le compromis entre la simplicité et la qualité de l'ajustement. Cependant, ces propositions alternatives sont en désaccord sur le «coût» associé à des hypothèses plus complexes. Deux principaux prétendants dans la littérature récente sur la sélection de modèles sont le critère d'information d'Akaike [AIC] et le critère d'information bayésien [BIC]. L'AIC demande aux théoriciens de choisir le modèle avec la valeur la plus élevée de {log L (Θ k) / n} - k / n, où Θ kest le membre le mieux ajusté de la classe des courbes de degré polynomial k, log L est la log-vraisemblance et n est la taille de l'échantillon. En revanche, BIC maximise la valeur de {log L (Θ k) / n} - k log [n] / 2 n. En effet, BIC donne une pondération positive supplémentaire à la simplicité par un facteur de log [n] / 2 (où n est la taille de l'échantillon). [17]

Les réponses extrêmes au problème de compromis semblent évidemment insuffisantes. Toujours choisir le modèle le mieux adapté aux données, quelle que soit sa complexité, fait face à la perspective (mentionnée précédemment) d'une erreur de «surajustement» et de bruit dans les données. En choisissant toujours le modèle le plus simple, quel que soit son ajustement aux données, le modèle est libéré de tout lien avec l'observation ou l'expérience. Forster associe respectivement la règle «toujours complexe» et la règle «toujours simple» à l'empirisme et au rationalisme. [18]Toutes les règles candidates qui sont sérieusement discutées par les statisticiens se situent entre ces deux extrêmes. Pourtant, ils diffèrent dans leurs réponses sur le poids à donner à la simplicité dans son compromis avec la qualité de l'ajustement. En plus de l'AIC et du BIC, d'autres règles incluent le test d'hypothèse Neyman-Pearson et le critère de longueur de description minimale (MDL).

Il existe au moins trois réponses possibles aux différentes réponses au problème de compromis fournies par différents critères. Une réponse, favorisée par Forster et par Sober, est de faire valoir qu'il n'y a pas de véritable conflit ici parce que les différents critères ont des objectifs différents. Ainsi, l'AIC et le BIC pourraient tous deux être des critères optimaux, si l'AIC vise à maximiser la précision prédictive alors que BIC vise à maximiser la vérité probable. Une autre différence qui peut influencer le choix du critère est de savoir si le but du modèle est d'extrapoler au-delà de données données ou d'interpoler entre des points de données connus. Une deuxième réponse, généralement privilégiée par les statisticiens,est d'argumenter que le conflit est authentique mais qu'il a le potentiel d'être résolu en analysant (en utilisant à la fois des méthodes mathématiques et empiriques) quel critère fonctionne le mieux dans la classe la plus large de situations possibles. Une troisième réponse, plus pessimiste, consiste à affirmer que le conflit est authentique mais qu'il est insoluble. Kuhn (1977) suit cette ligne, affirmant que le poids que les scientifiques accordent à une vertu théorique particulière, telle que la simplicité, est uniquement une question de goût et n'est pas ouvert à une résolution rationnelle. McAllister (2007) tire la morale ontologique d'une conclusion similaire, faisant valoir que les ensembles de données présentent généralement plusieurs modèles et que différents modèles peuvent être mis en évidence par différentes techniques quantitatives. Kuhn (1977) suit cette ligne, affirmant que le poids que les scientifiques accordent à une vertu théorique particulière, telle que la simplicité, est uniquement une question de goût et n'est pas ouvert à une résolution rationnelle. McAllister (2007) tire la morale ontologique d'une conclusion similaire, faisant valoir que les ensembles de données présentent généralement plusieurs modèles et que différents modèles peuvent être mis en évidence par différentes techniques quantitatives. Kuhn (1977) suit cette ligne, affirmant que le poids que les scientifiques accordent à une vertu théorique particulière, telle que la simplicité, est uniquement une question de goût et n'est pas ouvert à une résolution rationnelle. McAllister (2007) tire la morale ontologique d'une conclusion similaire, faisant valoir que les ensembles de données présentent généralement plusieurs modèles et que différents modèles peuvent être mis en évidence par différentes techniques quantitatives.

Outre cette question des critères contradictoires, il existe d'autres problèmes avec l'approche statistique de la simplicité. Un problème, qui afflige toute approche mettant l'accent sur l'aspect d'élégance de la simplicité, est la relativité du langage. En gros, les hypothèses qui sont syntaxiquement très complexes dans une langue peuvent être syntaxiquement très simples dans une autre. L'illustration philosophique traditionnelle de ce problème est le défi «grue» de Goodman à l'induction. Les approches statistiques de la mesure de la simplicité sont-elles de la même manière relatives au langage et, si oui, qu'est-ce qui justifie le choix d'une langue plutôt qu'une autre? Il s'avère que l'approche statistique a les ressources pour dévier au moins partiellement la charge de relativité linguistique. Emprunter des techniques à la théorie de l'information,on peut montrer que certaines mesures syntaxiques de la simplicité sont asymptotiquement indépendantes du choix du langage de mesure.[19]

Un deuxième problème pour l'approche statistique est de savoir si elle peut expliquer non seulement notre préférence pour les petits nombres par rapport aux grands nombres (lorsqu'il s'agit de choisir des valeurs pour les coefficients ou les exposants dans les équations du modèle), mais aussi notre préférence pour les nombres entiers et les fractions simples sur d'autres valeurs. Dans les expériences originales de Gregor Mendel sur l'hybridation des pois de jardin, il a croisé des variétés de pois avec différents traits spécifiques, tels que des graines hautes contre des graines courtes ou vertes contre des graines jaunes, puis s'est autogame les hybrides pendant une ou plusieurs générations. [20]Dans chaque cas, un trait était présent dans tous les hybrides de première génération, mais les deux traits étaient présents dans les générations suivantes. À travers ses expériences avec sept caractères de ce type différents, le rapport entre le trait dominant et le trait récessif était en moyenne de 2,98: 1. Sur cette base, Mendel a émis l'hypothèse que le vrai rapport est de 3: 1. Cet «arrondi» a été fait avant la formulation de toute explication. modèle, il ne peut donc pas avoir été motivé par une considération spécifique à la théorie. Cela soulève deux questions liées. Premièrement, en quel sens l'hypothèse du ratio 3: 1 est-elle plus simple que l'hypothèse du ratio 2,98: 1? Deuxièmement, ce choix peut-il se justifier dans le cadre de l'approche statistique de la simplicité? Le souci plus général qui sous-tend ces questions est de savoir si l'approche statistique, en définissant la simplicité en termes de nombre de paramètres ajustables,remplace la vaste question de la simplicité par un ensemble de questions définies plus étroitement et peut-être arbitrairement.

Un troisième problème avec l'approche statistique est de savoir si elle peut éclairer la question spécifique de la parcimonie ontologique. À première vue, on pourrait penser que la postulation d'entités supplémentaires peut être attaquée sur des bases probabilistes. Par exemple, la mécanique quantique associée à la postulation «Il existe des licornes» est moins probable que la mécanique quantique seule, puisque la première implique logiquement la seconde. Cependant, comme Sober l'a souligné, il est important ici de faire la distinction entre le rasoir d'Occam agnostique et le rasoir d'Occam athée. Le RO athée dirige les théoriciens pour affirmer que les licornes n'existent pas, en l'absence de toute preuve convaincante en leur faveur. Et il n'y a pas de relation d'implication logique entre {QM + il existe des licornes} et {QM + il n'y a pas de licornes}. Cela renvoie également à la question terminologique. Les modèles impliquant des orbites circulaires sont plus parcimonieux - au sens de «parcimonieux» des statisticiens - que les modèles impliquant des orbites elliptiques, mais ces derniers modèles ne postulent plus l'existence de choses dans le monde.

6. Autres problèmes de simplicité

Cette section aborde trois questions distinctes concernant la simplicité et sa relation avec d'autres questions méthodologiques. Ces questions concernent la parcimonie quantitative, la plénitude et l'induction.

6.1 Parcimonie quantitative

Les théoriciens ont tendance à être frugaux dans leur postulation de nouvelles entités. Lorsqu'une trace est observée dans une chambre à brouillard, les physiciens peuvent chercher à l'expliquer en fonction de l'influence d'une particule jusque-là non observée. Mais, si possible, ils postuleront une telle particule non observée, pas deux, vingt ou 207 d'entre elles. Ce désir de minimiser le nombre de nouvelles entités individuelles postulé est souvent qualifié de parcimonie quantitative. David Lewis exprime l'attitude de nombreux philosophes lorsqu'il écrit:

Je souscris à l'opinion générale selon laquelle la parcimonie qualitative est bonne dans une hypothèse philosophique ou empirique; mais je ne reconnais aucune présomption en faveur de la parcimonie quantitative (Lewis 1973, p. 87).

L'hypothèse initiale selon laquelle une particule agit pour provoquer la trace observée est-elle plus rationnelle que l'hypothèse que 207 particules agissent ainsi? Ou est-ce simplement le produit d'un vœu pieux, d'un parti pris esthétique ou d'une autre influence non rationnelle?

Nolan (1997) examine ces questions dans le contexte de la découverte du neutrino. [21] Les physiciens des années 1930 ont été intrigués par certaines anomalies résultant d'expériences dans lesquelles des atomes radioactifs émettent des électrons pendant la désintégration dite bêta. Dans ces expériences, la rotation totale des particules dans le système avant la désintégration dépasse par 1 / deux spin total des particules émises (observés). Les physiciens de la réponse était de poser un « nouveau » particule élémentaire, le neutrino, avec un spin 1 / 2 et à émettre l' hypothèse que exactement un neutrino est émis par chaque électron au cours de la désintégration bêta.

Notez qu'il existe un large éventail de théories des neutrinos très similaires qui peuvent également expliquer le spin manquant.

H 1: 1 neutrino avec une rotation de 1 / deux est émis dans chaque cas de désintégration bêta.

H 2: 2 neutrinos, chacun avec un spin d' une / quatre sont émis dans chaque cas de désintégration bêta.

et, plus généralement, pour tout entier positif n,

H n: n neutrinos, chacun avec un spin d' une / 2 n sont émis dans chaque cas de désintégration bêta.

Chacune de ces hypothèses explique adéquatement l'observation d'un manque 1 / 2 -spin suivante désintégration bêta. Pourtant, l'hypothèse la plus parcimonieuse sur le plan quantitatif, H 1, est le choix par défaut évident. [22]

Une approche prometteuse est de se concentrer sur le pouvoir explicatif relatif des hypothèses alternatives, H 1, H 2,… H n. Lorsque les neutrinos ont été postulés pour la première fois dans les années 1930, de nombreuses installations expérimentales ont été conçues pour explorer les produits de divers types de désintégration de particules. Dans aucune de ces expériences, des cas de 1 / 3- spin «manquant», ou 1 / 4- spin ou 1 / 100- spin n'ont été trouvés. L'absence de ces spins fractionnaires plus petits était un phénomène que des hypothèses de neutrinos concurrentes pourraient potentiellement aider à expliquer.

Considérez les deux hypothèses de neutrinos concurrentes suivantes:

H 1: 1 neutrino avec une rotation de 1 / deux est émis dans chaque cas de désintégration bêta.

H 10: 10 neutrinos, chacun avec un spin d' une / 20, sont émis dans chaque cas de désintégration bêta.

Pourquoi pas ensemble expérimental a donné un spin-valeur « manquante » de 1 / 20 ? H 1 permet une meilleure réponse à cette question que H 10 ne, H 1 est compatible avec une simple et une explication parcimonieuse, à savoir qu'il n'y existe pas de particules de spin 1 / 20 (ou moins). Dans le cas de H 10, cette explication potentielle est exclue parce que H 10 postule explicitement les particules de spin 1 / 20. Bien sûr, H 10 est compatible avec d' autres hypothèses qui expliquent la non-occurrence de manquer 1 / 20-tourner. Par exemple, on pourrait joindre à H 10 la loi selon laquelle les neutrinos sont toujours émis par groupes de dix. Cependant, cela rendrait l'explication globale moins syntaxiquement simple, et donc moins vertueuse à d'autres égards. Dans ce cas, la parcimonie quantitative apporte un plus grand pouvoir explicatif. Des hypothèses moins parcimonieuses quantitativement ne peuvent égaler cette puissance qu'en ajoutant des revendications auxiliaires qui diminuent leur simplicité syntaxique. Ainsi, la préférence pour les hypothèses quantitativement parcimonieuses apparaît comme une facette d'une préférence plus générale pour des hypothèses ayant un plus grand pouvoir explicatif.

Une caractéristique distinctive de l'exemple du neutrino est qu'il est «additif». Il s'agit de postuler l'existence d'une collection d'objets qualitativement identiques qui expliquent collectivement le phénomène observé. L'explication est additive en ce sens que le phénomène global est expliqué en additionnant les contributions positives individuelles de chaque objet. [23]La question de savoir si l'approche ci-dessus peut être étendue aux cas non additifs impliquant une parcimonie quantitative est une question intéressante. Jansson et Tallant (à paraître) soutiennent que c'est possible et proposent une analyse probabiliste qui vise à rassembler une variété de cas différents où la parcimonie quantitative joue un rôle dans la sélection des hypothèses. Prenons un cas dans lequel les aberrations de l'orbite d'une planète peuvent être expliquées en postulant une seule planète non observée, ou cela peut être expliqué en postulant deux planètes non observées ou plus. Pour que cette dernière situation soit réelle, les planètes multiples doivent orbiter de certaines manières restreintes afin de correspondre aux effets d'une seule planète. À première vue, cela est peu probable, et cela va à l'encontre de l'hypothèse la moins parcimonieuse du point de vue quantitatif.

6.2 Principes de plénitude

À l'encontre des principes de parcimonie évoqués dans les sections précédentes, se trouve une tradition tout aussi fermement enracinée (bien que moins connue) de ce que l'on pourrait appeler «principes de suffisance explicative». [24] Ces principes ont leurs origines dans les mêmes controverses médiévales qui ont engendré le Rasoir d'Occam. Le contemporain d'Ockham, Walter of Chatton, a proposé le contre-principe suivant au rasoir d'Occam:

[Si] trois choses ne suffisent pas pour vérifier une proposition affirmative sur les choses, une quatrième doit être ajoutée, et ainsi de suite (cité dans Maurer 1984, p. 464).

Un contre-principe connexe a ensuite été défendu par Kant:

La variété des entités ne doit pas être diminuée à l'improviste (Kant 1781/1787, p. 541).

Entium varietates non temere esse minuendas.

Il n'y a pas d'incohérence dans la coexistence de ces deux familles de principes, car ils ne sont pas en conflit direct l'un avec l'autre. Les considérations de parcimonie et de suffisance explicative fonctionnent comme des contrepoids mutuels, pénalisant les théories qui s'égarent en insuffisance explicative ou en excès ontologique. [25] Ce que nous voyons ici est un écho historique du débat contemporain parmi les statisticiens concernant le juste compromis entre la simplicité et la qualité de l'ajustement.

Il existe cependant une deuxième famille de principes qui semblent entrer directement en conflit avec le rasoir d'Occam. Ce sont des soi-disant «principes de plénitude». La version la plus connue est peut-être associée à Leibniz, selon lequel Dieu a créé le meilleur de tous les mondes possibles avec le plus grand nombre d'entités possibles. Plus généralement, un principe de plénitude prétend que s'il est possible qu'un objet existe, alors cet objet existe réellement. Les principes de plénitude entrent en conflit avec le rasoir d'Occam sur l'existence d'objets physiquement possibles mais inexplicables. Nos meilleures théories actuelles n'excluent vraisemblablement pas l'existence de licornes, mais elles ne fournissent aucun support pour leur existence. Selon le rasoir d'Occam, nous ne devrions pas postuler l'existence de licornes. Selon un principe de plénitude, nous devons postuler leur existence.

L'essor de la physique des particules et de la mécanique quantique au XXe siècle a conduit les scientifiques à faire appel à divers principes de plénitude comme partie intégrante de leur cadre théorique. Un exemple particulièrement clair d'un tel attrait est le cas des monopôles magnétiques. [26] Le 19 èmeLa théorie du siècle de l'électromagnétisme a postulé de nombreuses analogies entre la charge électrique et la charge magnétique. Une différence théorique est que les charges magnétiques doivent toujours venir en paires de charges opposées, appelées «dipôles» (comme dans les pôles Nord et Sud d'un barreau magnétique), alors que des charges électriques simples, ou «monopôles», peuvent exister isolément. Cependant, aucun monopole magnétique réel n'avait jamais été observé. Les physiciens ont commencé à se demander s'il y avait une raison théorique pour laquelle les monopoles ne pouvaient pas exister. On pensait initialement que la théorie nouvellement développée de la mécanique quantique excluait la possibilité de monopôles magnétiques, et c'est pourquoi aucun n'avait jamais été détecté. Cependant, en 1931, le physicien Paul Dirac a montré que l'existence de monopôles est cohérente avec la mécanique quantique, bien qu'elle ne soit pas requise par elle. Dirac a poursuivi en affirmant l'existence de monopoles, arguant que leur existence n'est pas exclue par la théorie et que «dans ces circonstances, on serait surpris que la nature n'en ait pas fait usage» (Dirac 1930, p. 71, note 5). Cet appel à la plénitude a été largement - mais pas universellement accepté par d'autres physiciens.

L’une des règles élémentaires de la nature est que, en l’absence de lois interdisant un événement ou un phénomène, il est tenu de se produire avec un certain degré de probabilité. Pour le dire simplement et grossièrement: tout ce qui peut arriver arrive. Les physiciens doivent donc supposer que le monopole magnétique existe à moins de trouver une loi interdisant son existence (Ford 1963, p. 122).

D'autres ont été moins impressionnés par l'argumentation de Dirac:

Le raisonnement de Dirac, lorsqu'il conjecture l'existence de monopôles magnétiques, ne diffère pas des arguments du 18 e siècle en faveur des sirènes … [Comme] la notion de sirènes n'était ni intrinsèquement contradictoire ni en collision avec les lois biologiques actuelles, ces créatures étaient supposé exister. [27]

Il est difficile de savoir interpréter ces principes de plénitude. La mécanique quantique diverge de la physique classique en remplaçant un modèle déterministe de l'univers par un modèle basé sur des probabilités objectives. Selon ce modèle probabiliste, il existe de nombreuses façons dont l'univers aurait pu évoluer à partir de son état initial, chacune avec une certaine probabilité de se produire qui est fixée par les lois de la nature. Considérez une sorte d'objet, disons des licornes, dont l'existence n'est pas exclue par les conditions initiales plus les lois de la nature. On peut alors distinguer entre une version faible et une version forte du principe de plénitude. Selon le principe faible, s'il y a une petite probabilité finie que des licornes existent, alors il y aura suffisamment de temps et d'espace pour les licornes. Selon le principe fort,il découle de la théorie de la mécanique quantique que s'il est possible que des licornes existent, alors elles existent. Une façon dont ce dernier principe peut être encaissé est dans l'interprétation «à plusieurs mondes» de la mécanique quantique, selon laquelle la réalité a une structure ramifiée dans laquelle chaque résultat possible est réalisé.

6.3 Simplicité et induction

Le problème de l'induction est étroitement lié à celui de la simplicité. Un lien évident est entre le problème de l'ajustement de courbe et le problème inductif de la prédiction des résultats futurs à partir des données observées. Moins évidemment, Schulte (1999) plaide pour un lien entre l'induction et la parcimonie ontologique. Schulte encadre le problème de l'induction en termes de théorie de l'information: étant donné a>

icône de l'homme Sep
icône de l'homme Sep

Comment citer cette entrée.

icône de l'homme Sep
icône de l'homme Sep

Prévisualisez la version PDF de cette entrée aux Amis de la société SEP.

icône inpho
icône inpho

Recherchez cette rubrique d'entrée sur le projet d'ontologie de la philosophie Internet (InPhO).

icône de papiers phil
icône de papiers phil

Bibliographie améliorée pour cette entrée chez PhilPapers, avec des liens vers sa base de données.

Autres ressources Internet

[Veuillez contacter l'auteur avec des suggestions.]

Recommandé: