Quantificateurs Généralisés

Table des matières:

Quantificateurs Généralisés
Quantificateurs Généralisés

Vidéo: Quantificateurs Généralisés

Vidéo: Quantificateurs Généralisés
Vidéo: Traduire avec des quantificateurs • Nier une proposition • prépa MPSI PCSI ECS CPGE 2024, Mars
Anonim

Navigation d'entrée

  • Contenu de l'entrée
  • Bibliographie
  • Outils académiques
  • Aperçu du PDF des amis
  • Informations sur l'auteur et la citation
  • Retour au sommet

Quantificateurs généralisés

Publié pour la première fois le 5 décembre 2005; révision de fond ven 26 juil.2019

Les quantificateurs généralisés sont désormais un équipement standard dans les boîtes à outils des logiciens et des linguistes. Le but de cette entrée est de décrire ces outils: d'où ils viennent, comment ils fonctionnent et à quoi ils peuvent servir. La description est par nécessité sommaire, mais plusieurs enquêtes plus complètes existent dans la littérature et seront mentionnées le cas échéant. Pour apprécier pleinement le texte ci-dessous, une connaissance de base de la terminologie élémentaire de la théorie des ensembles et du langage de la logique du premier ordre sera utile.

  • 1. Préliminaires
  • 2. Aristote
  • 3. Frege
  • 4. Généralisation du quantificateur universel et existentiel
  • 5. Quantificateurs généralisés de types arbitraires
  • 6. Neutralité du sujet
  • 7. Relativisation
  • 8. Puissance expressive
  • 9. Quantificateurs généralisés et calcul
  • 10. Quantificateurs généralisés et langage naturel
  • 11. Conservativité
  • 12. Extension
  • 13. Symétrie et monotonicité
  • 14. Déterminants qui ne sont pas ISOM
  • 15. Constance
  • 16. Quantificateurs polyadiques en langage naturel
  • 17. Théorie et linguistique GQ
  • 18. Quantification et cognition
  • Bibliographie
  • Outils académiques
  • Autres ressources Internet
  • Entrées connexes

1. Préliminaires

Le terme «quantificateur généralisé» reflète que ces entités ont été introduites dans la logique en tant que généralisations des quantificateurs standards de la logique moderne, (forall) et (exists). [1] Rétrospectivement, on peut dire que (forall) et (exists) se sont avérés être juste deux exemples d'un concept beaucoup plus général de quantificateur, rendant le terme «généralisé» superflu. Aujourd'hui, il est également courant de n'utiliser que «quantificateur» pour la notion générale, mais le «quantificateur généralisé» est encore fréquent pour des raisons historiques. Cet article emploie les deux termes, avec une tendance à insérer «généralisé» dans des contextes logiques, et à le laisser tomber dans des contextes linguistiques.

Nous distinguons les expressions de quantification de ce qu'elles signifient ou désignent, les quantificateurs (généralisés) eux-mêmes. Dans les langages logiques, les expressions de quantificateur sont des opérateurs de liaison de variables. Ainsi, (existe) est l'opérateur familier tel que dans une formule (existe x / f), [2] (existe x) lie toutes les occurrences libres de x dans (f). Cela signifie le quantificateur «il existe» - nous verrons bientôt exactement ce qu'est cet objet. De même, le symbole (Q_0) est souvent utilisé comme opérateur de liaison de variable signifiant «il en existe une infinité».

Dans les langues naturelles, diverses expressions ont été considérées comme des expressions de quantification, par exemple, chacune des expressions anglaises suivantes:

tout, rien, trois livres, les dix professeurs, John, John et Mary, seulement John, les pompiers, tous, au moins cinq, la plupart, tous sauf dix, moins de la moitié des, John's, des étudiants, non… sauf Mary, plus d'hommes que de femmes, généralement, jamais, l'un l'autre. [3]

Que sont donc les quantificateurs généralisés? Avant de répondre à cette question, un bref prélude historique est utile.

2. Aristote

La syllogistique d'Aristote peut être vue comme une étude formelle de la signification des quatre expressions de quantification de base toutes, non, certaines, pas toutes, et de leurs propriétés. Par exemple, la validité, selon Aristote, du syllogisme

tous (A, B) tous (B, C) certains (A, C)

montre qu'il considérait, contrairement à l'usage logique moderne, que tous avaient une importance existentielle, de sorte que Tous A sont B implique que A n'est pas un terme vide. De même, la validité du syllogisme

certains (A, B) tous (B, C) tous (A, C)

exprime que certains sont monotones croissants (comme nous le disons maintenant) dans le deuxième argument. Chaque syllogisme valide formalise une partie du sens de ces expressions quantificateurs, mais l'étude d'Aristote sur leurs propriétés va au-delà de la syllogistique. Il a observé, par exemple, que certains et aucun sont convertibles ou, comme on pourrait le dire maintenant, symétriques, car ils satisfont au schéma

Q (A, B) Q (B, A)

contrairement à tout et pas à tous. De plus, il a étudié comment diverses formes de négation se combinaient avec des expressions de quantification dans (ce qu'on a appelé plus tard) le carré de l'opposition. [4]Les logiciens médiévaux ont continué dans la tradition d'Aristote, mais ont également étendu le raisonnement syllogistique aux cas où A, B pourraient eux-mêmes être des expressions quantifiées, traitant ainsi des prémisses et des conclusions comme Un âne de chaque homme ne court pas (exemple de John Buridan, 14ème siècle). Même si la logique aristotélicienne est en deçà de l'expressivité et de la précision de la logique moderne, la syllogistique a certainement été une contribution décisive à l'étude de la quantification. En fait, des systèmes syllogistiques de diverses puissances expressives ont été récemment étudiés en logique mathématique, précisément en raison de leur affinité avec le raisonnement naturel et de leurs propriétés informatiques simples; voir la section 18 ci-dessous.

Particulièrement intéressant dans le présent contexte est le fait que ces expressions de quantification prennent deux arguments ou termes, et peuvent donc être considérées comme des relations binaires, à la fois syntaxiquement (comme Aristote les a sans doute vu) et sémantique: étant donné que les termes signifient des ensembles d'individus, les expression certains peuvent être considérés comme signifiant la relation de chevauchement, c'est-à-dire d'avoir une intersection non vide, entre deux ensembles, et tout signifie la relation d'inclusion. Notez qu'il ne s'agit pas de relations entre individus mais entre ensembles d'individus - relations de second ordre. En effet, ce sont exactement les quantificateurs généralisés certains et tous, respectivement (sur un univers donné).

Ce fil - que les expressions de quantification signifient des relations de second ordre - n'a été repris par aucun des disciples médiévaux d'Aristote (à notre connaissance). Au lieu de cela, ils ont retenu le fait que les deux termes ont un statut différent: le premier se combine avec l'expression quantificateur pour former une phrase nominale (comme nous le disons maintenant), qui est le sujet de la phrase, tandis que le second est une phrase verbale constituant le prédicat. Cela les a amenés à se concentrer sur ce que le sujet - tous les hommes, certains chiens, aucun marin - signifiait, ce qui semble conceptuellement être une question plus difficile. On pourrait supposer que tous les hommes signifie chaque homme (ou l'ensemble des hommes), et que certains chiens signifie un chien particulier, mais qu'en est-il de aucun marin? En fait, on peut montrer que de telles approches sont vouées à l'échec. [5] La «solution» moderne est que les expressions nominales signifient des ensembles d'ensembles d'individus, de sorte que, par exemple, certains chiens signifient l'ensemble d'ensembles contenant au moins un chien - mais cela semble exiger une approche plus abstraite et mathématique de la sémantique que l'idée, ce qui est au moins implicite chez Aristote, que les phrases de quantification signifient des relations entre (les dénotations de) termes.

3. Frege

La deuxième contribution historique majeure à la théorie des quantificateurs généralisés est venue de «l'inventeur» de la logique moderne, Gottlob Frege, dans les années 1870. En fait, la contribution de Frege est double. Comme le savent tous les étudiants en philosophie, il a introduit le langage de la logique des prédicats, avec des connecteurs sententiels, l'identité et l'opérateur de liaison de variable (forall) (bien que sa notation logique bidimensionnelle ne soit plus utilisée). Ce sont les quantificateurs que les logiciens des années 50 ont commencé à «généraliser». Mais Frege a également formulé explicitement la notion abstraite d'un quantificateur comme une relation de second ordre, ou, comme il l'appelait, un concept de second niveau («Begriff zweiter Stufe»). Il était bien conscient que les quatre quantificateurs aristotéliciens étaient des exemples de premier ordre, mais il voulait éviter de se concentrer sur la forme sujet-prédicat,qu'il considérait (avec beaucoup de justification) comme ayant été un obstacle majeur au développement de la logique après Aristote. C'était donc une découverte importante que ces quantificateurs pouvaient tous être définis en termes de (forall) et d'opérateurs sententiels (en remplaçant tout ((A, B)) par (forall x (A (x) rightarrow B (x))), certains ((A, B)) par (neg / forall x (A (x) rightarrow / neg B (x))), etc.).

En fait, la seule différence significative entre la notion de Frege d'un concept de second niveau et la notion moderne de quantificateur généralisé est que Frege n'avait pas l'idée d'une interprétation ou d'un modèle, que nous maintenant (depuis l'avènement de la théorie des modèles dans le Années 1950) voient comme un univers sur lequel les quantificateurs s'étendent, plus une affectation d'objets sémantiques appropriés aux symboles non logiques. Les symboles de Frege avaient tous des significations fixes, et le seul univers qu'il considérait était la totalité de tout. Mais à part cela, on peut bien dire que c'est Frege qui a découvert les quantificateurs généralisés. Cet aspect de la logique de Frege est cependant resté longtemps en arrière-plan et les théoriciens des modèles des années 50 et 60 ne semblent pas en avoir été conscients.

4. Généralisation du quantificateur universel et existentiel

La logique de prédicat moderne fixe la signification de (forall) et (exists) avec les clauses respectives dans la définition de vérité, qui spécifie inductivement les conditions dans lesquelles une formule (f (x_1, / ldots, x_n)) (avec au plus (x_1, / ldots, x_n) libre) est satisfait par les éléments correspondants (a_1, / ldots, a_n) dans un modèle (M = (M, I)) (où M est l'univers et I la fonction d'interprétation attribuant des extensions appropriées aux symboles non logiques): (M / models / f (a_1, / ldots, a_n)). Les clauses sont (où «iff» comme d'habitude signifie «si et seulement si»)

  • (1) (M / models / forall x / p (x, a_1, / ldots, a_n)) iff pour chaque (a / in M ), (M / models / p (a, a_1, / ldots, a_n))
  • (2) (M / models / existe x / p (x, a_1, / ldots, a_n)) ssi il y a des (a / dans M) st (M / models / p (a, a_1, / ldots, a_n))

Pour introduire d'autres quantificateurs, il faut apprécier le genre d'expressions (forall) et (exists). Syntaxiquement, ce sont des opérateurs liant une variable dans une formule. Pour voir comment ils fonctionnent sémantiquement, il est utile de réécrire légèrement (1) et (2). Premièrement, chaque formule (p (x)) avec une variable libre désigne dans un modèle (M) un sous-ensemble de M; l'ensemble des individus dans M satisfaisant (p (x)). Plus généralement, si (p (x, x_1, / ldots, x_n) = / p (x, / xbar)) a au plus les variables libres affichées et (abar = a_1, / ldots, a_n) sont des éléments de M, soit

) p (x, / abar) ^ { M, x} = {a / in M: / M / models / p (a, / abar) })

soit l'extension de (p (x, / xbar)) dans (M) par rapport à (a_1, / ldots, a_n). Ensuite, nous pouvons reformuler (1) et (2) comme suit:

  • (3) (M / models / forall x / p (x, / abar)) iff (p (x, / abar) ^ { M, x} = M)
  • (4) (M / models / existe x / p (x, / abar)) iff (p (x, / abar) ^ { M, x} neq / emp)

Ainsi, les conditions de droite apparaissent comme des propriétés des ensembles (p (x, / abar)). En fait, on peut penser que (forall) et (exists) désignent ces propriétés, c'est-à-dire la propriété d'être identique à l'univers, et d'être non vide, respectivement. Et maintenant, il est facile de penser à d'autres propriétés d'ensembles qui peuvent également être traitées comme des quantificateurs, par exemple, la propriété de contenir au moins 5, ou exactement 3 éléments, ou d'être infini. [6]

Notez que ces propriétés ne dépendent que de l'univers M, pas du reste du modèle. Extensionnellement, ce sont simplement des ensembles de sous-ensembles de M. Cela conduit à la définition suivante. essentiellement de Mostowski (1957):

Définition 1

Un quantificateur généralisé Q de type ({ langle} 1 { rangle}) est

  • (5) a. syntaxiquement, un opérateur de liaison de variable tel que chaque fois que (f) est une formule (Qx / f) et (Qx) lie toutes les occurrences libres de x dans (f);
  • b. sémantiquement, un mappage d'univers arbitraires (ensembles non vides) M à un ensemble (Q_M) de sous-ensembles de M, qui interprète les formules de la forme (Qx / f) selon la clause) tag {i } M / models Q x / p (x, / abar) text {iff} p (x, / abar) ^ { M, x} in Q_M)

Ici, nous utilisons le même symbole pour l'expression de quantificateur et le mappage qu'elle signifie ou dénote. Ainsi, (forall) est maintenant pris pour désigner le quantificateur universel, également écrit (forall), qui est le mappage donné par

) forall_M = {M })

pour tous M. De même, (existe) désigne le mappage défini par

) exists_M = {A / subseteq M: A / neq / emp })

Et voici quelques autres quantificateurs généralisés:

) tag {6} label {ex-qlist1} begin {alignat} {2} (existe _ { geq 5}) _ M & = {A / subseteq M: | A | / geq 5 } & (| X | / textrm {est la taille ou} && / textrm {cardinalité de} X) (existe _ {= 3}) _ M & = {A / subseteq M: | A | = 3 } (Q_0) _M & = {A / subseteq M: A / text {est infini} } (Q ^ R) _M & = {A / subseteq M: | A | > | MA | } & / textrm {(le “Rescher} && / textrm {quantificateur”)} (Q _ { text {even}}) _ M & = {A / subseteq M: | A | / text {est pair} } end {alignat})

Nous avons maintenant une notion précise de quantificateur généralisé, dont (forall) et (exists) sont des instances, avec une infinité d'autres. De plus, nous voyons comment étendre la logique du premier ordre FO à une logique (FO (Q)), en ajoutant la clause (5a) aux règles de formation, et la clause (5b-i) à la définition de vérité. De même si nous ajoutons plus d'un quantificateur généralisé: (FO (Q_1, / ldots, Q_n)).

Dans une telle logique, on peut être capable de dire des choses qui ne sont pas exprimables en FO. Par exemple, il est bien connu qu'en FO, la notion de finitude ne peut être exprimée. Il n'y a donc aucun moyen de dire, d'une relation d'ordre (<), que chaque élément n'a qu'un nombre fini de prédécesseurs, par exemple. Mais c'est juste le genre de chose que l'on peut exprimer dans (FO (Q_0)):

) tag {7} forall x / neg Q_0 y (y <x))

De même, on ne peut pas dire dans FO qu'un ensemble (fini) A contient exactement la moitié des éléments de l'univers M, mais cela est exprimable dans (FO (Q ^ R)):

) tag {8} neg Q ^ RxA (x) wedge / neg Q ^ Rx / neg A (x))

(Le premier conjoint dit que (| A | / leq | MA |), et le second que (| MA | / leq | A |).)

5. Quantificateurs généralisés de types arbitraires

Une généralisation plus poussée est possible. Premièrement, nous pouvons laisser Q lier une variable dans deux formules ou plus. Deuxièmement, nous pouvons le laisser lier simultanément deux ou plusieurs variables dans (certaines de) ces formules. Le typage de Q indique ceci: Q est de type ({ langle} n_1, / ldots, n_k { rangle}) (où chaque (n_i) est un nombre naturel (geq 1)) si il s'applique aux k formules et lie les variables (n_i) dans la i ème formule. Ceci explique pourquoi les quantificateurs de la section précédente étaient dits de type ({ langle} 1 { rangle}).

Dans le cas général, on choisit normalement des variables distinctes (x_ {i1},)…, (x_ {in_i} = / xbar_i) pour (1 / leq i / leq k), de sorte qu'une formule commençant avec Q a la forme

[Q / xbar_1, / ldots, / xbar_k (f_1, / ldots, / f_k))

où toutes les occurrences libres de (x_ {i1}, / ldots, x_ {in_i}) dans (f_i) deviennent liées. Maintenant Q associe à chaque univers M une relation k -ary (Q_M) entre relations sur M, où le i ème argument est une relation (n_i) - aire entre individus. La clause correspondante dans la définition de la vérité devient

) tag {9} M / models Q / xbar_1, / ldots, / xbar_k (p_1 (xbar_1, / abar), / ldots, / p_k (xbar_k, / abar)) textrm {iff} / Q_M (p_1 (xbar_1, / abar) ^ { M, / xbar_1}, / ldots, / p_k (xbar_k, / abar) ^ { M, / xbar_k}))

Ici (p_i (xbar_i, / ybar)) est une formule avec au plus les variables libres affichées, (abar) est une suite d'éléments de M correspondant à (ybar), et (p_i (xbar_i, / abar) ^ { M, / xbar_i}) est l'extension de (p_i (xbar_i, / ybar)) dans (M) par rapport à (abar), c'est-à-dire l'ensemble des (n_i) - tuples (bbar_i) tels que (M / models / p_i (bbar_i, / abar)).

C'est le concept officiel d'un quantificateur généralisé dans cet article. Il a été introduit par Lindström (1966), et ces quantificateurs sont parfois appelés «quantificateurs Lindström». [7] Si nous fixons M à l'univers contenant «tout», nous avons essentiellement la notion de Frege d'un concept de second niveau. [8]

Q est monadique si sur chaque univers M c'est une relation entre des sous-ensembles de M, c'est-à-dire si son type est ({ langle} 1, / ldots, 1 { rangle}); sinon c'est polyadique. Par exemple, les quantificateurs aristotéliciens mentionnés précédemment sont de type ({ langle} 1,1 { rangle}): [9]

) tag {10} label {ex-qlist2} begin {align} textit {all} _M (A, B) & / iff A / subseteq B \\ / textit {certains} _M (A, B) & / iff A / cap B / neq / emp \\ / textit {no} _M (A, B) & / iff A / cap B = / emp \\ / textit {not all} _M (A, B) & / ssi A / not / subseteq B / end {align})

Voici d'autres quantificateurs de type ({ langle} 1,1 { rangle}): [10]

) tag {11} label {ex-qlist3} begin {alignat} {2} (textit {au moins cinq}) _ M (A, B) & / iff | A / cap B | / geq 5 (textit {exactement trois}) _ M (A, B) & / iff | A / cap B | = 3 \(textit {un nombre infini}) _ M (A, B) & / ssi A / cap B / text {est infini} / \ textit {le plus} _M (A, B) & / iff | A / cap B |> | AB | \(textit {un nombre pair de}) _ M (A, B) & / iff | A / cap B | / text {est pair} / \ textit {MO} _M (A, B) & / iff | A | > B | \\ / textit {I} _M (A, B) & / iff | A | = | B | & / textrm {(le "Härtig} && / textrm {quantificateur")} end {alignat})

Avec les quantificateurs monadiques, il est pratique d'utiliser une seule variable et de laisser Q lier cette même variable dans chacune des formules. Ainsi, pour dire que la plupart des A s ne sont pas B, par exemple, on peut écrire

) textit {la plupart}: x (A (x), / neg B (x)))

dans le langage logique correspondant, plutôt que (textit {most}: x, y (A (x), / neg B (y))).

Voici quelques quantificateurs polyadiques:

) tag {12} label {ex-qlist4} begin {alignat} {2} W_M (R) & / iff R / text {est un bon ordre de} M & / textrm {type} { langle } 2 { rangle} (Q_0 ^ n) _M (R) & / iff / text {il y a un infini} & / hphantom { iff } A / subseteq M / ST A ^ n / subseteq R & / textrm {type} { langle} n { rangle} / Res ^ k (textit {most}) _ M (R, S) & / iff | R / cap S | > | RS | & / textrm {type} { langle} k, k { rangle} / \ textit {RECIP} _M (A, R) & / iff / textrm {pour tout distinct} a, b / dans A \& / hphantom { iff } textrm {il y a} n / geq 1 \& / hphantom { iff } textrm {et} c_0, / ldots, c_n / ST c_0 = a \& / hphantom { iff } {} amp c_n = b / amp c_iRc_ {i + 1} textrm {for} i <n / quad & / textrm {type} { langle} 1,2 { rangle} end {alignat}]

W et (Q_0 ^ n) proviennent de la logique et de la théorie des ensembles. (Res ^ k (textit {most})) est la reprise de la plupart des k -tuples. La reprise peut être appliquée à n'importe quel quantificateur (dans la syntaxe, cela signifie remplacer chaque variable individuelle par un k -tuple correspondant de variables); il a des usages logiques mais aussi, comme RECIP, des usages dans l'interprétation de certaines phrases en langues naturelles; voir la section 16 ci-dessous.

6. Neutralité du sujet

Mostowski et Lindström avaient une condition supplémentaire dans leurs définitions des quantificateurs généralisés: ils ne devraient pas distinguer les modèles isomorphes. Informellement, ils sont "neutres au sujet": la vérité d'une déclaration de la forme (f = Qx, yz (A (x), R (y, z))), disons, dans un modèle (M) ne dépend pas des individus particuliers dont M se compose. Si les individus de M sont mappés de manière univoque sur les individus d'un autre univers (M '), et si A et R sont mappés en conséquence, on obtient un modèle isomorphe (M'). Isomorphism Closure dit alors que (M / models / f) iff (M '\ models / f).

Plus formellement, si (M = (M, I)) et (M '= (M', I ')) sont des modèles pour le même vocabulaire V de symboles non logiques, f est un isomorphisme de (M) à (M '), ssi

  • f est une bijection (une fonction un-un sur) de M vers (M ');
  • chaque fois que P est un symbole de prédicat n -ary dans V et (a_1, / ldots, a_n / in M ), [(a_1, / ldots, a_n) in I (P) textrm {iff} (f (a_1), / ldots, f (a_n)) in I '(P);)
  • chaque fois que c est une constante individuelle dans V, (I '(c) = f (I (c))).

(M) et (M ') sont isomorphes, en symboles,) M / cong / M ')

s'il y a un isomorphisme de l'un à l'autre. Maintenant, si Q est un quantificateur généralisé de type ({ langle} n_1, / ldots, n_k { rangle}), (P_i) est un symbole de prédicat (n_i) - ary pour (1 / leq i / leq k), (M = (M, I)) est un modèle pour le vocabulaire ({P_1, / ldots, P_k }), et (R_i = I (P_i)), nous écrivons aussi

) M = (M, R_1, / ldots, R_k))

Alors Q satisfait Isomorphism Closure, ou juste Isom, si ce qui suit est vrai:

) tag {13} label {ex-isom} textrm {If} (M, R_1, / ldots, R_k) cong (M ', R'_1, / ldots, R'_k), / textrm { puis} / Q_M (R_1, / ldots, R_k) Leftrightarrow Q_ {M '} (R'_1, / ldots, R'_k).)

On vérifie facilement que tous les quantificateurs généralisés illustrés jusqu'à présent sont bien Isom. Cependant, nous n'avons pas inclus cette exigence dans la définition des quantificateurs généralisés, car il existe des quantificateurs en langage naturel qui ne la satisfont pas; voir ci-dessous. Mais la logique est censée être neutre sur le sujet, donc Isom est presque toujours imposé. Ensuite, deux choses importantes suivent. Premièrement, comme indiqué ci-dessus, les phrases dans les langages logiques ne distinguent pas les modèles isomorphes. Plus précisément, nous avons les éléments suivants

Fait 2

Si (L = / FO (Q_1, / ldots, Q_n)), chaque (Q_i) est Isom, (f) est une phrase L, et (M / cong / M '), puis (M / models / f / Leftrightarrow / M '\ models / f).

Deuxièmement, Isom prend une forme particulièrement intéressante pour les quantificateurs monadiques. Si (M = (M, A_1, / ldots, A_k)), où (A_i / subseteq M) pour chaque i, alors (A_1, / ldots, A_k) partition M en (2 ^ k) sous-ensembles disjoints par paires (dont certains peuvent être vides); appelons-les les parties de (M). Nous illustrons avec (k = 2) et (M = (M, A, B)):

deux cercles qui se croisent à l'intérieur d'une boîte (la boîte étiquetée «M») avec «A intersectant B» marquant l'intersection du cercle et «A moins B» et «B moins A» indiquant les parties non intersectantes des cercles. La zone à l'intérieur de la boîte mais pas dans les cercles est étiquetée `` M moins (A union B) ''
deux cercles qui se croisent à l'intérieur d'une boîte (la boîte étiquetée «M») avec «A intersectant B» marquant l'intersection du cercle et «A moins B» et «B moins A» indiquant les parties non intersectantes des cercles. La zone à l'intérieur de la boîte mais pas dans les cercles est étiquetée `` M moins (A union B) ''

Figure 1

Or, il n'est pas difficile de voir que seules les tailles des pièces déterminent si deux modèles de ce type sont isomorphes ou non:

Fait 3

((M, A_1, / ldots, A_k) cong (M ', A'_1, / ldots, A'_k)) ssi les cardinalités des parties correspondantes sont les mêmes.

Cela montre que les quantificateurs généralisés monadiques et Isom ne traitent en effet que des quantités, c'est-à-dire des tailles d'ensembles plutôt que des ensembles eux-mêmes. La liste / eqref {ex-qlist3} de type ({ langle} 1,1 { rangle}) quantificateurs généralisés illustre bien cela, mais aussi les quantificateurs aristotéliciens peuvent être formulés en termes de cardinalités,) begin {align} textit {all} _M (A, B) & / iff | AB | = 0 \\ / textit {some} _M (A, B) & / iff | A / cap B |> 0 / end {align})

etc., et de même pour les exemples de type ({ langle} 1 { rangle}) que nous avons donnés.

Plus généralement, sous Isom, les quantificateurs monadiques peuvent être considérés comme des relations entre des nombres (cardinaux). Par exemple, si Q est de type ({ langle} 1 { rangle}), alors définissez (en utilisant le même symbole Q pour la relation entre les nombres)

[Q (kappa, / lambda) iff / text {il y a} (M, A) ST | M \! - \! A | = / kappa / amp | A | = / lambda / amp Q_M (A))

Isom garantit que cela est bien défini, et nous avons

[Q_M (A) iff Q (| M \! - \! A |, | A |))

7. Relativisation

Toute déclaration impliquant un quantificateur généralisé Q a lieu dans un univers M. Parfois, il est utile de pouvoir refléter cette relativisation dans un univers à l'intérieur de M. Cela signifie définir un nouveau quantificateur avec un argument supplémentaire qui dit que Q se comporte sur l'univers restreint à cet argument exactement comme il se comporte sur M. Ainsi, si Q est de type ({ langle} n_1, / ldots, n_k { rangle}), nous définissons (Q {^ { text {rel}}}) de type ({ langle } 1, n_1, / ldots, n_k { rangle}) comme suit:

) tag {14} (Q {^ { text {rel}}}) _ M (A, R_1, / ldots, R_ {n_k}) mathbin { Longleftrightarrow _ { text {def}}} Q_A (R_1 \! / restriction \! A, / ldots, R_ {n_k} ! / restriction \! A))

où (R_i / subseteq M ^ {n_i}) et (R_i \! / restriction \! A) est la restriction de (R_i) à A, c'est-à-dire l'ensemble des (n_i) - tuples dans (R_i / cap A ^ {n_i}).

Nous avons en effet déjà vu plusieurs exemples de relativisation: puisque l'on vérifie facilement (voir les listes / eqref {ex-qlist1} et / eqref {ex-qlist3}) que

) tag {15} begin {align} textit {all} & = / forall {^ { text {rel}}} / \ textit {certains} & = / existe {^ { text {rel} }} / \ textit {au moins cinq} & = (existe _ { geq 5}) {^ { text {rel}}} / \ textit {exactement trois} & = (existe _ {= 3}) {^ { text {rel}}} / \ textit {infiniment nombreux} & = (Q_o) {^ { text {rel}}} / \ textit {la plupart} & = (Q ^ R) {^ { text {rel}}} / \ textit {un nombre pair de} & = (Q _ { text {pair}}) {^ { text {rel}}} end {align})

8. Puissance expressive

Nous avons décrit comment des quantificateurs généralisés peuvent être ajoutés à FO, résultant en des logiques plus expressives. Une logique dans ce sens consiste en gros en un ensemble de phrases, une classe de modèles et une relation de vérité (ou une relation de satisfaction) entre des phrases et des modèles. Ces logiques sont souvent appelées logiques de la théorie des modèles, car elles sont définies sémantiquement en termes de modèles et de vérité, plutôt que de preuves théoriques en termes de système déductif pour dériver des théorèmes. [11] Ici, nous limitons notre attention aux logiques de la forme (FO (Q_1, Q_2, / ldots)), formée en ajoutant des quantificateurs généralisés à FO, où chaque quantificateur est livré avec une règle de formation et une clause sémantique pour la vérité définition comme décrit dans la section 5 ci-dessus.

Il existe un moyen évident de comparer le pouvoir expressif des logiques de la théorie des modèles. (L_2) est au moins aussi expressif que (L_1), en symboles, [L_1 / leq L_2)

si chaque (L_1) - phrase (f) est logiquement équivalente à une (L_2) - phrase (p), c'est-à-dire que (f) et (p) sont vrai dans les mêmes modèles. De plus, (L_1) et (L_2) ont le même pouvoir expressif, (L_1 / equiv L_2), if (L_1 / leq L_2) et (L_2 / leq L_1), et (L_2) est plus fort que (L_1), (L_1 <L_2), si (L_1 / leq L_2) mais (L_2 / not / leq L_1). Ainsi, (L_1 <L_2) si tout ce qui peut être dit dans (L_1) peut également être dit dans (L_2), mais il y a une phrase (L_2) - qui n'équivaut à aucune phrase dans (L_1).

Comment établir des faits sur le pouvoir expressif? Il semble que pour montrer (L_1 / leq L_2), il faut parcourir toutes les infiniment nombreuses phrases de (L_1) et pour chacune trouver un équivalent dans (L_2). Mais en pratique il suffit de montrer que les quantificateurs généralisés dans (L_1) sont définissables dans (L_2). Si Q est de type ({ langle} 1,2 { rangle}), disons, Q est définissable dans (L_2) s'il existe une (L_2) - phrase (p) dont le vocabulaire non logique se compose exactement d'un symbole de prédicat unaire et binaire, de sorte que pour tous les modèles (M = (M, A, R)), [Q_M (A, R) iff (M, A, R) models / p)

De même pour les autres types. Par exemple, le quantificateur tout est définissable dans FO, puisque ce qui suit est valable:

) textit {tous} _M (A, B) iff (M, A, B) models / forall x (A (x) rightarrow B (x)))

De même, (Q ^ R) est définissable dans (FO (textit {most})), puisque

[(Q ^ R) _M (A) iff (M, A, B) models / textit {la plupart}: x (x = x, A (x)))

(notez que toutes nos logiques contiennent l'appareil logique de FO, donc ce sont toutes des extensions de FO). Ce dernier est un exemple de l'observation suivante:

(16) Pour tout quantificateur généralisé Q, Q est définissable dans (FO (Q {^ { text {rel}}}))

De tels faits sur la définissabilité peuvent être faciles ou difficiles à établir [12], mais ils suffisent à établir des faits positifs sur l'expressivité, puisque nous avons:

Fait 4

(FO (Q_1, / ldots, Q_n) leq L) si et seulement si chaque (Q_i) est définissable dans L.

D'un autre côté, prouver l'inexprimabilité, c'est-à-dire qu'une phrase n'est équivalente à aucune L-phrase, est plus difficile. Une façon qui fonctionne parfois est d'établir que (L_1) a une propriété qui manque à (L_2); alors on pourrait conclure que (L_1 / not / leq L_2). Certaines propriétés typiques de FO, mais qui échouent pour les logiques les plus fortes, sont:

  • La propriété de Löwenheim: si une phrase est vraie dans un modèle infini, c'est également vrai dans un modèle dénombrable.
  • La propriété Tarski: si une phrase est vraie dans un modèle infini dénombrable, c'est également vrai dans un modèle indénombrable.
  • La propriété de compacité: si aucun modèle ne rend vrai chaque élément de l'ensemble de phrases (Phi), alors il existe un sous-ensemble fini (Psi) de (Phi) tel qu'aucun modèle ne rend chaque phrase de (Psi) vrai.
  • La propriété d'exhaustivité: L'ensemble des phrases valides est récursivement énumérable (c'est-à-dire peut être généré par un système formel).

Par exemple, (FO (Q_0)) n'a pas la propriété de compacité. [13] Cela peut être vu en regardant l'ensemble des phrases

) Phi \: = \: { neg Q_0x (x = x) cup { theta_n: n = 1,2, / ldots })

où (theta_n) est une phrase FO indiquant qu'il y a au moins n éléments dans l'univers. Si vous prenez un sous-ensemble fini (Phi ') de (Phi), et M est un univers dont la cardinalité est le plus grand n tel que (theta_n) appartient à (Phi'), alors toutes les phrases de (Phi ') sont vraies dans M. Mais aucun univers ne peut rendre toutes les phrases de (Phi) vraies. Et cela montre que (Q_0) n'est pas définissable dans FO, c'est-à-dire que (FO (Q_0) not / leq / FO), sinon nous pourrions remplacer (Phi) par un ensemble équivalent de FO -sentences, mais FO a la propriété de compacité, de sorte que c'est impossible.

Cependant, cette façon de prouver l'inexprimabilité ne fonctionne que pour les logiques avec des propriétés comme celles ci-dessus. De plus, ils ne fonctionnent que si des univers infinis sont autorisés, mais des faits d'inexprimabilité intéressants sont également valables pour les modèles finis, par exemple, le fait que (Q ^ R) et (Q _ { text {even}}) ne sont pas définissables dans FO, ou que la plupart = ((Q ^ R) {^ { text {rel}}}) n'est pas définissable dans (FO (Q ^ R)). Les logiciens ont développé des méthodes beaucoup plus directes et efficaces pour montrer les résultats d'indéfinissabilité qui fonctionnent également pour les modèles finis. [14]

Les propriétés ci-dessus caractérisent en fait FO, en ce sens qu'aucune extension propre de FO ne peut avoir (certaines combinaisons de) celles-ci. C'est le contenu d'un célèbre théorème sur les logiques de la théorie des modèles, le théorème de Lindström, dont une version est donnée ci-dessous. Pour une preuve accessible, voir, par exemple, Ebbinghaus, Flum et Thomas (1994). On dit qu'une logique (L = / FO (Q_1, / ldots, Q_n)) relativise si la «réciproque» de (16) est vraie pour chaque (Q_i), c'est-à-dire si chaque ((Q_i) { ^ { text {rel}}}) est définissable dans L.

Théorème 5 (Lindström) Si L est compact et a la propriété de Löwenheim, alors (L / equiv / FO). Aussi, à condition que L relativise, si L est complet et a la propriété Löwenheim, ou si L a à la fois les propriétés Löwenheim et Tarski, alors (L / equiv / FO).

9. Quantificateurs généralisés et calcul

En plus des conditions de vérité associées aux quantificateurs généralisés, on peut étudier les calculs nécessaires pour établir la vérité d'un énoncé quantifié dans un modèle. En effet, des quantificateurs généralisés apparaissent à divers endroits dans la partie de l'informatique qui étudie la complexité du calcul. Dans ce contexte, nous limitons l'attention aux univers finis et supposons Isom partout. Un quantificateur est donc essentiellement un ensemble de modèles finis; par Isom on peut supposer que les modèles de cardinalité m ont tous le même domaine (M = {1, / ldots, m }). Ces modèles peuvent être codés sous forme de mots, c'est-à-dire de chaînes finies de symboles. Par exemple, un modèle ((M, A)) de type ({ langle} 1 { rangle}) peut être vu comme un mot binaire (a_1 / ldots a_m), où (a_i) vaut 1 si (i / dans A) et 0 sinon. Ainsi (| A |) est le nombre de 1 et (| M \! - \! A |) le nombre de 0; par Isom,l'ordre dans la chaîne n'a pas d'importance. Ainsi Q devient un ensemble (W_Q) de mots, c'est-à-dire un langage formel: un sous-ensemble de l'ensemble de toutes les chaînes finies de symboles de codage.[15]

Nous pouvons maintenant nous demander ce qu'il faut pour reconnaître qu'un mot appartient à (W_Q). La notion abstraite d'automate donne une réponse; les automates sont des machines qui acceptent ou rejettent des mots, et ils sont classés en fonction de la complexité des opérations qu'ils effectuent. Le langage reconnu par un automate est l'ensemble des mots qu'il accepte. [16]

Un automate fini a un nombre fini d'états, y compris un état de départ et au moins un état d'acceptation. Il commence à balayer un mot au niveau du symbole le plus à gauche dans l'état de départ, et à chaque étape, il déplace un symbole vers la droite et entre (éventuellement) dans un nouvel état, selon une fonction de transition donnée. S'il peut se déplacer le long du mot entier se terminant dans un état d'acceptation, le mot est accepté. L'application de la théorie des automates aux quantificateurs généralisés a été initiée dans van Benthem (1986) (Ch. 7, «Automates sémantiques»). Il est facile de construire un automate fini reconnaissant (forall) (ou (forall {^ { text {rel}}} =) all), c'est-à-dire en vérifiant que w n'est constitué que de 1: il suffit de rester dans l'état de départ = état d'acceptation tant que des 1 sont rencontrés, mais passez à un état de rejet dès qu'un 0 est scanné, et y restez tout ce qui est rencontré par la suite. Un automate un peu plus complexe reconnaît (Q _ { text {even}}): encore une fois, il y a deux états, un état de départ = l'état d'acceptation et un état de rejet, et cette fois restent dans le même état lorsque les 0 sont scannés, mais passez à l'autre état lorsqu'un 1 est scanné. Pour terminer dans l'état d'acceptation, il est alors nécessaire et suffisant qu'il y ait un nombre pair de 1. Cette machine utilise essentiellement des cycles de longueur 2, alors que le premier exemple ne comportait que 1 cycles. Appelez un automate de ce dernier type acyclique. Van Benthem a montré que les quantificateurs définissables par FO sont exactement ceux acceptés par les automates finis qui sont acycliques et permutés fermés.et cette fois restent dans le même état lorsque les 0 sont balayés, mais passent à l'autre état quand un 1 est balayé. Pour terminer dans l'état d'acceptation, il est alors nécessaire et suffisant qu'il y ait un nombre pair de 1. Cette machine utilise essentiellement des cycles de longueur 2, alors que le premier exemple ne comportait que 1 cycles. Appelez un automate de ce dernier type acyclique. Van Benthem a montré que les quantificateurs définissables par FO sont exactement ceux acceptés par les automates finis acycliques et à permutation fermée.et cette fois restent dans le même état lorsque les 0 sont balayés, mais passent à l'autre état quand un 1 est balayé. Pour terminer dans l'état d'acceptation, il est alors nécessaire et suffisant qu'il y ait un nombre pair de 1. Cette machine utilise essentiellement des cycles de longueur 2, alors que le premier exemple ne comportait que 1 cycles. Appelez un automate de ce dernier type acyclique. Van Benthem a montré que les quantificateurs définissables par FO sont exactement ceux acceptés par les automates finis acycliques et à permutation fermée. Van Benthem a montré que les quantificateurs définissables par FO sont exactement ceux acceptés par les automates finis qui sont acycliques et permutés fermés. Van Benthem a montré que les quantificateurs définissables par FO sont exactement ceux acceptés par les automates finis acycliques et à permutation fermée.[17]

Un automate légèrement plus complexe, l'automate de refoulement, dispose de ressources mémoire rudimentaires sous la forme d'une pile de symboles qui peuvent être poussés ou sautés du haut, lui permettant de suivre dans une certaine mesure ce qui s'est passé aux étapes précédentes. Un autre résultat de van Benthem est que les quantificateurs de type ({ langle} 1 { rangle}) acceptés par les automates pushdown sont précisément ceux pour lesquels la relation binaire correspondante entre les nombres est définissable (avec des moyennes du premier ordre) en arithmétique additive, c'est-à-dire dans le modèle ((N, +)), où (N = {0,1,2, / ldots }). Un exemple est (Q ^ R) (ou sa relativisation le plus): nous avons (Q ^ R (m, n) Leftrightarrow m <n), et le côté droit est définissable dans ((N, +)) par (existe x (x / neq 0 / wedge m + x = n)). [18]

Ainsi, une caractérisation algorithmique est mise en correspondance avec une caractérisation logique. Il s'agit d'une direction importante dans l'étude de la complexité algorithmique. Considérons maintenant les automates abstraits ou les dispositifs de calcul les plus généraux, c'est-à-dire les machines de Turing. Une (parmi tant d'autres) classes de complexité intéressantes est PTIME: un problème, identifié avec son ensemble de mots correspondant, est PTIME s'il existe un polynôme (p (x)) et une machine de Turing acceptant W tels que chaque fois que (w / dans W) a la longueur n, le calcul d'acceptation prend au plus (p (n)) pas. Les problèmes PTIME sont généralement considérés comme «traitables», alors que les problèmes plus complexes sont «insolubles», tels que ceux EXPTIME, où le nombre d'étapes requises peut augmenter de façon exponentielle. Un des premiers résultats d'Immerman et Vardi est que les ensembles PTIME de modèles finis (codant des mots) sont précisément ceux qui peuvent être décrits par des phrases simples dans (FO (LFP)), qui est une logique FO avec un mécanisme supplémentaire pour former le moins fixe -points.[19] Ici, nous devons représenter non seulement des modèles monadiques, mais des modèles arbitraires. Par exemple, une relation binaire sur l'univers ({1, / ldots, m }) peut être représentée par un mot (w_ {11} cdots w_ {1m} # / ldots / #w_ {m1 } cdots w_ {mm}), où la relation est valable pour ((i, j)) iff (w_ {ij} = 1). Mais cette fois, l'ordre semble avoir une importance, et en fait le résultat d'Immerman et Vardi que nous venons de mentionner n'est valable que pour les modèles avec un ordre linéaire donné et un symbole de prédicat binaire représentant cet ordre.

Les logiques telles que (FO (LFP)) peuvent être refondues en tant que logiques de la forme (FO (Q_1, Q_2, / ldots)). Ici, une infinité de quantificateurs peuvent être nécessaires, mais dans certains cas, un seul suffit. Quant à (FO (LFP)), il suffit d'ajouter toutes les reprises (voir la fin de la section 5 ci-dessus) d'un seul quantificateur. Plus généralement, soit (FO ^ * (Q_1, Q_2, / ldots)) être comme (FO (Q_1, Q_2, / ldots)) mais avec des mécanismes pour faire des relativisations (section 7) et pour reprendre chacune (Q_i) à k -tuples pour chaque k. Alors il y a un seul quantificateur Q tel que (FO (LFP) = / FO ^ * (Q)).

Les quantificateurs généralisés restent donc un moyen simple et polyvalent d'ajouter une puissance expressive à FO. Une question naturelle était de savoir si la caractérisation logique de PTIME mentionnée ci-dessus pourrait être améliorée en utilisant des quantificateurs généralisés, en particulier si l'on pouvait supprimer la restriction aux structures ordonnées de cette manière. La réponse, cependant, s'est avérée négative, puisque Hella (1989) a prouvé que les propriétés calculables PTIME de structures finies arbitraires ne peuvent pas être caractérisées en ajoutant un nombre fini de quantificateurs généralisés à FO, ou même à (FO (LFP)). La question de savoir si PTIME peut être caractérisée par une logique de la forme (FO ^ * (Q)) reste cependant ouverte (en effet, la résoudre serait une avancée majeure dans la théorie de la complexité).

10. Quantificateurs généralisés et langage naturel

À la fin des années 1960, Richard Montague a montré comment la sémantique de parties importantes des langages naturels pouvait être gérée avec des outils logiques. [20] L'une de ses principales idées était que les expressions nominales (NP) peuvent être interprétées comme des ensembles de sous-ensembles du domaine, c'est-à-dire comme (ce que nous appelons maintenant) des quantificateurs de type ({ langle} 1 { rangle}). Montague a travaillé dans la théorie des types, mais vers 1980, un certain nombre de linguistes et de logiciens ont commencé à appliquer le cadre théorique des modèles des logiques avec des quantificateurs généralisés à la sémantique du langage naturel. [21] Considérons la structure d'une phrase anglaise simple dont le sujet est un NP quantifié: [22]

  • (17)

    Arbre linguistique [S [NP [Det [la plupart] [N [étudiants] [VP [fumée]
    Arbre linguistique [S [NP [Det [la plupart] [N [étudiants] [VP [fumée]

Le NP (sujet) se compose d'un déterminant et d'un nom (N). Le nom et la phrase verbale (VP) ont des ensembles comme extensions, et donc le déterminant est naturellement pris pour désigner une relation binaire entre ensembles, c'est-à-dire un quantificateur de type ({ langle} 1,1 { rangle}). Un énoncé de (17) a un univers (de discours) en arrière-plan (par exemple, l'ensemble des personnes d'une université particulière), mais la signification de la plupart, toutes, au moins cinq expressions similaires n'est pas liée à des univers particuliers. Par exemple, la signification de tout dans

  • (18) a. Tous les chats aiment le lait.
  • b. Tous les électrons ont une charge négative.
  • c. Tous les nombres naturels ont un successeur.
  • ré. Tous les jumeaux s'aiment.
  • e. Tous les sous-ensembles compacts d'espaces Hausdorff sont fermés.

n'a rien à voir avec les chats ou les électrons ou les nombres ou les jumeaux ou les espaces de Hausdorff, ni avec les univers discursifs qui peuvent être associés aux exemples ci-dessus. Cela signifie simplement la relation d'inclusion, indépendamment de ce dont nous parlons. Par conséquent, le quantificateur généralisé all, qui à chaque univers M associe la relation d'inclusion sur M, est parfaitement adapté pour tout interpréter, et de même pour d'autres déterminants.

Cependant, il est caractéristique des phrases de la forme (17) que l'argument nom et l'argument VP ne sont pas sur un pied d'égalité. Le nom se combine avec le déterminant pour former le NP, un constituant séparé, et ce constituant peut aussi être pris pour signifier un quantificateur généralisé, cette fois de type ({ langle} 1 { rangle}). Ainsi, au moins cinq étudiants désigne l'ensemble des sous-ensembles de l'univers qui contiennent au moins cinq étudiants. Ce quantificateur résulte du gel du premier argument de type ({ langle} 1,1 { rangle}) trois à l'ensemble des étudiants; nous écrivons ces trois (^ { textit {étudiant}}). En général, si A est un ensemble fixe et Q un quantificateur de type ({ langle} 1,1 { rangle}), on peut définir le type ({ langle} 1 { rangle}) quantificateur (Q ^ A) par

) tag {19} label {QA} (Q ^ A) _M (B); / Longleftrightarrow _ { text {def}}; Q_ {M / cup A} (A, B))

pour tout M et tout (B / subseteq M). Dans une sémantique compositionnelle, il est naturel de prendre chaque partie constitutive d'une phrase pour avoir une signification ou un sens séparé, et les significations par défaut des expressions nominales sont des quantificateurs de type ({ langle} 1 { rangle}).

Cela vaut également pour certains NP qui manquent de déterminants, tels que les noms propres. Alors que l'item lexical John est assigné à un individu j par une interprétation, le NP John peut être pris pour désigner le quantificateur (I_j), défini, pour tout M, par

[(I_j) _M = {B / subseteq M / !: j / in B })

Ceci est en fait bien motivé, non seulement parce que l'interprétation des NP devient plus uniforme, mais aussi parce que John peut combiner avec des NP quantifiés:

(20) John et trois professeurs sont venus à la réunion

Ici, il est pratique que John et trois professeurs aient la même catégorie sémantique. Notez que les quantificateurs généralisés - contrairement aux individus! - ont une structure booléenne claire; define (ici dans le cas type ({ langle} 1 { rangle}), mais de même pour tout autre type)

) begin {align} (Q_1 / wedge Q_2) _M (A) & / iff (Q_1) _M (A) textrm {and} (Q_2) _M (A) (neg Q) _M (A) & / iff / textrm {not} Q_M (A) end {align})

Ensuite, nous pouvons prendre le déterminant complexe dans (20) pour désigner (I_j / wedge / textit {trois} ^ { textit {professeur}}). De même, le NP complexe dans

(21) John et Mary sont venus à la réunion

signifie (I_j / wedge I_m).

Le premier argument (provenant du nom) d'une dénotation de déterminant de type ({ langle} 1,1 { rangle}) est souvent appelé sa restriction, et le second sa portée. La différence de statut syntaxique entre ces deux arguments s'avère avoir une contrepartie sémantique claire.

11. Conservativité

Il a été observé très tôt que les quantificateurs de type ({ langle} 1,1 { rangle}) dénotés par des déterminants dans les langages naturels ont la propriété suivante:

  • (22) Conservativité (Conserv):

    Pour tout M et tout (A, B / subseteq M), [Q_M (A, B) iff Q_M (A, A / cap B).)

Cela peut être vu à partir de paires de phrases telles que les suivantes, où il est clair que la deuxième phrase n'est qu'une manière maladroite d'exprimer la première:

  • (23) a. La plupart des étudiants fument.
  • b. La plupart des étudiants sont des étudiants qui fument.
  • (24) a. Au moins cinq professeurs étaient absents.
  • b. Au moins cinq professeurs étaient des professeurs absents.
  • (25) a. Plus d'un tiers des étudiants diplômés sont des étrangers.
  • b. Plus d'un tiers des étudiants diplômés sont des étudiants diplômés étrangers.

Conserv dit que seule la partie de B qui est commune à A compte pour la vérité de (Q_M (A, B)). Autrement dit, la partie (BA) de la figure 1 n'a pas d'importance. Cela semble être valable pour toutes les dénotations de déterminants, mais cela échoue pour les quantificateurs logiques parfaitement naturels, tels que MO et I de la liste / eqref {ex-qlist3} ci-dessus. La raison en est qu'il est caractéristique des dénotations des déterminants que l'argument de restriction limite le domaine de la quantification à cet argument.

12. Extension

En fait, l'idée de restriction de domaine a un autre ingrédient. Restreindre le domaine de quantification à un sous-ensemble A de M signifie non seulement que (BA) n'est pas pertinent mais toute la partie de M qui se trouve en dehors de A, et donc aussi la partie (M- (A / cup B)) dans la figure 1. Ceci est à son tour une instance d'une propriété plus générale, applicable aux quantificateurs généralisés arbitraires:

  • (26) Extension (Ext):

    Si Q est de type ({ langle} n_1, / ldots, n_k { rangle}), (R_i / subseteq M ^ {n_i}) pour (1 / leq i / leq k), et (M / subseteq M '), puis [Q_M (R_1, / ldots, R_k) iff Q_ {M'} (R_1, / ldots, R_k).)

Autrement dit, rien ne se passe lorsque l'univers est étendu ou réduit, tant que les arguments ne sont pas modifiés. Rappelons maintenant que pour les quantificateurs de type ({ langle} 1 { rangle}) nous avons déjà fourni un mécanisme logique pour restreindre le domaine de quantification à un sous-univers, en termes de relativisation (section 7). Nous pouvons maintenant voir (en (b) ci-dessous) que la combinaison de Conserv et Ext revient exactement au même:

Fait 6

  1. Pour tout quantificateur Q, (Q {^ { text {rel}}}) satisfait Ext.
  2. Un quantificateur de type ({ langle} 1,1 { rangle}) est Conserv et Ext si et seulement si c'est la relativisation d'un quantificateur de type ({ langle} 1 { rangle}). [23]

Là encore, toutes les dénotations des déterminants semblent satisfaire Ext. À première vue, rien en principe ne semble empêcher un langage de contenir un déterminant, disons evso, qui signifiait chacun sur des univers avec moins de 10 éléments et certains sur des univers plus grands. Mais non seulement il n'y a en fait aucun tel déterminant dans aucune langue - il ne pourrait y en avoir, si l'argument substantif d'un déterminant est de restreindre le domaine de la quantification à la dénotation de ce nom.

Un quantificateur tel qu'evso n'est intuitivement pas constant, en ce sens qu'il ne signifie pas la même chose, ou n'est pas interprété par la même règle, sur tous les univers. Ext peut être vu comme une forte exigence de constance: la règle interprétant Q ne mentionne même pas l'univers. En effet, de nombreux quantificateurs issus du langage et de la logique sont Ext. Comme nous l'avons vu, tous les quantificateurs relativisés sont Ext, et tous les autres quantificateurs des listes / eqref {ex-qlist2} - / eqref {ex-qlist4} également, sauf W. [24] En fait, il semble que tous les quantificateurs prenant plus d'un argument qui apparaissent dans des contextes de langage naturel sont Ext. Et de nombreux quantificateurs de type ({ langle} 1 { rangle}) sont également Ext, par exemple, (existe), (I_j), (Q ^ A) (lorsque Q est Ext; voir / eqref {QA} ci-dessus), et tout dans la liste / eqref {ex-qlist1} sauf (Q ^ R).

Mais (forall) et (Q ^ R) ne sont pas Ext. Pourtant, on a tendance à dire pour eux aussi qu'ils ont la même signification dans tous les univers. Le cas de (forall) est particulièrement intéressant car on pourrait dire qu'il interprète les NP comme tout ou tout. Le point crucial ici est la chose. Si cette expression est vue comme une constante logique qui désigne toujours l'univers, alors ces NPs désignent (forall): pour tout M et tout (B / subseteq M),) begin {align} (textit {chaque} ^ { textit {chose}}) _ M (B) & / iff / textit {chaque} _M (M, B) & / iff M / subseteq B & / iff M = B \& / iff / forall_M (B) end {align})

Lorsque Ext tient, nous pouvons généralement supprimer l'indice M et écrire, par exemple, [Q (A, B))

plutôt que (Q_M (A, B)). Autrement dit, un univers approprié peut être présupposé mais laissé en arrière-plan.

13. Symétrie et monotonicité

D'autres propriétés ne sont pas partagées par tous les quantificateurs de langage naturel, mais isolent des sous-classes importantes. Nous en avons déjà mentionné deux dans la section 2 ci-dessus: la symétrie et la monotonie. Les quantificateurs symétriques typiques sont certains, non, au moins cinq, exactement trois, un nombre pair de, une infinité, alors que tous, la plupart, au plus un tiers d'entre eux sont non symétriques. Une autre façon d'exprimer la symétrie est de dire que la valeur de vérité de (Q (A, B)) ne dépend que de l'ensemble (A / cap B). Plus précisément, appelez Q intersectif si pour tout M et tout (A, A ', B, B' / subseteq M):

(27) Si (A / cap B = A '\ cap B') alors (Q_M (A, B) Leftrightarrow Q_M (A ', B'))

On vérifie facilement:

Fait 7

Pour les quantificateurs de type conservateur ({ langle} 1,1 { rangle}), la symétrie et l'intersectivité sont équivalentes. [25]

Nous avons noté que certains des syllogismes expriment des propriétés de monotonie. Dans une notation plus succincte, un quantificateur de type ({ langle} 1,1 { rangle}) Q est

croissant à droite (décroissant à droite) ssi pour tout M et tout (A, B / subseteq B '\ subseteq M) (all (A, B' / subseteq B / subseteq M)), (Q_M (A, B)) implique (Q_M (A, B ')).

De même pour la gauche croissante ou décroissante, et même pour la monotonie dans tout argument donné à la place d'un quantificateur généralisé. En particulier, il est clair ce que cela signifie pour un quantificateur de type ({ langle} 1 { rangle}) d'être monotone. La monotonie est omniprésente parmi les quantificateurs du langage naturel. Il semble que les NP anglais syntaxiquement simples désignent tous des quantificateurs de type ({ langle} 1 { rangle}) monotones (croissants ou décroissants), et presque tous les déterminants anglais syntaxiquement simples désignent des quantificateurs monotones droits. [26] Nous avons également:

  • (28) a. Les quantificateurs (I_j) (noms propres) augmentent
  • b. (Q ^ A) augmente (diminue) ssi Q augmente (diminue) à droite.

Les aristotéliciens tous, certains, non sont monotones dans les deux arguments (par exemple, tout est croissant à droite et décroissant à gauche), comme le sont au moins cinq, pas plus de dix, infiniment nombreux, alors que la plupart, au moins les deux tiers des sont croissants à droite mais ni augmenter ni diminuer dans l'argument de gauche. Exactement trois, entre deux et sept ne sont pas monotones, bien que tous deux soient des conjonctions d'un quantificateur (droit et gauche) croissant et décroissant (par exemple au moins trois et au plus trois), contrairement à un nombre pair de, qui n'est pas une combinaison booléenne (finie) de quantificateurs monotones.

La symétrie et la monotonie ont toutes deux des rôles explicatifs importants pour certains phénomènes linguistiques. La symétrie est une caractéristique de (la plupart des) quantificateurs autorisés dans les phrases dites existentielles (par exemple, il y a au moins cinq hommes dans le jardin, c'est bien, mais il y a la plupart des hommes dans le jardin n'est pas). La monotonie est cruciale pour expliquer la distribution des éléments de polarité (personne ne réussira jamais, c'est bien, mais quelqu'un ne réussira jamais: les éléments de polarité négative tels que jamais nécessitent un environnement décroissant). [27] En outre, la monotonie est impliquée de manière cruciale dans les formes naturelles de raisonnement; voir section 18.

14. Déterminants qui ne sont pas ISOM

Considérer

  • (29) Les livres de John ont été volés.
  • (30) Certains livres d'élèves n'ont pas été rendus.
  • (31) Aucun professeur à l'exception de Mary n'est venu à la réunion.
  • (32) Tous les amateurs de plage, à l'exception de quelques nageurs enthousiastes, étaient entièrement vêtus.
  • (33) Plus d'étudiants que d'étudiants fument.

Les expressions John's, certains étudiants, non _ sauf Mary, tous _ sauf quelques nageurs enthousiastes, plus masculins que féminins, sont tout naturellement perçus comme des déterminants: lorsqu'ils sont combinés avec des noms, ils forment des phrases qui se comportent comme des NP ordinaires. De plus, les quantificateurs de type ({ langle} 1,1 { rangle}) qu'ils signifient sont Conserv et Ext. Par exemple, les phrases de la paire suivante sont trivialement équivalentes:

  • (34) a. Les livres de John ont été volés.
  • b. Les livres de John sont des livres qui ont été volés.

Mais contrairement aux exemples précédents, ils ne sont pas Isom, car ils impliquent un individu ou une propriété fixe: si les livres de Jean ont été volés et que le nombre de livres volés est le même que le nombre de crayons rouges (dans certains univers de discours), et le nombre de livres qui n'ont pas été volés est le même que le nombre de crayons qui ne sont pas rouges, il ne s'ensuit pas que les crayons de John soient rouges, comme Isom le voudrait.

Cependant, tout comme le quantificateur non-Isom trois (^ { textit {étudiant}}) résulte en gelant l'argument de restriction du quantificateur Ext trois, les quantificateurs non-Isom ci-dessus résultent en gelant les arguments dans des relations plus abstraites, ce qui sont Isom. Nous illustrons cela avec le déterminant possessif John's. [28]

Étant donné que John désigne un individu j, le déterminant de John peut être défini, pour tout M et tout (A, B / subseteq M), par [29]

) texttt {John's} _M (A, B) iff / emp / neq A / cap R_j / subseteq B)

où (R_j = {b / in M / !: R (j, b) }) et R est une relation de «possesseur»; il est bien connu que cette relation varie beaucoup avec les circonstances - on pourrait parler des livres que John possède, ou a écrit, ou emprunté, ou acheté comme cadeau à Mary, etc. Supposons que R soit la propriété. Puis (29) dit que Jean possède au moins un livre et que tous les livres qu'il possède ont été volés. Considérons maintenant le «quantificateur» plus général défini, pour (a / dans M), (R / subseteq M ^ 2), et (A, B / subseteq M), par

) mathbf {P} _M (a, R, A, B) iff / emp / neq A / cap R_a / subseteq B)

On pourrait dire qu'il s'agit d'un quantificateur généralisé de type ({ langle} 0,2,1,1 { rangle}), en laissant 0 pour les individus. (mathbf {P}) est Isom (étendant la définition / eqref {ex-isom} de manière évidente aux quantificateurs de ce type), et les résultats de Jean en figeant les deux premiers arguments à des valeurs appropriées.

Des constructions similaires fonctionnent pour d'autres cas d'expressions de quantificateurs dans des langages naturels qui désignent des quantificateurs non isom. Par exemple, le déterminant no _ sauf Mary désigne (étant donné que Mary se réfère à m)

[(texttt {no _ except Mary}) _ M (A, B) iff A / cap B = {m })

Autrement dit, (31) dit que Mary est professeur, qu'elle est venue à la réunion et qu'aucun autre professeur ne l'a fait. Encore une fois, un quantificateur Isom correspondant de type ({ langle} 0,1,1 { rangle}) est facilement défini. Ainsi, Isom peut être récupéré pour des quantificateurs de langage naturel. D'autre part, associer des quantificateurs de type ({ langle} 1,1 { rangle}) avec des déterminants est plus conforme à la syntaxe, et permet à de nombreuses généralisations concernant les dénotations des déterminants de s'appliquer également dans le cas non-Isom.

15. Constance

Isom, c'est-à-dire la neutralité du sujet, est généralement considéré comme au moins une condition nécessaire pour être une constante logique. [30]Il est possible de distinguer la logique de la constance dans le sens mentionné précédemment de la même signification dans différents univers. D'une part, la logique est une propriété qui devrait être fermée sous définissabilité, alors qu'il n'est pas du tout clair que la constance devrait être fermée de la même manière. Notez, par exemple, que la classe des quantificateurs Ext n'est pas fermée sous la définissabilité du premier ordre. Plus précisément, il est fermé sous les opérations booléennes habituelles, mais pas sous négation interne et donc pas sous prise de duels, où la négation interne d'un quantificateur de type ({ langle} 1 { rangle}) Q est définie par ((Q / neg) _M (A) Leftrightarrow Q_M (M \! - \! A)), et le dual par (Q ^ d = / neg (Q / neg)). Par exemple, (existe ^ d = / forall).

Une intuition pourrait être que Ext suffit pour la constance. Mais une intuition différente est qu'un quantificateur signifiant le même sur tous les univers en particulier devrait satisfaire Isom, ce qui oblige Q à être le «même» sur tous les univers de même cardinalité. Ces deux idées sont incompatibles, car ensemble elles impliqueraient qu'Ext implique Isom, ce qui est manifestement faux. De toute évidence, la vague notion de sens identique dans des univers différents admet des précisions différentes. En y regardant de plus près, il semble peu probable qu'il existe une version précise qui accepterait toutes les intuitions sur la similitude.

Dans cette situation, une suggestion serait de stipuler simplement que la constance équivaut à Ext + Isom. Ce serait une explication carnapienne de la constance. Les quantificateurs avec cette combinaison de propriétés semblent avoir la même signification dans tous les univers. D'un autre côté, les quantificateurs Ext mais non-Isom comme trois (^ { textit {étudiant}}) ou certains professeurs n'auraient pas la même signification dans différents domaines, ce qui, comme nous l'avons vu, concorde avec une seule intuition. De plus, les quelques quantificateurs naturels non-Ext que nous avons rencontrés sont tous définissables à partir des quantificateurs Ext + Isom. [31]

16. Quantificateurs polyadiques en langage naturel

Prenons une phrase anglaise typique où le sujet et l'objet sont quantifiés:

(35) La plupart des films ont été évalués par deux critiques

Les conditions de vérité de (36) peuvent être données en termes d'un quantificateur polyadique, de type ({ langle} 1,1,2 { rangle}) (en omettant M):

[Q (A, B, R) iff / textit {la plupart} (A, {a / !: / textit {deux} (B, R_a) }))

(C'est la lecture à «portée étroite»; la lecture à «large portée» serait plutôt (textit {deux} (B, {b / !: / textit {la plupart} (A, (R ^ {- 1}) _b))).) Mais ce quantificateur polyadique résulte de deux quantificateurs de type ({ langle} 1,1 { rangle}) par une construction ubiquitaire que nous appelons itération. Si (Q, Q ') sont de type ({ langle} 1 { rangle}), défini le type ({ langle} 2 { rangle}) quantificateur (Q / cdot Q') par

) tag {36} Q / cdot Q '(R) iff Q ({a / !: Q' (R_a) }))

On obtient alors l'itération de deux quantificateurs de type ({ langle} 1,1 { rangle}) (Q_1, Q_2) comme ci-dessus avec (Q_1 ^ A / cdot Q_2 ^ B). Les propriétés des itérations sont étudiées dans van Benthem (1989), Keenan (1992), Westerståhl (1994) et Steinert-Threlkeld et Icard (2013).

Keenan considère l'itération comme la limite de Frege. Comme lui et d'autres l'ont souligné, il semble y avoir de nombreux quantificateurs du langage naturel au-delà de cette limite, c'est-à-dire non définissables comme des itérations. Nous donnons ici quelques exemples; beaucoup d'autres peuvent être trouvées dans les références qui viennent d'être données. La phrase suivante peut ressembler à l'expression d'une itération, mais ce n'est pas le cas.

(37) Différents étudiants ont répondu à différentes questions à l'examen

L'exemple (37) a vraisemblablement diverses interprétations, par exemple celle utilisant le quantificateur de type ({ langle} 1,1,2 { rangle}) suivant:

[Q (A, B, R) iff / forall a, b / in A (a / neq b / Rightarrow B / cap R_a / neq B / cap R_b))

Ce quantificateur est toujours définissable du premier ordre mais pas une itération. [32] Ensuite, considérez

  • (38) a. Les gens sont généralement reconnaissants aux pompiers qui les sauvent.
  • b. Les hommes font rarement des passes aux filles qui portent des lunettes. (Dorothy Parker)

Les adverbes comme d'habitude, rarement, toujours, jamais peuvent être considérés comme des quantificateurs généralisés (une observation faite à l'origine dans Lewis (1975)). Par exemple, Les chiens ne miaulent jamais est à peu près synonyme de Aucun chien ne miaule. Mais pour (38), on peut soutenir qu'il y a une lecture où le quantificateur s'applique aux paires: parmi les paires constituées d'une personne et d'un pompier qui sauve cette personne, une majorité est telle que la personne est reconnaissante. C'est juste la reprise de la plupart des paires, que nous avons définie dans / eqref {ex-qlist4}:

[Res ^ 2 (textit {la plupart}) (R, S) iff | R / cap S | > | RS |)

Donc dans (38b), (R (a, b)) iff (a / in / textit {personne}) et (b / in / textit {pompier}) et (a \: / textit {sauvé} b), et (S (a, b)) ssi a est reconnaissant à b. On peut montrer que pour de nombreux quantificateurs, en particulier la plupart, (Res ^ n (Q)) n'est pas définissable dans (FO (Q)). En fait, (Res ^ 2 (textit {most})) n'est définissable à partir d'aucun nombre fini de quantificateurs monadiques, c'est donc un exemple de quantificateur irréductiblement polyadique. [33]

Prochain:

  • (39) a. Cinq lanceurs de Boston étaient assis côte à côte.
  • b. La plupart des parlementaires se réfèrent indirectement les uns aux autres.

Ici (39a) peut avoir les conditions de vérité

) existe X / subseteq / textit {Boston pichet} [| X | = 5 / amp / textit {RECIP} (X, / textit {assis à côté})])

où RECIP est le quantificateur de type ({ langle} 1,2 { rangle}) défini dans / eqref {ex-qlist4}. Autrement dit, il y a un ensemble de cinq pichets Boston tels que si vous en prenez deux, soit ils sont assis l'un à côté de l'autre, soit il y a un pichet, ou deux, ou au plus trois (tous dans l'ensemble choisi), entre eux. De même pour (39b). Ce n'est qu'une des nombreuses constructions de quantificateurs polyadiques qui se produisent dans des phrases réciproques. [34]

Enfin, considérez la phrase

(40) La plupart des garçons de votre classe et la plupart des filles de ma classe sont tous sortis ensemble

(40) a été proposé comme un exemple de quantification de branchement, qui peut être écrite dans un format logique bidimensionnel comme

  • (41)

    'most x A (x)' et 'most y B (y)' chacun avec des lignes vers 'R (x, y)'
    'most x A (x)' et 'most y B (y)' chacun avec des lignes vers 'R (x, y)'

où la lecture prévue est qu'il y a un sous-ensemble X de A contenant la plupart des éléments de A, et un sous-ensemble tout aussi grand Y de B, de telle sorte que chaque paire ((a, b)) où (a / dans X) et (b / dans Y) appartient à la relation R. Plus généralement, nous avons un quantificateur polyadique de type ({ langle} 1,1,2 { rangle}) défini pour tout (Q_1, Q_2) de type ({ langle} 1,1 { rangle}) par

) tag {42} label {ex-br} Br (Q_1, Q_2) (A, B, R) iff \\ / existe X / subseteq A \: / existe Y / subseteq B \, [Q_1 (A, X) amp Q_2 (B, Y) amp X / times Y / subseteq R])

Tout à fait plausiblement, cela donne une lecture de (40). Notez que x et y sont ici indépendants l'un de l'autre. Si à la place on utilisait l'une des phrases linéaires

) textit {le plus}: x (A (x), / textit {le plus}: y (B (y), R (x, y))) / \ textit {le plus}: y (B (y), / textit {la plupart}: x (A (x), R (x, y))))

alors soit y dépend de x ou vice versa. La syntaxe bidimensionnelle de (41) reflète cette indépendance sémantique. [35]

On peut montrer que (Br (textit {most}, / textit {most})) n'est pas exprimable dans (FO (textit {most})) seul; en fait pas avec un nombre fini de quantificateurs monadiques (pour une preuve, voir Hella, Väänänen et Westerståhl (1997)). Par contre, des quantificateurs de branchement sont obtenus avec une opération de «lifting» appliquée à des quantificateurs monadiques, et de même pour la reprise. En effet, bien que le langage naturel présente de nombreux quantificateurs polyadiques bien au-delà de la frontière de Frege, on pourrait encore plaider en faveur de l'affirmation selon laquelle ils sont tous obtenus à partir de quantificateurs monadiques de manière systématique.

17. Théorie et linguistique GQ

L'avènement des quantificateurs généralisés a eu un impact énorme sur la sémantique linguistique via le travail de Montague à la fin des années 60, renforcé par l'application des méthodes de la théorie des modèles au début des années 80 par Barwise et Cooper, Keenan et Stavi, et d'autres (voir note 21). Dans presque tous les exemples de ces œuvres, la langue naturelle était l'anglais. Les linguistes ont depuis appliqué et testé les outils et méthodes de la «théorie GQ» sur d'autres langues. La collection Bach et al. (1995) a, entre autres, sept études de cas de quantification dans d'autres langues. Il met également l'accent sur la distinction entre la quantification D et la quantification A. Dans la D-quantification, que la plupart de nos exemples montrent jusqu'à présent, l'expression quantificateur est (généralement) un déterminant qui s'applique à un nom. A-quantification est effectuée par d'autres moyens-A signifie adverbes, auxiliaires,affixes et ajusteurs de structure d'argument. De nombreux langages préfèrent la quantification A, certains exclusivement. L'anglais a les deux types; rappellent les adverbes de quantification dans (38).[36]

Plus récemment, les volumes Keenan et Paperno (2012) et Paperno et Keenan (2017) ont un chapitre distinct répondant à un ensemble fixe de questions sur l'expression de la quantification pour chacune des 34 langues différentes (différentes également de celles mentionnées ci-dessus), afin de rendre un vaste inventaire de leurs ressources expressives. [37]L'approche est sémantique: les questions sont de la forme «Peut-on exprimer X dans votre langage, et si oui de quelles manières?», Ce qui permet des questions précises sur la conservativité, la monotonie, les items de polarité, la quantification monadique vs polyadique, etc. être mis à chaque langue. Le résumé du dernier chapitre montre que bon nombre des généralisations qui valent pour l'anglais, concernant l'existence d'expressions dénotant certains quantificateurs et les propriétés de ceux-ci, valent également dans toutes ou la plupart des autres langues étudiées (Keenan et Paperno énumèrent 25 telles généralisations).

D'un autre côté, à partir des années 1990, certains linguistes ont fait valoir que la théorie GQ est incapable de rendre compte d'un éventail de phénomènes sémantiques importants - en anglais et dans d'autres langues - liés à la quantification. Szabolcsi (2010) donne un compte rendu détaillé de ces développements. Un problème est que la théorie GQ semble n'avoir rien à dire sur la signification compositionnelle des déterminants complexes. Par exemple, comment la signification de plus de cinq découle-t-elle de la signification de ses parties? Ou considérez la plupart, qui est souvent traité comme un simple déterminant, même si sa signification doit en quelque sorte provenir du superlatif de plus.

Un autre phénomène problématique est la portée. Alors que la théorie GQ semble en principe autoriser toutes les portées théoriquement possibles d'expressions de quantificateurs imbriqués, les langages naturels ont des restrictions régissant lesquelles d'entre elles sont réellement autorisées. En effet, la portée est un sujet majeur de la syntaxe et de la sémantique linguistiques, et un sujet complexe. Le problème est aussi méthodologique: comment déterminer si une phrase donnée S peut effectivement signifier Y (où Y correspond à une portée particulière)? Premièrement, il faut filtrer les cas où l'indisponibilité de Y dépend de faits sur le monde et non de la langue. Deuxièmement, quelles intuitions devraient compter: celles du linguiste, ou celles des locuteurs natifs dans une situation de test, ou peut-être les preuves statistiques devraient-elles jouer un rôle? Encore,s'il est vrai que de nombreuses lectures qui semblent impossibles à première vue sont en fait disponibles dans des contextes suffisamment spécifiques, il est plausible que les langues aient des restrictions de portée hors de la portée de la théorie GQ.[38]

La «théoricienne de GQ» pourrait répondre que ses outils n'ont jamais été conçus pour expliquer pleinement la portée, ni pour permettre des analyses compositionnelles de chaque expression complexe. Le cadre de la théorie des modèles est avant tout descriptif: il fournit des objets mathématiques qui peuvent servir de (modèles de) sens, et formuler des propriétés et des relations entre ces objets. Parfois, les faits sur les objets mathématiques révèlent des aperçus sur les choses qu'ils modélisent, comme dans le cas des éléments de monotonie et de polarité, ou dans le cas de la signification des phrases nominales conjointes. Mais il n'y a aucune raison de s'attendre à ce que cela se produise dans tous les cas.

Ce sont des positions dans un débat permanent sur le rôle des méthodes formelles, et en particulier des outils de la théorie des modèles, dans la sémantique; un débat qui n'est en aucun cas réglé. Ce qui semble clair, c'est que les phénomènes liés à la quantification dans les langues naturelles continuent de fournir un excellent matériel pour cette discussion.

18. Quantification et cognition

Ces dernières années, il y a eu une explosion de travaux reliant la sémantique, le raisonnement et la cognition, en grande partie liés à la façon dont les locuteurs comprennent et apprennent et raisonnent avec des expressions quantifiées. Un axe majeur de recherche concerne la monotonicité (section 13). Déjà Barwise et Cooper (1981) ont noté l'ubiquité des quantificateurs monotones dans les langues naturelles, et ont suggéré un moyen de montrer que les quantificateurs monotones sont plus faciles à traiter que les quantificateurs non monotones, et que l'augmentation des quantificateurs est plus facile que la diminution des quantificateurs. Ils ont également suggéré que des expériences psychologiques pourraient être utilisées pour tester leur hypothèse. Leur proposition technique a été développée plus avant dans van Benthem (1986), qui a introduit une notion de complexité de dénombrement et a montré que, sous certaines hypothèses,les quantificateurs avec une complexité de comptage minimale sont précisément ceux avec une certaine propriété de monotonicité forte.[39]

La monotonicité est également impliquée dans ce que van Benthem a appelé le raisonnement «en une étape», qui semble être facilement accessible aux locuteurs. Le comportement de monotonie des déterminants de base montre déjà comment un tel raisonnement est autorisé. En marquant à droite les quantificateurs de type ({ langle} 1,1 { rangle}) croissants (décroissants) avec un + (a (-)) à droite, et de même pour la monotonie gauche, nous avons, par exemple:

(- / textit {chaque} +) (+ / textit {certains} +) (- / textit {non} -) (cdot \, / textit {la plupart} +) (cdot \, / textit {exactement trois}, / cdot)

où (cdot) indique que la position n'est ni décroissante ni croissante. Un bon exemple est l'inférence suivante (de Icard et Moss (2014), en adaptant un exemple dans Geurts et Slik (2005)):

(43) La plupart des Américains qui connaissent une langue étrangère la parlent à la maison La plupart des Américains qui connaissent une langue étrangère la parlent à la maison ou au travail

La prémisse est une «phrase d'âne» avec la plupart, et il est notoirement difficile de cerner les conditions de vérité exactes de celles-ci. En fait, plusieurs lectures sont possibles. [40] Malgré cela, les locuteurs semblent n'avoir aucun problème à faire cette inférence, apparemment puisque la plupart a raison d'augmenter (l'argument VP le parler à la maison est étendu pour le parler à la maison ou au travail), quel que soit le nom du sujet phrase (la même chose dans les deux phrases) signifie exactement.

De nombreuses autres expressions et phrases en plus des déterminants montrent des modèles de monotonie fixes. À partir de van Benthem (1986), cela a conduit à des algorithmes pour savoir comment les marqueurs de polarité sont assignés aux nœuds des arbres d'analyse des phrases (par rapport à une grammaire donnée), ou comment incorporer ces marqueurs directement dans la notation de type; voir Icard et Moss (2014) pour un aperçu et d'autres références. Outre leur rôle dans l'inférence, un tel marquage peut également expliquer, et parfois même prédire, la distribution des items de polarité négative dans les langues (fin de la section 13). De plus, dans de nombreux cas, aucune analyse syntaxique n'est nécessaire: les inférences peuvent être faites directement sur la forme de la surface, et seraient en ce sens accessibles «à la volée» aux locuteurs; comparer (43). L'article qui vient d'être mentionné présente également une axiomatisation complète d'un calcul formel de monotonicité,dans lequel de nombreuses variétés de raisonnement avec monotonie peuvent être exprimées.[41]

Un développement quelque peu parallèle a été l'étude formelle de divers fragments syllogistiques; nous avons noté dans la section 2 que de nombreux syllogismes expriment des propriétés de monotonie. Ces fragments, dont la plupart ont été étudiés par Ian Pratt-Hartmann et surtout Larry Moss, vont de ceux ne contenant que des phrases simples comme allXY ou someXY à ceux permettant des compléments, des clauses relatives, des verbes transitifs, des quantificateurs non de premier ordre comme la plupart, et autres fonctionnalités. Voici un exemple (Moss pc) d'une inférence dans un tel fragment:

Tout le monde aime tous ceux qui aiment Pat Pat aiment tous les clarinettistes Tout le monde aime tous ceux qui aiment tous ceux qui aiment chaque clarinettiste

Cela illustre comment un raisonnement assez complexe peut être exprimé dans un langage simple de type syllogistique. L'inférence est valide, mais il faut réfléchir un peu pour voir cela. [42] Une caractéristique principale de la plupart de ces fragments est que, en plus d'avoir des axiomatisations complètes explicites, leur validité est décidable, contrairement à la logique du premier ordre. Cela vaut également pour certains fragments avec des quantificateurs qui ne sont pas définissables par FO. Comme le calcul de la monotonicité, l'étude des fragments syllogistiques fait partie de l'entreprise quelque peu appelée logique naturelle, résultant en des sous-systèmes bien comportés de logiques plus familières, dans le sens d'être à la fois plus proche du langage naturel et plus traitable sur le plan informatique; voir Moss (2015) pour une enquête. [43]

Sur le plan cognitif, les questions de compréhension et d'apprentissage liées à la quantification et à la monotonie ont été étudiées à la fois en psychologie et en neurosciences. Geurts et Slik (2005) ont demandé aux sujets si certaines inférences impliquant la monotonie étaient valides ou non; les résultats corroborent largement les hypothèses antérieures de Barwise et Cooper. La signification des déterminants individuels a également été étudiée empiriquement; Pietroski et coll. (2009) ont étudié le plus, où la méthode consistait à montrer aux sujets une image avec des points jaunes et bleus pendant une très courte période (pour éliminer le comptage) et à demander, par exemple, s'il est vrai ou faux que la plupart des points sont jaunes. Les variations de ce type d'expérience sont courantes dans la littérature; un exemple récent est Odic et al. (2018), qui étudie la distinction masse / comptage en cognition et sémantique. Les deux études impliquent le sens du nombre humain et sa relation avec la compréhension du langage quantification. On pourrait admettre une hypothèse «whorfian» selon laquelle la seconde est une condition préalable à la première. Cela a été testé avec des méthodes neurobiologiques (méthodes de scan du cerveau combinées à des tests psychologiques chez des patients souffrant de divers troubles cérébraux) dans Clark et Grossman (2007). Ils n'ont trouvé aucun support empirique pour cette hypothèse; voir aussi Clark (2011a) pour une description de l'expérience et plus d'informations sur la recherche sur la quantification et le sens des nombres. Cela a été testé avec des méthodes neurobiologiques (méthodes de scan du cerveau combinées à des tests psychologiques chez des patients souffrant de divers troubles cérébraux) dans Clark et Grossman (2007). Ils n'ont trouvé aucun support empirique pour cette hypothèse; voir aussi Clark (2011a) pour une description de l'expérience et plus d'informations sur la recherche sur la quantification et le sens des nombres. Cela a été testé avec des méthodes neurobiologiques (méthodes de scan du cerveau combinées à des tests psychologiques chez des patients souffrant de divers troubles cérébraux) dans Clark et Grossman (2007). Ils n'ont trouvé aucun support empirique pour cette hypothèse; voir aussi Clark (2011a) pour une description de l'expérience et plus d'informations sur la recherche sur la quantification et le sens des nombres.

Il existe aujourd'hui un bon nombre d'études empiriques sur la manière dont les différentes classes de quantificateurs identifiées par des moyens logiques ou informatiques se reflètent en termes d'apprentissage, de compréhension, de charge cognitive, etc. Inversement, les faits linguistiques et cognitifs suggèrent de nouvelles questions théoriques. Par exemple, en ce qui concerne la complexité de calcul, Sevenster (2006) a montré que la ramification de la plupart comme dans (40) dans la section 9 est insoluble. [44]Par la suite, Szymanik a observé que si les opérations de reprise et d'itération (comme dans (38) et (36), respectivement) sont appliquées aux quantificateurs PTIME, le résultat est à nouveau en PTIME, contrairement au branchement. De même, certaines formes de constructions réciproques préservent la calculabilité PTIME alors que d'autres ne le font pas: «lever» exactement cinq avec RECIP comme dans (39a) le fait, mais de même lever la plupart comme dans (39b) ne le fait pas.

Dans le cadre des automates sémantiques de van Benthem (section 9), Steinert-Threlkeld et Icard (2013) ont prouvé que la frontière de Frege (section 16) est robuste en ce sens que si deux types Conserv et Ext ({ langle} 1,1 { rangle}) les quantificateurs sont reconnaissables par des automates finis (ou push-down), de même que leur itération. De plus, Steinert-Threlkeld (2016) a montré que pour les grandes classes de quantificateurs de type ({ langle} 1,1,2 { rangle}), il est possible de décider s'il s'agit d'itérations de type ({ langle} 1, 1 { rangle}) quantificateurs ou non. Szymanik (2016) a présenté récemment des résultats théoriques et empiriques sur les aspects cognitifs de la reconnaissance des quantificateurs.

Des modèles informatiques d'apprentissage de la signification des quantificateurs ont été donnés; par exemple par Clark (2011a) dans le cadre des automates sémantiques. Dans un développement récent, Steinert-Threlkeld et Szymanik (à paraître) étudient la capacité d'apprentissage avec la technologie des réseaux de neurones, testant si certains quantificateurs satisfaisant trois universaux couramment proposés - que les dénotations simples des déterminants sont monotones, Isom et Conserv, respectivement - sont plus faciles à apprendre. que des quantificateurs qui n'ont pas ces propriétés. Pour chaque universel, le temps nécessaire au réseau pour apprendre un quantificateur le satisfaisant est comparé au temps nécessaire pour apprendre un quantificateur qui ne le satisfait pas. Il s'avère que monotone et Isom sont plus faciles que les non monotones et non Isom, alors qu'il n'y a pas de différence détectable pour Conserv. [45]

Ce ne sont que des aperçus de la recherche en cours. L'étude de la façon dont les locuteurs traitent les expressions quantifiées, combinant l'analyse de base de la théorie des modèles avec des méthodes de psychologie, de neurosciences et d'informatique, est désormais un domaine riche dans l'étude des quantificateurs généralisés.

Bibliographie

  • Bach, Emmon, Eloise Jelinek, Angelika Kratzer et Barbara H. Partee (eds.), 1995, Quantification in Natural Languages, (Studies in Linguistics and Philosophy 54), Dordrecht: Springer Netherlands. doi: 10.1007 / 978-94-017-2817-1
  • Barwise, Jon, 1979, «Sur les quantificateurs de branchement en anglais», Journal of Philosophical Logic, 8 (1): 47–80. doi: 10.1007 / BF00258419
  • Barwise, Jon et Robin Cooper, 1981, «Quantificateurs généralisés et langage naturel», Linguistique et philosophie, 4 (2): 159–219. doi: 10.1007 / BF00350139
  • Barwise, Jon et Solomon Feferman (éds.), 1985, Model Theoretic Logics, (Perspectives in Mathematical Logic), New York: Springer-Verlag.
  • van Benthem, Johan, 1986, Essays in Logical Semantics, (Studies in Linguistics and Philosophy, 29), Dordrecht: D. Reidel.
  • –––, 1989, «Polyadic Quantifiers», Linguistics and Philosophy, 12 (4): 437–464. doi: 10.1007 / BF00632472
  • van Benthem, Johan FAK et Alice ter Meulen (eds.), 2011, Handbook of Logic and Language, deuxième édition, Amsterdam: Elsevier.
  • Bonnay, Denis, 2008, «Logicalité et invariance», Bulletin de logique symbolique, 14 (1): 29–68. doi: 10.2178 / bsl / 1208358843
  • Cartwright, Richard L., 1994, «Parler de tout», Noûs, 28 (1): 1–20. doi: 10.2307 / 2215917
  • Clark, Robin, 2011a, «Quantificateurs généralisés et sens des nombres», Philosophy Compass, 6 (9): 611–621. doi: 10.1111 / j.1747-9991.2011.00419.x
  • –––, 2011b, «On the Learnability of Quantifiers», in van Benthem et ter Meulen 2011: 911–923.
  • Clark, Robin et Murray Grossman, 2007, «Number Sense and Quantifier Interprétation», Topoi, 26 (1): 51–62. doi: 10.1007 / s11245-006-9008-2
  • Dalrymple, Mary, Makoto Kanazawa, Yookyung Kim, Sam McHombo et Stanley Peters, 1998, «Expressions réciproques et le concept de réciprocité», Linguistique et philosophie, 21 (2): 159–210. doi: 10.1023 / A: 1005330227480
  • Ebbinghaus, Heinz-Dieter et Jörg Flum, 1995, Théorie des modèles finis, (Monographies Springer en mathématiques), Berlin: Springer Berlin Heidelberg. doi: 10.1007 / 3-540-28788-4
  • Ebbinghaus, Heinz-Dieter, Jörg Flum et Wolfgang Thomas, 1994, Mathematical Logic (Einführung in die mathematische Logik), deuxième édition, New York: Springer-Verlag. doi: 10.1007 / 978-1-4757-2355-7
  • Filin Karlsson, Martin, 2017, «Tout ce qu'il y a: sur la sémantique de la quantification sur absolument tout», Ph. D. Thèse, Université de Göteborg, (Acta Philosophica Gothoburgensia 31). [Karlsson 2017 disponible en ligne]
  • Geurts, Bart et Frans van der Slik, 2005, «Monotonicity and Processing Load», Journal of Semantics, 22 (1): 97–117. doi: 10.1093 / jos / ffh018
  • Glanzberg, Michael, 2004, «Quantification et réalisme», Philosophie et recherche phénoménologique, 69 (3): 541-572. doi: 10.1111 / j.1933-1592.2004.tb00518.x
  • Hackl, Martin, 2000, «Comparative Quantifiers», Thèse de doctorat, Massachusetts Institute of Technology. [Hackl 2000 disponible en ligne]
  • Hella, Lauri, 1989, «Hiérarchies de définissabilité des quantificateurs généralisés», Annals of Pure and Applied Logic, 43 (3): 235–271. doi: 10.1016 / 0168-0072 (89) 90070-5
  • Hella, Lauri, Jouko Väänänen et Dag Westerståhl, 1997, «Definability of Polyadic Lifts of Generalized Quantifiers», Journal of Logic, Language and Information, 6 (3): 305–335. doi: 10.1023 / A: 1008215718090
  • Henkin, Leon, 1961, «Quelques remarques sur des formules infiniment longues», dans Infinitistic Methods: Proceedings of the Symposium on Foundations of Mathematics, Varsovie, 2-9 septembre 1959, Oxford: Pergamon Press, 167–183.
  • Higginbotham, James et Robert May, 1981, «Questions, quantificateurs et croisement», The Linguistic Review, 1 (1): 41–79. doi: 10.1515 / tlir.1981.1.1.41
  • Hintikka, Jaakko, 1973, «Quantifiers vs. Quantification Theory», Dialectica, 27 (3–4): 329–358. doi: 10.1111 / j.1746-8361.1973.tb00624.x
  • Hopcroft, John E. et Jeffrey D. Ullman, 1979, Introduction à la théorie des automates, aux langages et au calcul, (Série Addison-Wesley en informatique), Reading, MA: Addison-Wesley.
  • Icard III, Thomas F., 2014, «Higher-Order Syllogistics», in Formal Grammar 2014, Glyn Morrill, Reinhard Muskens, Rainer Osswald, and Frank Richter (eds.), (Lecture Notes in Computer Science 8612), Berlin, Heidelberg: Springer Berlin Heidelberg, 1–14. doi: 10.1007 / 978-3-662-44121-3_1
  • Icard III, Thomas Icard et Lawrence S. Moss, 2014, «Progrès récents dans la monotonie», dans Perspectives sur les représentations sémantiques pour l'inférence textuelle, (LiLT 9), Stanford, CA: Publications CSLI, 167–194. [Icard et Moss 2014 disponibles en ligne]
  • Icard, Thomas, Lawrence Moss et William Tune, 2017, «A Monotonicity Calculus and Its Completeness», dans Proceedings of the 15th Meeting on the Mathematics of Language, Londres, Royaume-Uni: Association for Computational Linguistics, 75–87. doi: 10.18653 / v1 / W17-3408
  • Keenan, Edward L., 1992, «Beyond the Frege Boundary», Linguistics and Philosophy, 15 (2): 199–221. doi: 10.1007 / BF00635807
  • Keenan, Edward L. et Leonard M. Faltz, 1984, Boolean Semantics for Natural Language, Dordrecht: Springer Pays-Bas. doi: 10.1007 / 978-94-009-6404-4
  • Keenan, Edward L. et Lawrence S. Moss, 1985, «Generalized Quantifiers and the Expressive Power of Natural Language», dans Generalized Quantifiers in Natural Language, Alice ter Meulen et Johan van Benthem (éd.), Berlin, Boston: De Gruyter, 73–124. doi: 10.1515 / 9783110867909.73
  • Keenan, Edward L. et Denis Paperno (éd.), 2012, Handbook of Quantifiers in Natural Language, (Studies in Linguistics and Philosophy 90), Dordrecht: Springer Pays-Bas. doi: 10.1007 / 978-94-007-2681-9
  • Keenan, Edward L. et Jonathan Stavi, 1986, «Une caractérisation sémantique des déterminants du langage naturel», Linguistique et Philosophie, 9 (3): 253–326. doi: 10.1007 / BF00630273
  • Keenan, Edward L. et Dag Westerståhl, 2011, «Generalized Quantifiers in Linguistics and Logic», dans van Benthem et ter Meulen 2011: 859–910.
  • Lewis, David, 1975, «Adverbs of Quantification», dans la sémantique formelle du langage naturel, Edward L. Keenan (éd.), Cambridge: Cambridge University Press, 3–15. doi: 10.1017 / CBO9780511897696.003
  • Lindström, Per, 1966, «Logique des prédicats de premier ordre avec quantificateurs généralisés», Theoria, 32 (3): 186–195. doi: 10.1111 / j.1755-2567.1966.tb00600.x
  • Linnebo, Øystein, 2006, «Ensembles, propriétés et quantification illimitée», dans Rayo et Uzquiano 2006: 149–178.
  • Luosto, Kerkko, 2000, «Hiérarchies de quantificateurs généralisés monadiques», Journal of Symbolic Logic, 65 (3): 1241–1263. doi: 10.2307 / 2586699
  • Montague, Richard, 1974, Philosophie formelle: articles choisis de Richard Montague, Richmond H. Thomason (éd.), New Haven, CT: Yale University Press.
  • Moss, Lawrence S., 2015, «Natural Logic», dans The Handbook of Contemporary Semantic Theory, Shalom Lappin et Chris Fox (eds.), Deuxième édition, John Wiley & Sons, 646–681.
  • Mostowski, Andrzej, 1957, «Sur une généralisation des quantificateurs», Fundamenta Mathematicae, 44 (1): 12–36. doi: 10.4064 / fm-44-1-12-36
  • Mostowski, Marcin, 1998, «Computational Semantics for Monadic Quantifiers», Journal of Applied Non-Classical Logics, 8 (1–2): 107–121. doi: 10.1080 / 11663081.1998.10510934
  • Odic, Darko, Paul Pietroski, Tim Hunter, Justin Halberda et Jeffrey Lidz, 2018, «Individus et non-individus dans la cognition et la sémantique: la distinction de masse / décompte et la représentation de la quantité», Glossa: A Journal of General Linguistics, 3 (1): 61. doi: 10.5334 / gjgl.409
  • Paperno, Denis et Edward L. Keenan (éd.), 2017, Handbook of Quantifiers in Natural Language: Volume II, (Studies in Linguistics and Philosophy 97), Cham: Springer International Publishing. doi: 10.1007 / 978-3-319-44330-0
  • Parsons, Terence, 1997 [2017], «La place traditionnelle de l'opposition», The Stanford Encyclopedia of Philosophy, (été 2017), Edward N. Zalta (éd.). URL =
  • Peters, Stanley et Dag Westerståhl, 2002, «L'anglais a-t-il vraiment une quantification résumée?», Dans La construction du sens, David I. Beaver, Luis D. Casillas Martínez, Brady Z. Clark et Stefan Kaufmann (éd.), Stanford, CA: Publications CSLI, 181–195.
  • –––, 2006, Quantifiers in Language and Logic, Oxford: Oxford University Press. doi: 10.1093 / acprof: oso / 9780199291267.001.0001
  • –––, 2013, «La sémantique des possessifs», Language, 89 (4): 713–759. doi: 10.1353 / lan.2013.0065
  • Pietroski, Paul, Jeffrey Lidz, Tim Hunter et Justin Halberda, 2009, «La signification de« la plupart »: sémantique, numérosité et psychologie», Mind & Language, 24 (5): 554–585. doi: 10.1111 / j.1468-0017.2009.01374.x
  • Rayo, Agustín, 2012, «Absolute Generality Reconsemed», dans Oxford Studies in Metaphysics Volume 7, Karen Bennett et Dean W. Zimmerman (éd.), Oxford: Oxford University Press, 93–126. doi: 10.1093 / acprof: oso / 9780199659081.003.0004
  • Rayo, Agustín et Gabriel Uzquiano (éds.), 2006, Absolute Generality, Oxford: Clarendon Press.
  • Sher, Gila Y., 1997, «Quantificateurs généralisés partiellement ordonnés (ramification): une définition générale», Journal of Philosophical Logic, 26 (1): 1–43. doi: 10.1023 / A: 1017944808396
  • Steinert-Threlkeld, Shane, 2016, «Certaines propriétés des langues itérées», Journal of Logic, Language and Information, 25 (2): 191–213. doi: 10.1007 / s10849-016-9239-6
  • Steinert-Threlkeld, Shane et Thomas F. Icard III, 2013, «Itérer des automates sémantiques», linguistique et philosophie, 36 (2): 151–173. doi: 10.1007 / s10988-013-9132-6
  • Steinert-Threlkeld, Shane et Jakub Szymanik, à paraître, «Learnability and Semantic Universals», Semantics and Pragmatic. [Steinert-Threlkeld et Szymanik à paraître disponibles en ligne]
  • Szabolcsi, Anna, 2010, Quantification, Cambridge: Cambridge University Press. doi: 10.1017 / CBO9780511781681
  • Szymanik, Jakub, 2016, Quantifiers and Cognition: Logical and Computational Perspectives, (Studies in Linguistics and Philosophy 96), Cham: Springer International Publishing. doi: 10.1007 / 978-3-319-28749-2
  • Westerståhl, Dag, 1987, «Branching Generalized Quantifiers and Natural Language», dans Generalized Quantifiers, Peter Gärdenfors (ed.) (Studies in Linguistics and Philosophy 31), Dordrecht: Springer Netherlands, 269-298. doi: 10.1007 / 978-94-009-3381-1_10
  • –––, 1989, «Quantifiers in Formal and Natural Languages», dans Handbook of Philosophical Logic, Dov M. Gabbay et Franz Guenthner (eds.), Dordrecht: Springer Netherlands, 4: 1–131. Réimprimé, 2007, Handbook of Philosophical Logic, Dov M. Gabbay et Franz Guenthner (eds.), Dordrecht: Springer Netherlands, 14: 223–338. doi: 10.1007 / 978-1-4020-6324-4_4
  • –––, 1994, «Iterated Quantifiers», in Dynamics, Polarity, and Quantification, Makoto Kanazawa et Christopher J. Piñón (eds.), (CSLI Lecture Notes 48), Stanford, CA: CSLI Publications, 173–209.
  • –––, 2012, «Classical vs. Modern Squares of Opposition, and Beyond», dans The Square of Opposition: A General Framework for Cognition, Jean-Yves Beziau et Gillman Payette (dir.), Berne: P. Lang, 195 –229.
  • –––, 2017, «Sameness», dans Feferman on Foundations, Gerhard Jäger et Wilfried Sieg (éd.), (Contributions exceptionnelles à la logique 13), Cham: Springer International Publishing, 449–467. doi: 10.1007 / 978-3-319-63334-3_16
  • Williamson, Timothy, 2003, «Tout», Perspectives philosophiques, 17 (1): 415–465. doi: 10.1111 / j.1520-8583.2003.00017.x

Outils académiques

icône de l'homme Sep
icône de l'homme Sep
Comment citer cette entrée.
icône de l'homme Sep
icône de l'homme Sep
Prévisualisez la version PDF de cette entrée à la Friends of the SEP Society.
icône inpho
icône inpho
Recherchez cette rubrique d'entrée sur le projet d'ontologie de philosophie Internet (InPhO).
icône de papiers phil
icône de papiers phil
Bibliographie améliorée pour cette entrée chez PhilPapers, avec des liens vers sa base de données.

Autres ressources Internet

[Veuillez contacter l'auteur avec des suggestions.]