PLAN: Intros (1) (2) | Exemple de l'intro2 explicité.
Loi de Baye | intro/résumé/l'essentiel
Approndir: | explication1/Phi | explication2/Lê | explication3/HyMen (ex de Intro2)
Applications et Sujets liés: incertitude d'Heisenberg; relativité(référentiel); ...
* Intro'0'(ma formulation qui donne à la fois un apercu de la loi et les tenants/aboutissants)
Pour déterminer la probabilité vraisemblable (vraisembl-ance, -abilité) d'une chose, cad de données s.l*, il faut rapporter la probabilité des Données mesurées (qui inclut l'imprécision de leur mesure) à la probabilité de la Theorie, et combiner cela à la plausabilité de la Théorie sachant les données seules).
Ce qui s'écrit comme loi de baye/formulation simple : P (A|B) = P(B|A) . P(A) / P(B) (probabilité conditionnelles: P(A|B) signifie Proba de A sachant B
P (Theorie|Données) = P (Données[Théorie) . Facteur d'inférence/croyance au système
Ceci revient à convertir la proba de la mesure (conditionnée) en proba de la théorie (conditionnée), avec un facteur correctif inférant nos croyances relatives aux données et à la théorie (au système)/
On peut exprimer la loi de Bayes comme
.une égalité entre des rapport de probabilités mesurées et 'sait/croit' [ P(A|B)/P(B|A) ] et de proba effectives dans la réalité/totalité [ P(A) / P(B) ]
.une égalité entre les rapport de proba qu'on mesure et effective, pour les données [ P(B|A)/P(B) ] et la Théorie [ P(A|B)/P(A) ].
.une formulation plus puissante (et complexe) faisant ressortir ... Cf infra 'Loi de probabilité totale'). Cf infra.
L'approche bayesienne invite à
-accepter l'incertitude sur la Théorie (envisager que d'autres théories pourraient mieux les expliquer), et aussi l'incertitude des Données (faux positifs et faux négatifs, dûs aux imprécisions, erreurs, ... ou justement à l'inadéquation de la Théorie).
-conclure plutot sur la théorie (+/- plausible) que sur les données (donc l'incertitude est plus appréhendable, et précisable en répétant les mesures et/ou élargissant les echantillons testés)
-(ré)évaluer la confiance (plausabilité initiale > finale) de la Théorie(A) plutot que celle des Données (proba(B)) car on pourra compléter ces dernieres (mesure répétée; autres populations). Le facteur d'ajustement (d'inconnu/inexplicable s'exprime comme le rapport des 2 probabilités du test et de données (interaction).
Une illustration plus commune/abordable de l'analyse baysienne correspond aux Tests diagnostiques:
-la proba plausible d'une Théorie, P(B|A), correspond(rait) à la spécificité du Test diagno, qui repose surtout sur les VraisPositifs
-la proba vraisemblante des Données B, P(B|A), correspond(rait) à la sensibilité du Test diagno, qui repose surtout sur les VraisNegatifs
-l'interprétation usuelle qu'on fait d'un test diagno n'incite pas à faire ressortir la confiance initiale (plausabilité) et finale (vraisemblabilité) qu'on place dans le test (et les données de validation du test; et les incertitudes sur le présent test!). En proba Bayesienne, on infère sa croyance d'après les données dans le systeme de données test/population, P(A)/P(B). (FP+FN)/Total.
La valeur de la Theorie/Test est établie à partir d'une étude sur une population référente dont la prévalence de la maladie n'est(était) pas la même que la population testée et en amont sa sensibilité, la dissémination, ...diffèrent) (=le Referentiel). Ainsi on voit que la sensibilité et spécificité du test change dans une population à prévalence plus faible [b] ou plus forte [c], et plus encore les valeurs prédictives:
-La prévalence (de la maladie) = nb de malade dans la population / population totale.
-La valeur prédictive positive (et negative) = VP/(VP+FP) [VN/(VN+FN)] : dépend beaucoup de la la prevalence dans la population (testée)
-La sensibilité et la spécificité (du test) est plus caractérisitique du test et sera identique sur des populations +/- atteintes prévalence) mais équivallentes en sensibilité/modes de dissémination...Ces 2 caracteristiques varient néanmoins selon la population/environnement, ce qui introduit un biais.
-On voit que l'incertitude [et inversement la plausabilité] du systeme de données de population relative au test, s'exprime en ratio de proba P(A)/P(B) (relative). En testdiagno on a envie de le faire correspondre à (FP+FN)/Total, et c'est ici plus faible à faible prévalence, et plus forte à fort prévalence (ce qui peut semble contreintuitif). Mais elle serait quasi inchangée à faible, ou forte prévalence si le test donnait beaucoup plus de VraiNegatifs et donc test faiblement sensible (ou FauxPositif - faible spécificité). La plausabilité dse DonnéeA / TestB serait (VP/Total)/(
* Intro1('pour les nuls', sans aborder l'aspect théorique. 20200428pourLB)
Pour toute analyse/déduction ordinaire on part d'une connaissance et de théories considérées comme vraies, meme avec une marge d'erreur. Les théories sont des déductions rationnelles (*) expliquent des acceptations plus avancées alors considérées comme connaissances vraie aussi. En diagnostique par exemple... on caractérise un test pas des mesures de 4 données chiffrées (VraisPositifs, VraisNegatifs, Faux Positis, FauxNegatifs), qu'on aime résumer pour confiance au test par 2 critères d'appréciations, la Sensibilité et la Spécificité. En général pour déduire (diagnostiquer une maladie) on privilégie la sensibilité pour déduire directement et conclure malade ('exacte') ou non (malade inexact), ce qui nous rend confiant (en ayant confondu plausabilité et vraisemblance). Au mieux on conclut avec un seuil d'erreur acceptable. On passe outre ce qu'on ne sait pas, et le fait qu'on s’appuie sur des croyances (avec une confiance surévaluée à son savoir antérieur) plus ou moins honnêtement applicables. Alternativement, si on reconnait que "On sait pas trop..." on reste bloqué ou hésitant avec ses effets néfastes intellectuellement (l'indecision continuelle ou dilemne qui déchire; ou l'abandon/irresponsabilisation: "on ne sait pas.. et on s'en fou").
En analyse bayésienne on comprend déjà avant d'analyser que:
.le 'savoir' correspond à des données antérieures utilisées comme un référentiel avec une théorie explicative (+ou- exacte et robuste: spécificié/sensibilité, marges d'erreur/d'inexpliqué), et
.l'analyse/déduction consiste à déduire par inférence probabiliste (et non déduction causale. Tout ca demande explication: cf infra),
.ceci amène à croire ou réfuter une conclusion sans bannir les autres explications,
.mais aussi amène à réviser sa croyance dans la théorie antérieure d'un niveau de vraisemblance A à B: la confiance en la theorie explicative sera augmentée si les nouvelles données agrégées s'avéreront avoir été exactes' (plus vraisemblables encore), ou diminuée si ca colle moyen ou bof.
L'analyse bayésienne rend plus conscient des biais d'analyse convergents (ca colle trop bien, ex: biais de confirmation ou sur-interprétation (overfitting)) ou divergents (de prévalences, de facteur 'ignoré', facteur de confusion...), parce que le référentiel de données/théories est incomplet et évolue: à un moment le modèle explicatif peut en prendre un coup (en confiance) ce qui amène à en changer. ll s'agit de se méfier aussi de biais méthodologiques (de logique, de proba), qui interviennent dans les biais évoqués. Ainsi déduire un résultat qui sera réutilisé comme donnée, sans en répercuter la part implausible, explique le bais de confirmation/overfitting.
A la base il y la notion de probabilité conditionnelle à comprendre.
Le pièges à éviter sont en pratique: 1)Ignorer la probabilité de notre à priori (ignorance du taux de base) 2)ignorer la proba des faux positifs (non spécificité) ou confondre fiabilité du test et fiabilité du résultat 3) Croire que si la preuve est très fiable, le résultat est très probable (c'est le point le plus piègeux/délicat pour rester bayèsien).
* Intro2('pour les nuls' non rebelles à un peu de probabilité)
Pour aborder le principe d'analyse bayèsienne de facon visuelle, regarder la vidéo d' Hygiène mentale , dont une bonne illustration du paradigme, et (a 13-17min) une super représentation des données et résultats et conclusions par un tableau probabiliste dynamique (homologue a celui d'un résultat diagnostique VP,FP,FN,VP).
Présenté par MrPhi c'est plus maths(episode2/20min) et interessant sur les reflexes à avoir..
Voir aussi sa vidéo(17min) fait toucher du doigt la confusion des logiques classiques, et le concept de bas à l'analyse bayesienne, sans la nommer!, sur l'ex du jeu de dé 6 perdant qui perd sans cesse malgré les 1,2,3,4,5 gagnants: on ressent(et comprend) pourquoi il faut avoir un apriori sur l'énoncé et le réviser par rapport à la théorie et aux données, plutot que refuter l'un de ces derniers: j'accepte l'énoncé du jeu .. hélas je perds (6perdant). Alors intuitivement de prime abord je me base sur le(s) tirage(s) précédant(s) -toujours le 6 sort- pour ne plus jouer dès le 2m ou 3m tirage, et au pire au 4m (par raison probabiliste frequentielle: un quadruple ou quintuple 6 est hautement improbable). Puis la raison (aussi probabiliste frequentielle) me fait devoir continuer à jouer puisque les tirages sont parfaitement indépendants: ma 1r analyse logique (5chances sur 6 de gagner) reste valable pour chaque nouveau tirage! (ainsi, mon voisin prendrait ma place, ce serait son 1r choix! Idem en inversant nos roles). Or peu a peu, la suite d'échecs erode ma confiance dans la loi probabiliste ou m'accule à la confusion, ou à croire etre poursuivi par la malchance (fatalisme); soit je ne veux plus jouer au 6 gagnant: je ne fais plus confiance à la théorie (proba frq.aléatoire). Soit je préfère considérer à nouveau les données des tirages passés cumulés (la suite de 6 consécutifs) devenus toujours plus 'improbables' (car 1/6)^n) en pensant qu'une main invisible va bien reéquilibrer les tirages non-6, tot ou tard. C'est là qu'on pourra toucher du doigt qu'il n'est nulle raison que cette main existe et réquilibre les tirages pour moi, à mon échelle dans tous les tirages à l'infini: l'aléatoire absolu impose qu'il existe 4 ou 1000 tirages consécutifs du '6'. Il ne peut pas y avoir d'équilibre ou répétition prévisible local/temporaire dans un vrai hazard ou aléa ou désordre, s'il n'est global !. Nous voilà à présent confus-perdus.
Pourtant les 2 raisons/approches logiques suivent les memes lois probabilistes! On comprend que se niche dans une logique parfaitement rationnelle, qqchose de contradictoire dans notre logique (conflit) ou bien qu'il faut réfuter l'énoncé: je vais douter que les dés sont comme affirmé "non-pipés", ou je cherche d'autres biais (le vent? un aimant? un fil?...). Et si d'autres biais n'étaient pas accessibles a étre détectés ou compris?
L'approche baysienne concilie les 2 approches logiques classiques, échappant à mettre en cause (seulement) la théorie (les lois des probabilités sont fausses), ou les données antérieures (de faux 6 cachaient/maquillaient des 1,2,3,4,5), ou à céder au fatalisme (une foi que 'le sort s'acharne sur moi', entre en conflit avec ma foi initiale en la logique/probabilités): il faut réviser ses apriori sur l'énoncé, en fait en n'accordant plus la meme confiance (plausabilité) dans l'énoncé pour le problème/résultat attendu (de 99.9% à 80% puis 50%...: il y a des dés pipés parfois (biais), ou des biais inconnus/non identifiables, des faux négatifs (tirages de "faux 1.2.3.4.5" qui sont en fait des 6)). et pourquoi des faux positifs (voir des 6 qui seraient en fait des 1.2.3.4.5).
C'est plus approfondit mais trop long et bof présenté par Science4All dont c'est le dada..., par ex ex Episode7/20min); ou le Webinar 37min/stbg interesant (mais 'hard') pour la notion d'élicitation et forme fonctionnelle/famile de loi (Gauss, Poisson, Bernouilli...).
E plus court/intuitif sur d'autres exemples sans aucune matho/logique, voit la vidéo Bayes pour les nuls/Vianx-5m30 mais très bof pour moi.
En visuel donc, l'essentiel tient dans ca:
( revoir l'image/tableau (a) pour expliciter(corriger!) le 33% en D4 et D6 (point arbitraire qu'il a pris?!; il faut +to 'présomption(a) à 100% pour H(D6) et 0% les autres', et 'présomption(a2) à 25% pour tous les dés sans le D6 qui est assurément pipé', puis 'présomption(a3) à 20% pour tous les dés (à priori neutre)'. Préciser au tableau (c) la bulle '3', corrigée en '3 sachant ma croyance a postériori de 7 avec un à priori a3' )
Expliqué avec un exemple(explicité en détail infra au § 'Exemple du tirage de n°/dé ) :
quelle est la proba à priori de tirer un chiffre donné avec un dé? (Question de type fréquentiste)
Question Piège!, car la réponse dépend du dé, du moins son type ou s'il est pipé.
=>On pourra souhaiter simplifier le problème: "Sachant que j'ai un dé type D6, quel est la proba de tirer tel chiffre?" (Question fréquentiste restreinte (inconditionnelle))
=>On pourra souhaiter ne pas échapper à la profondeur du problème: modéliser le biais du pipage d'un dé ordinaire (à 6 faces(D6)) avec différents dés qui représenteraient les incertitudes possibles du modèle...(D4, D6, D8, D12 ou D20 faces équiprobables)
=> La question est donc plutot: 'sachant qu'il y a un pipage/incertitude du type de dé, quelle est le dé qui est le plus probable d'avoir tiré tel numero?, et alors quelle est la proba de tirer ce numéro?' (Question de type bayésienne+fréquentiste conditionnelle)
En reportant nos déductions d'un tableau à l'autre, on déduit>infére que ce serait
a) D4 ou D6 qui offrent la plus grande probabilité de tirer un numéro donnée (36%) ... mais on se ravise (pour le 7) que ce serait 12.4% (que D8 seul) ou plus exatement 13.42% (referentiel 5 dés);
b) puis on change d'apriori pour conclure une proba de tirer le 7 de 48.5% (que D8/référentiel 3 dés).
Puis c) si je tire un 3, en gardant l'expérience acquise de mon nouveau référentiel de 3 dés, la probabilité de "tirer un 3 (idem avec un 7) ET d'avoir utilisé le D8" va monter à 61.67% ('3' & D8 & référentiel 3 dés possibles).
Si je sais que j'ai tiré au moins une fois un numero entre 13 et 20, alors je sais que j'utilise le D20, alors je déduis que les proba de tirer un numero donné (et tout pareil) est de 5%: l'analyse fréquentiste (probabilité non conditionnelle d'autres raisons/erreurs de modèle possibles) devient exacte.
Exemple du tirage de n°/dé (explicité en détail) : Hygiène mentale (à 13min) :
quelle est la proba à priori de tirer un chiffre donné avec un dé? (Question de type fréquentiste)
Question Piège!, car la réponse dépend du dé, du moins son type ou s'il est pipé. Car si on voit que le dé à 6faces (le modèle courant), qui nous dit que 3 faces ne serait pas plus lourde (ou légères, non plane,..) et moins probables (ou plus probable), et pire qu'il n'y ait pas une, ou des faces cachées (hautement improbales: elle ne sont jamais 'tirées': 3 des 8 angles forment en fait de microfaces, en biais, pas symétriques...). Notre modèle de tirage d'un nombre, le Dé, n'est donc pas totalement connu, considérons qu'il est pipé ce qu'on voit comme sa part d'erreur par rapport à ce qu'on attend (la théorie d'équiprobabilité de tirage des faces/numéros). On ne peut apprécier ce pipage (ou nb de faces + microfaces réelles) qu'en le testant par de nombreux essais.
=>On pourra souhaiter simplifier le problème: "Sachant que j'ai un dé type D6, quel est la proba de tirer tel chiffre?" (Question fréquentiste restreinte (inconditionnelle)). Et on donnera 2 réponses: 16.6% pour 1 à 6, et 0% pour les autres chiffres. Mais on voit que cette réponse nous conditionne a connaitre une information sur le numéro demandé (ce qui empeche de généraliser), et que le modèle de tirage est supposé non biaisé (parfait - ce qui n'est jamais la réalité). On se conditionne à décrire/appréhender qu'une partie des choses, du monde,... et ignorer ce qu'on expliquera pas, ou le déclarer faux.
=>On pourra souhaiter ne pas échapper à la profondeur du problème: Illustrons (modelisons) le biais du pipage d'un dé ordinaire (à 6 faces(D6)) avec différents dés qui représenteraient les incertitudes possibles du modèle... On pourrait envisager que des faces du cube D6 ne sont pas plates (arrondies) ou plus petites. Mais considérons que des micro(sur)faces supplémentaires existente aux angles, en biais ou arrondies qui font qu'il est improbable que le dé se stabilise dessus. De telle microsurfaces aux angles qui ne sont pas symétriques et en biais pas forcément à 45°C, feront que le dé va retomber plutot sur certains faces 1à6 que d'autres. Admettons qu'une combinaison des ces microfaces d'angles font retrouber sur/tirer les 1, 2, 3 et 4 plus fréquemment, et à la limite, les 5 et 6 ne sortent jamais: on a un dé à 4 faces (D4, et le numero se lit orienté vertical à la pointe) qui est une figure équiprobable homologue à un pipage de D6 par des angles inégalement arrondis.
D'autres dés pipés ont des surfaces plates aux angles suffisantes pour tenir dessus en equilibre et afficher des numéros 7 à 12, avec donc de plus faibles probabilités que les faces 1à6*: si ces surfaces augmentent et deviennent équivallentes aux faces 1à6 (de meme taille et symétriques) on a un dé à 12faces (D12), dé equiprobable homologue à un D6 pipé. On pourra piper plus encore le dé et obtenir un homologue équiprobable à 20faces(D20). Et que ce pipage conduit inversement certaines faces du D6 à etre beaucoup plus probales, cad qu'on a un dé à 4faces(D4)!).
A l'objection que des dès D12 et D20 changent le problème (d'un tirage de (vrai) D6 pipé), que ca réduit la probabilité des tirages 1-6 (D12 = D6 "'sous'pipé"), qu'il ne s'agit pas d'introduire de nouveau numeros à tirer,... on pourra d'envisager que les microfaces d'angles ne sont pas numérotées 7à12 mais 1à6, et de facon inégale: par ex 3 microfaces affichent '1', 2 affiche '2', et 1 affiche '4'. Nous revoilà avec un (vrai) D6 pipé, je dirais 'sur'pipé car il augmente la probabilité de certaines faces d'un D6 equiprobable, par opposition à un dé D6 que je qualifierais de 'sous'pipé s'il est homologue à un D4 equiprobable (reduction de probabilité de certaines faces).
Ce qui nous amène a envisager qu'un dé 'sur'pipé (type D20 ou D1347?!) pourrait mimer un dés 'sous'pipé type D4 (mais pas l'inverse?). Qui peut le plus peut le moins dira t on, comme en math un nombre elevé peut se comporter, à un égard ou un autre, pareil que ses racines (carré,...) ou que le produit de ses bases premières (2^4.3^2.7^2 % 2^4.3^2.7^1), ou qu'un cristal 3D pareil qu'une grille 2D (dans certaines directions),... Ce qui nous faire entrevoir que derrière tout evenement ou chose peut s'en cacher d'autres, une dimension cachée, des harmoniques.
Autre digression, on peut imaginer le pipage d'un dé par des batons plantés sur les faces dont la pointe dressée empecheraient tout ou parti le tirage de la face ou il est connecté. Ces batons définissent en fait d'autres faces (vides, disons 'virtuelles') entre leur sommet et les angles du dé. Ces faces 'virtuelles' enserrant de lacunes font échos à la structure lacunaire de la matière, aux hologrammes,... Le dé se pose sur une face 'virtuelle', le 'vrai' dé(surfaces physiques) apparraisant en bais pour nous, on voit les numéros de biais, 2 ou 3 en meme temps (état de superposition). Ces faces 'virtuelles' peuvent chevaucher d'ailleurs différentes face 'réelles', cad que les batons influent sur la probabilité de plusieurs faces (et cette influence sur les autres faces pourra etre vue comme existante mais neutre pour une face réelle du dé). Les angles peuvent d'ailleurs etre vus comme des batons de longueur infinie (du moins relativement au dé). On en arrive à un ensemble de spicules, à un shéma de molecule en mode éclaté,... ou les 'vraies' faces de dés ne touchent plus le sol (lévitation; ma,ifestation d'une force de distanciation). Au final, l'apparence et la probabilité de voir tel numero ou tel numero dépend d'un réseau de pointes de batons... (echos à la dualité onde-corpuscule).
Alors on ecarte de présumer 100% pour l'hyptohèse D6 (et 0% pour les autres), et voudra affecter 25% de confiance pour tous les dés pipés (cad sauf pour D6 assurément pipé). Mais pourquoi écarterait on D6, qui reste quand meme le dé puis 20% pour tous les dés (sans a priori).
Alors la probabilite d'avoir un pipage de type D20 ou D12, ou inversement D6 ou D4, dépend de tous les numéros qu'on arrivera à tirer (les résultats antérieurs)! En effet D4 et D6 ne permettent pas de tirer par ex le 7. Et D12 et plus encore D20 sont hautement improbables si on n'a encore jamais tiré le 18.
La question est donc plutot: 'sachant qu'il y a un pipage/incertitude du type de dé, quelle est le dé qui est le plus probable d'avoir tiré tel numero?, et alors quelle est la proba de tirer ce numéro?' (Question de type bayésienne+fréquentiste conditionnelle)
Si on a déjà tiré un 7 (ou observé une fréquence du '1' supérieure à l'équiprobabilité (de 1 à 6), ca nous renseigne sur le dé et en conséquence qu'il nous faudra changer de paradigme: "je n'utilise en fait pas le dé que je croyait D6(ou D4) ! Ou alors il a une des ses faces au moins (1à6) capable aussi d'afficher le n°7 (disons que 7 est lisible quand la face est orientée NordSud). Ou alors c'est un dé à 7 faces? pourquoi pas à 8 ou 12 voire 20 faces?
= Il faut conclure sur la proba de tirer par ex le 7 sachant seuls possibles des dés de types D8 D12 D20. Ce qui amène à cumuler la proba du 7 (pour chaque Dé) et la proba de chaque Dé pour le résultat (connu).
Re: l'équiprobabilite de tirer un numéro de 1 à 6 peut se maintenir en présence de tirages tiers (le 7) et les probabilités elles diminuent alors. On peut alors continuer a reflechir en proba fréquentiste (avec des evenements 1-6 et non(1-6) indépendants). Les probabilités de tirer 1 à 6 peuvent cependant aussi diverger quand les tirages tiers sont liés à 1 à 6, et c'est là qu'il faut absolument changer de référentiel, et adopter une approche bayésienne (relative au référentiel ET au probabilités).
En reportant nos déductions d'un tableau à l'autre, on déduit>infére que ce serait
a) D4 ou D6 qui offrent la plus grande probabilité de tirer un numéro donnée (36%) ... mais on se ravise (pour le 7) que ce serait 12.4% (que D8 seul) ou plus exatement 13.42% (referentiel 5 dés);
b) puis 48.5% (que D8/référentiel 3 dés).
Puis c) si je tire un 3, en gardant l'expérience acquise de mon nouveau référentiel de 3 dés, la probabilité de "tirer un 3 (idem avec un 7) ET d'avoir utilisé le D8" va monter à 61.67% ('3' & D8 & référentiel 3 dés possibles).
En recommancant avec ma encore nouvelle plausabilité considérée à présent comme forte vraisemblance que j'utilise bien le D8, chaque tirage du 3 augmentera la proba de tirer un 3 ou un 7 (avec D8), par contre a chaque fois que je tirerai plus que le 8, disons un 11, cela invalidera la proba/vraisemblance d'avoir utilisé le D8: le 'pipage' correspondait au D12, voir au D20, ce qui change retrospectivement les probabilités que j'avais calculées ne sachant pas cela (tirage possible du 11).
Idem, si je sais que j'ai tiré au moins une fois un numero entre 13 et 20, alors je sais que j'utilise le D20, alors je déduis que les proba de tirer un numero donné (et tout pareil) est de 5%: l'analyse fréquentiste (probabilité non conditionnelle d'autres raisons/erreurs de modèle possibles) devient exacte.
* (loi) Loi de probabilité de Baye: P (A|B) = P(B|A) . P(A) / P(B) (1) avec 'A' = données mesurées, et B = Theorie(modèle, test) .
(aussi appelée formule de probabilité des causes car calcule la proba de causes, les données (A, obtenues avec un proba/précision P(A)), sensées cohérentes et donc conforter la Théorie (B) (presupposée, et inférée d'autant plus vraisemblable -sinon elle sera infirmée/plausabilité réduite).
et autres formulations (+avancées): attn/inversion de l'écrire ci dessus?/ 'A' = Theorie(modèle, test) et B = données mesurées.
: P(Theorie A|Données B) = P(D|T) . P(T)/P(D) ≡ P(T) / P(D|nonT) (2) (approximation qd P(T) << P(D) (cad P(D)<<P(T) et P(D)/P(T)≡1 dans la formule 1)
Dans ces conditions (à vérifier) on peut considerer la proba des Données (sachant T, de proba tres faible) comme étant celle de la Théorie|B, et la loi exprime qu'on l'approxime par calcul en divisant la proba de la Théorie (seule) par la proba des données non expliquées par la Théorie. L'interet est de faire ressortir ce que d'autres théories expliqueraient (mieux), et rendraient alors moins plausible la Théorie actuelle.
: P(B) = Somme(n>) P(B|An) . P (n) (3) [/BibMath.net]. Semble la formulation de base du théorème de baye. C'est quand P(B)>0 qu'on peut passer à la formulation (1) puis (4)
: P(Théorie|Données) = P(D|T) . P(T) / [ P(D|T) . P(T) + Somme(A<>T))[ P(D|A].P(A) ] (4)(formulation préférée de [Lê]: P(B)= ... elaborée avec la 'Loi de probabilité totale')
* (résumé)
. Causes (Données,Théorie) =(déduction)=> Résultat(s) plausible(s) (déduits de/impliqués par les D et T considérées fiables, ou qui 'Prouvent' la Theorie à x% si D considérées fiables)
c'est l'analyse frequentielle, qui se se prête à la prédiction (de résultats), ... mais ne remet pas en cause la Théorie (sauf à tout refuter, et on n'aura guère avancé).
. Données (sachant la Théorie) =(induction)=> Résultat: confiance (crédence) dans les Données et la Théorie (si Théorie & Données vraisemblables)
c'est l'analyse baysienne qui infère ('déduit' par induction en donnant une incertitude d'erreur possible) que les Données et la Theorie sont en accord.
L'analyse Bayésienne consiste à utiliser des résultats (données IIr) pour tester des explications (basées sur d'antérieures connaissances; Données et Théories; croyances, préjugés) qu'on pourra réviser, avec un degré de confiance/vraisemblance, et non plus à utiliser une Théorie(calcul, modèle, explication, connaissances, règle/loi,... - crue vraie, alors qu'elle est simplement +/- plausible) pour montrer un résultat (cru +/- fiable: avec des erreurs de mesure, or il est vrai par essence). Plutot que mettre les écarts à la théorie sur le dos d'erreurs, on les impute à d'autres théories (non T) qui entrent en concurrence avec la Théorie initiale pour la considérer moins fiable (ou la conforter).
Il s'agit non plus de déduire par implication (Données-(& Théorie)->Résultats = Conclusion), mais par induction (du résultat à la cause). Le système de Données+Théorie qu'une Assertion est exacte (A: la Théorie/Conclusion/Résultat d'Interprétation de Test) avec une probabilité que ces données et théories sont cohérentes(plausabilité), la P(A|sachant|Données). Cela permet de douter autant de la Théorie (possiblement inexacte) que des Données (partiellement inexactes), en tenant compte de biais fréquents en logique causale/analyse fréquentielle, notamment: 1) le biais de prévalence (des Données évaluées, par rapport à celui de la Théorie: données bien plus rares ou fréquentes que la la population référente de la Théorie), et 2) le biais qui viendrait qu'une(des!) autre Théorie expliquerait mieux le problème.
La formule/loi de Baye calcule cette probabilité de vrai/exactitude en faisant ressortir les facteurs qui souvent trompent notre appréciation/jugement/conclusion:
-il faut relativiser un résultat d'analyse à la probabilité de notre à priori { P(D) }
-il faut relativiser ce résultat à la probabilité des faux positifs (non spécificité) { P(D|A) } (celle ci pouvant etre décomposée en.... cf expli(2)).
-la fiabilité d'un test(ex diagno - ou méthode ou théorie d'interprétation) n'est pas la fiabilité du résultat, car elle combine la fiabilité de détection positive (sensibilité=%VraisPositifs/peu de faux négatifs) et la fiabilité de détection négative (spécificité=%VraisNégatifs/peu de faux négatifs) qui sont des grandeurs liées a)au test mais sont moyennes et interdépendantes; et b) liées aux données référentes (l'à priori: mesure en condition de prévalence forte ou faible?). Fiabilité, sensibilité et spécificité sont determinables globalement (sur un univers référent) mais en partie indécidables sur sous ensemble ou autre univers, et en particulier pour un individu, et indécibles en valeur individuelle -sauf à mesurer sur chaque population: grandeurs multidimensionnelles-: il y a une part incertaine (ou de confiance, de plausibilité) qui se balance entre toute donnée initiale et tout résultat final. (ceci rejoint l'incertitude d'Heisenberg)
L'inférence Bayesienne utilise l'induction (qui induit) en la probabilisant (qui infère), plutot que l'implication (qui déduit) avec un degré de confiance (qui rassure mais masque des données et explications non considérées, possibles).
Données et Théorie: « Tous les hommes sont mortels. Socrate est mortel. [Hommes ∈ Mortel; Socrate ∈ M)
(la théorie est dans ce cas le sens des mots: 'Hommes' et 'Mortels' sont l'ensemble d'entités 'homme' et 'homme mortel';
'est/sont' revient à dire 'appartient' (∈) aux Mortels; 'Socrate' est une entité ... par rapport à ... 'Homme' (ou ... !)
Déduction implicative (qui nous est familière, en analyse fréquentielle): [=>]
Donc (ca implique que) Socrate est un homme ». [ => S ∈ H )
Déduction inductive (utilisée par l'analyse bayésienne): [<=]
<= Donc (induction:) il y a des chances que Socrate soit un homme ». [ <= S ∈ H ]
Cad qu'en démonstration implicative (usuelle, cartésienne) on est sûr de sa conclusion car on considère à priori qu'on n'a pas d'autres possibilités, ... mais on peut avoir conclu avec un non sens sans s'en rendre compte, ou la conclusion s'avère adhoc(mais fausse, ou onconfirme juste ses à priori, car on est passé à coté d'une réalité non connaissable / décrivable / prévisible par le modèle/théorie (facteur de condusion).
en démonstration inductive on conclue sans certitude absolue, mais on se ménage la possibilité d'autres explications possibles (moins probables):
si Socrate n'était pas un Homme, c'est que mon modèle explicatif et faux. Mais je ne remets pas en cause le fait que les hommes soient mortels, ni Socrate le soit. Il y a autre chose qui peut expliquer ca que je n'ai pas saisi dans les données, ou dans les lois/règles:
Possibilité alternative1: Socrate n'est pas un homme, mais dans ce contexte une allégorie de l'Homme, une œuvre (hélas éphémère car remise en cause).
Possibilité alternative2: Tous les hommes sont mortels de nos jours, mais pas à l'époque de Socrate (qui en plus était un Dieu).
-Intro: l'analyse de Baye consiste, en se méfiant de 3 biais, à utiliser des données/preuves pour réviser des croyances antérieures (connaissances; préjugés), et non pas croire avoir montré un résulat (+/-) faible.
(Phi-17m): pour faire une analyse qui s'approche d'un analyse bayésienne, sans faire de calcul de proba, il faut etre vigilent et éviter de: 1)Ignorer la probabilité de notre à priori (ignorance du taux de base) 2)ignorer la proba des faux positifs (non spécificité) 3) Croire que si la preuve est très fiable, le résultat est très probable. C'est le point le plus piègeux/délicat pour être bayèsien:
[GRAPH a faire, et ajouts aval[+]] Un test fiable à 99% est sensé donner 99% de bons résultats (positif) sur des malades, et 99% de bons resultats (négatifs) sur des personnes saines. Or on ne sait en général pas ci cela a été defini sur une population similaire à la sienne (1malade/1000), plus saine ou plus malade[+]... Admettons connaitre la prévalence (initiale) de 1/1000[+], un test positif me confirme (à 99%) si je suis malade, ok, mais alors aussi que 99% des 1000 sains sont négatifs au test... soit [+]10faux malades/1000sains, ce qui infirme la prévalence initiale (d'un facteur 10![+]) ... ce qui remettrait '10x' en cause mon à priori! Suis-je obligé de sacrifier ma confiance en mes à priori ce qui remettra en cause la fiabilité de mon interprétation du test et donc du résultat?! Assurément, il me faut balancer ma confiance entre mes à priori[+] et le résultat du test[+]... ou accepter une indécidabilité dans l'un ou l'autre![+], ou accepter une incertitude sur le résultat obtenu[+] (sans remettre en cause mon à priori initial).
D'ailleurs[parenthèse], si je fais 100tests sur 100 personnes (de la population initiale, ou d'une nouvelle population), je vais trouver ce type de résultat [GRAPH/tableau avec nb de cas différents pour les faux pos et faux neg; ou ca [nv tabl différent en pt@ ou ca [nv tab différent en pt]]. On voit que le nb de faux positifs et faux négatifs a)ne sont pas identiques par rapport au premier tableau/résulat à priori du test. b)varient d'un échantillon à un autre (et aussi d'une analyse à une autre pour une meme population). Ceci traduit que le taux d'erreur du test fluctue, à la fois quantitativement (faux pos+faux neg) et qualitativement (faux pos versus faux neg). On en donne la moyenne dans une population réfquérente[+]. Ou plutot la valeur inverse, la fiabilité[+], qui est un mélange de la spécificité[+](fiabilité sur des malades, l'inverse des faux négatifs) et de la sensibilité (ou sélectivité)[+](fiabilité sur les sains, l'inverse des faux positifs)
Revenons en aux valeurs moyennes du test, données à priori avant que je ne fasse une analyse:
L'important est de retenir que la fiabilité du test n'est pas la fiabilité du résultat (qui compte les faux négatifs (ici 0.01/1 cas, qu'on tend à ignorer/insignifiant) et les faux positifs(ici 10/1000 ! qu'on préfère accepter car test indicatif, on con-/in-firmera par un autre test). Le test (réalisé en grand nombre) nous permet simplement d'augmenter notre confiance en la prévalence de 99.9% (1/1000), à 99.99+/-epsilon % (que la (nouvelle population globale à une prévalence d'env.1/1000 ([GRAPH a faire] pour n tests, entre (1+n)(1000+n) si vrai positif, et (1)/(1000+n) si vrai négatif, ou (1+n)/(1000) et (1)/(1000+n) si faux positif ou négatif).
Il serait abusif de croire à un résultat faible à 99%, ou cela correspondrait à faire totatelement confiance à son àpriori (la prévalence initiale+spécificité du test) ET au présent résultat positif ou négatif ( le patient trouvé positif est confirmé par une autre analyse en effet bien malade, ou négatif sain): la confiance serait alors deraisonnablement augmentée à 99.999%(1/1000 x 1/1000; pour la combinaison de l'apriori et d'un vrai resulat présent qui y soit lié)! Or quelle raison nous mènerait à accorder autant de confiance/poids à ces 2 données, l'une à priori (la prévalence), l'autre à postériori (le résultat positif confirmé)?! Ce nouvel à priori (confiance totale) nous fait comprendre qu'on entre dans une pensée/conclusion (quasi) absolue (une vérité immanente, totale et unique), et qu'on quitte la raison: on pourra rajouter des tests/cas positif/négatifs decrétés vrais ou faux de facon contingentes (ou non) aux données initiales, ouvrant la porte à faire 'sa vérité' et 'modifier les données' (l'Univers), ou plutot composer un nouveau jeu de données redondantes par ses ajouts: à s'auto-faire-confiance, nous faisons alors de la sur-interprétation (overfitting), mais nous n'augmentons pas la précision des analyses et données.
Corrolaire, l'analyse bayèsienne révise une croyance (en un/des résultats antérieurs) avec des données nouvelles en une nouvelle croyance. Le gain de croyance est lié à la fiabilité des nouvelles données (et il faut des résulats d'autant plus tangibles que la croyance initialle était faible).
L'analyse bayèsienne permet de croire a un nouveau résultat sans rejetter ses croyances antérieures: ex si qq découvre une chose extraordinaire, et que meme si on lui accorde par ex 99% de faibilité, ramener ca à la probabilité antérieure de l'extraordinaire (ex 1/10 000 000) montre que l'on continuera à ne pas croire à l'existance de la chose extraordinaire (ou a 1/ 100 000). On ne rejette pas une preuve sous prétexte qu'elle n'est pas assez fiable pour changer d'avis (sa croyance), mais l'accumulation de nouvelles preuves permettra de faire évoluer son paradigme de croyances. Cela à la vertu a savoir dialoguer sans les limites du débat contradictoire qui convainc ou non (et bloque): on peut reconnaitre que des arguments opposés sont etre de bons arguments (et le plus souvent ils le sont, l'interlocuteur est respectable), mais qu'ils ne suffisent (seuls, pour l'instant) à changer de point de vue.
L'inférence baysienne donne une probabilité à la chose déduite (Inférée: A, Théorie) d'après celle des données (D: infos prise comme vraies pour raisonner/déduire: l'à priori): la conclusion est relativisée:
P(A|Données) = P(A)/P(D) . P(D|A) ≡ P(A) / P(D|nonA).
Elle peut etre approximée(≡) quand la proba d'une chose inférée (A) est nettement plus faible que la proba des données (D): ce qu'on cherche (A) sachant ce qu'on 'sait/croit' (D) s'approxime par la proba de A (mesurée) divisée par la proba des faux positifs (P(D/nonA), qui aprécie comment les Données pourraient etre expliquées par les résultats alternatifs à A (les autres valeurs que celles trouvées, cad ce qu'on n'a pas trouvé et en fait pas cherché).
* Intro/but: L'enseignement final/fdmtl du Bayésianisme est qu'un raisonnement est valide ssi il est conforme aux lois des probabilités (conditionnelles). Pire il prétend être universel. Mais il implique aussi que tout pensée/théorie/raisonnement/vérité est relative à l'ensemble de toutes les données ET théories pour les expliquer (TOUTES, qu'on a pas extensivement, cad à l'extrême de tout l'Univers), et ne peuvent etre formalisées sans se baser sur un/des préjugés (des théories et/ou données première, postulées 'vraies').
* La loi de Bayes: P(T|D) = P(D|T) . P(T) / [ P(D|T) . P(T) + Somme(A<>T))[ P(D|A].P(A) ]
avec D: Données (mesures d'un évènement, ...)
T: Théorie (prédiction d'un évènement, ...), et son(ses!) alternative A qui est égale à non(T) : ce A est la partie non visible des données + théories, ou les autres explications qui prédiraient (plus ou moins bien) les Données.
P(T|D): exprime la proba d'une Théorie (ex je prend mon parapluie) sachant les Données (ex il y a de la pluie).
La formule/loi de Bayle la convertit à partir de la proba des données exprimées dans la théorie { P(D|T) } (ex l'incertitude des mesures), corrigée de la probabilité (confiance) de la Théorie dans l'Univers { P(T) } . Il faut aussi corriger (division) par un terme complexe [entre ], appelé "fonction de partition" qui correspond en fait à la probabilité de la Théorie, qui n'est pas donnée, mais qu'on preferera donc déduire de (par ce qui échappe à) l'ensemble des données et de la théorie, par la loi de probabilité totale (des données): { P(D) = [ P(D|T).P(T) + Somme(Adifferent deT))[ P(D|A cad nonT).P(A) ] }
* Corrolairement à la pensée bayésienne: Penser juste, c'est ni plus ni moins appliquer les préceptes du bayésianisme. Toute vérité répond et découle des probabilités de toutes les données. Le langage des probabilité fait le language des savoirs.
Par contre, la pensée bayésienne (pure) mène a qualifier de sophisme des assertions comme: : Tout est vrai jusqu'à preuve du contraire. Faire l'expérience pour savoir (pragmatisme). Il y a une croyance objective (non: la croyance dépend des données(incomplétude), de la formulation, de postulats), une inférence à la meilleure explication (non: il n'y a pas de meilleure explication (exacte), ou c'est relatif aux préjugés/choix; il faudrait se référer à toutes les autres explications possibles ( Somme(Adifferent deT) mais c'est impossible... ). Est statistiquement significatif ce qui ne peut etre réfuté (non: bien que tout soit soumis à refutabilité, des vérités échappent à la (non) réfutation).
La pensée bayésienne (pure) appelle à suspendre son jugement ou plutot à la jauger à concurrence d'une plausabilité des déductions et une crédence des théories (relativité). Mais reconnait implicitement que sans préjugé, aucune conclusion ne peut être tirée. ("préjugé" a en général une connotation négative, donc on pourra dire plus neutre/ positif: "en l'état des connaissances" ou plutot "conditionnellement à nos connaissances": car c'est nécessaire de dire ue nos pensées sont conditionnées par nos connaissances antérieures qui sont incomplètes, inexactes, réfutables. L'ignorer c'est croire aveuglément en un système de pensée qui construit ses vérités sur ses propores véritéés premières, et s'écartera à un propos ou un autre de la réalité, qu'on dira objective alors qu'elle est devenu subjective. C'est pourquoi le terme préjugés a la vertu d'être plus honnête, 'pessimiste'. Elle amène à accepter de décrire la réalité de facon incomplètement déterminable par nos théories/pensées, voir ambivallente avec différentes théories (qui peuvent s'englober, ou se différentier en résultats / domaines d'applications). Pire: les théories les plus crédibles ne colleront pas forcément mieux aux données que des théories moins crédibles... mais plus exactes au final. Mais donner trop de crédit à des théories qui collent 'trop' au donnée c'est exposer à la sur-interpretation (overfitting) (ex pour de l'I.A.). Il vaut mieux souvent adopter une theorie que écarte certaines données.
Bien sur on voit se dessiner de la théorie Bayesienne un pont vers la théorie de la relativité générale (ex la lumière comme la masse sont relatives à l'envirronement).
+/Cf Sc4A dont le B. est le crédo. Mais aussi
*Julia Galef (Avisual guide to Beyesian thinking; Bayes: How one equaiton change the way I think.)
*CrashCourseStatistics: You know I'm all about that Bayes ; Bayes in Science and everyday life.
*Hygiène mentale: La lune n'a PAS d'inflluence sur les naissances (bayèsianisme); La pensée bayèsienne(++)
* Monsieur Phi: La loi de Bayes
* AlexandreTechnoprog: Probabilité partout, certitudes nulle part
[/HygMent(m)]-22min: explique très bien à partir de 11min l'analyse bayèsienne avec des schémas très signifiants de la mécanique logique/probabiliste (l'ntro nest on moins sympa: cf après l'image)
(repris/explicité en intro1b & détaillé)
.INTRO;
.affirme qu'il y a 2 types d'analyses: la proba/stat fréquentielle (des évènements, selon une théorie) et la proba/stat bayésienne des théories (au vu de certains évènements)
.exemplifie avec le jeu de dés D4, D6, D8, 12, D20: oni juge (extra)ordinaire soit le résultat du dé (à un seuil), soit le dé qui a été utilisé à notre insu: pourquoi juger le résultat du dé alors qu'il est manifeste?! ou qu'il correspondrait à une erreur ou tricherie (par rapport donc à qqchose qu'on attend)?! Plutot se questionner sur la signification de ce résultat, ce qui a pu le causer (quelle théorie expllicative) et alors utilise des théories manifestement plus crédibles pour conjectuer sur des résultats futurs. ( Cf infra (4)reflexion/projet vidéo qui pourrait faire la suite de cet exemple/intro et amener à saisir comment passer de l'analyse classique(fréquentielle) à l'analyse Baysiènne )
.affirme qu'il y a 2 types d'analyses: la proba/stat fréquentielle (des évènements, selon une théorie) et la proba/stat bayésienne des théories (au vu de certains évènements)
.examplifie avec le jeu de dés D4, D6, D8, 12, D20 qui juge (extra)ordinaire soit le résultat du dé (à un seuil), soit le dé qui a été utilisé à notre insu:
.métaphore de la réalité derrière le paravent/caverne de Platon, et de l'outil d'analyse (les dés). un ppt historique (5m3-)
.analyse fréquentiste de vraisemblance d'evenements sachant une théorie et par rejet d'hypothese : P(résultats | H0), ou analyse bayesienne de plausibilité de théories au vu des résultats : P(Théories H0/1/2...n | résultats)
.affirme qu'il y a 2 types d'analyses: la proba/stat fréquentielle (des évènements, selon une théorie) et la proba/stat bayésienne des théories (au vu de certains évènements)
.examplifie avec le jeu de dés D4, D6, D8, 12, D20 qui juge (extra)ordinaire soit le résultat du dé (à un seuil), soit le dé qui a été utilisé à notre insu:
.métaphore de la réalité derrière le paravent/caverne de Platon, et de l'outil d'analyse (les dés). un ppt historique (5m3-)
.analyse fréquentiste de vraisemblance d'evenements sachant une théorie et par rejet d'hypothese : P(résultats | H0), ou analyse bayesienne de plausibilité de théories au vu des résultats : P(Théories H0/1/2...n | résultats)
ou le jeu (ou s'obstiner à jouer 'contre le mauvais sort'.
.métaphore de la réalité derrière le paravent/caverne de Platon, et de l'outil d'analyse (les dés). un ppt historique (5m3-)
.analyse fréquentiste de vraisemblance d'evenements sachant une théorie et par rejet d'hypothese : P(résultats | H0), ou analyse bayesienne de plausibilité de théories au vu des résultats : P(Théories H0/1/2...n | résultats)
[Pourrait faire l'objet d'un vidéo sympa]
[Slide du maitre de jeu derrière son paravent qui propose]
Bonjour. Tu veux jouer au 6-perdant? Je tire un dé, n°impair tu gagnes 1€, n°pair tu ne perds rien sauf au n° tu perds 3€.
(teasing) oui tu hésites c'est jouer pour du beurre. Bon cadeau: avec le 6 tu ne perds que 1€. Tu joues? /.../ Bon les impairs gagnent 2€, les pairs te font perdre 30ct€. /.../ Bon supercadeau: les n°impairs tu gagnes 2€, seul le n°6 tu perds 1€ /.../ Ah quand meme. Oui c plus marrant avec le beurre et l'argent du beurre... dans ta poche, mais attsention ca tache! Bon, 1r tirage, et a chaque fois tu dis si tu continues à jouer.
[slide 1r tirage, le n°2; 2m le 2] bon tu continuerais combien de tirages ainsi?
(à espérer gagner 1.63€/tour(3x2€-1€/6)
[slide 1r tirage, le n°6; 2m le 6] bon tu continuerais combien de tirages ainsi?
(à perdre 1€/tour pour esperer gagner 1.63€/tour)
[slide 1r tirage, le n°1; 2m le 1] bon tu continuerais combien de tirages ainsi?
(à gagner 2€/tour pour espérer gagner 1.63€/tour)
Bien sur, tu joues plutot rationnellement: tu évalues la part de risque de perdre contre un espoir de gain, dans l'immédiat, et sur la durée. Chacun apprécie un espoir de gain et un risque de perte plus ou moins haut selon son tempérament[t], et en fait aussi selon niveau de risque ou gain antérieurement, et selon comment est formulé l'enjeu[e]:
[t]-en dehors de toute rationalité ou sans lien réel avec l'appréciation objective, certains prenent qu'un risque réduit (prudents), voire nul (rebelle à toute perte), d'autres prennent un risque plus ou moins fort, jusqu'à la tete brulée qui mise le tout pour le tout, ou la victime d'un sort defavorable qui s'obtine à attendre que la main de la physique ou de Dieu reéquilibre le tirage.
[e]-un meme enjeu objectif (probabiliste) peut etre formulé pour etre ressenti plus comme un espoir de gain, ou un risque de perte.
Ex espoir de gain: c'est le 6-perdant ci dessus
Ex de risque de perte: je te donné une premiere mise de 2€ (ou 20€!) ou je te dis que le 1r tirage (ou x tirage) ne sera pas le 6. En situation de gain acquis et favorable, on surestime le risque de perdre et/ou on sous-apprécie l'espoir de nouveau gain en proportion de ce qui est rationnel et était ressenti avant, donc on arrete le jeu; en situation neutre (rien perdu; quitte ou double sur un 1r tout petit gain), c'est l'a
[slide tirages 2, 2, 2,
Adopter l'analyse bayesienne est utile même en partant d'une analyse fréquentiste qui nous vient spontanément, ou qui s'imposerait à nous car on ne saurait faire autrement avec un apriori/connaissance/vérité qu'on utilise un dé D6; ou parce qu'on ignorerait qu'il y a divers types de dés (plusieurs théories explicatives, qu'elle soient concurrentes ou on le vera combinées): en effet, pourquoi mettre en doute puis réfuter ces résultats (n° tirés qui seraient extraordinaires ou des erreurs), puis que les dés sont pipés(anormaux: pour la loi' attendue) puis le jeu(nul, escroquerie).
Autant garder l'hypothèse qu'on prenait par défaut H0/dè D6 équitable, la renommer H1, et ajouter une hypothèse 'inexpliqué', H0' qui absorbera les tirages 'extraordinaires'. A force d'extraordinaire, cela réduira d'autant la confiance en l'outil d'analyse (qu'on utilise un unique 'dé D6 normal' (H1)): sa plausibilité (ou crédence) s'érodera juqu'à un niveau idoine refletant la seule part des tirages observés qu'il explique. Un tirage du n°20 fera decouvrir que le D6 portait en fait un N°20 sur une face (le n°5 n'était jamais sorti!), ou qu'un dé D20 est alternativement utilisé à coté du D6! Si on ne voit pas le dé mais 'que le n°tiré', on peut supposer une des alternatives précédentes, ou d'autres encore! (qu'il y a en fait 10 ou 100 dés, qu'il n'y a a aucun dé mais un générateur électronique aléatoire (ce qui revient à 1 dé par tirage), ... ou un enfant qui s'amuse à dire des chiffres!
Qu'importe qu'on exprime cette 'découverte' sous un nouveau modèle de dé (pipé ou non) ou l'existance de plusieurs dés ou d'un enfant qui s'amuse: l'essentiel est d'avoir intégré une nouvelle hypothèse (H0')rendant compte des irrégularités par rapport à la théorie premiere (du dé D6 équitable). H0' va définir un spectre de fréquence d'évenements observés (complémentaire à D6) qui peut devenir une (nouvelle) croyance en une loi 'bruit de fond complémentaire à D6', ou loi 'irrégulière' ou 'arbitraire' qu'on accepte par pragmatisme, en temps que telle. La théorie du dé D6 peut au fil des tirages ne plus s'avérer assez bien rendre compte de la réalité, et libre à nous de la supprimer de notre analyse en se contentant de l'hypothèse H0' comme loi naturelle immanente (analogie avec la foi/religion) voire inconstante (cyclique ou chaotique).
Inversement, on pourra décreter qu'il est plus pratique et rendant mieux compte de la réalité des tirages observés, de considérer qu'il y a un 2eme dé D20 tiré une fois sur 2 (ou sur 3 ou x fois): on introduit alors dans nos aprioris/suppositions/modèles une nouvelle hypothèse H2 ou le dé D20 définit une loi de fréquences pour un tel dé. Notre théorie explicative est devenue un système binaire de dés équitables D6 et D20 à 50% de tirage chacun. Soit lle explique 99% des tirages, et H0' se vide, soit elle n'explique pas tout et on sera améné à ajouter un D12, un D8, un D4, avec des proportions de tirage équitables (ou non). On comprend alors que chaque dé est un composant d'un modèle explicatif global (système de théorie, ou Théorie globale), qu'importe que ces dés correspondent à une réalité physique ou non, qu'on peut imaginer plusieurs modèles différentes avec des combinaisons de dés et leur fréquence ou pipage différentes: la Theorie ne constitue pas une Vérité unique, réelle.
A TRANSFERE/Page propre:
Incertitude d'Heisenberg
* Principe et résumé: ce principe, plus correctement appelé principe d'indétermination, énonce que (notamment en mécanique quantique) nous ne pouvons jamais connaitre de facon sûre une chose (la vitesse et la position d'une particule): il existe une incertitude des mesures intrinsèque au phénomène observé (analysé), et en plus à l'observation qui elle meme modifie les propriétés mesurées.
[SHEMA à faire]
Ce principe retenti (s'applique) au niveau macroscopique, en philosophie,...
* Autres définitions et significations avancées:
[wiki] Définition plus formelle: l'incertitude d'Heisenberg désigne toute inégalité mathématique affirmant qu'il existe une limite fondamentale à la précision avec laquelle il est possible de connaître simultanément deux propriétés physiques d'une même particule ; ces deux variables dites complémentaires peuvent être sa position et sa quantité de mouvement.
En méca quantique, on relie l'écartype des positions et vitesse d'un particule par la formule:
* Historique: principe introduit en 1927 par Werner Heisenberg(allemand), puis formalisé et developpé par divers physiciens ( Earle Hesse Kennard 1928; ...).
Le principe d'H. est en fait un théorème, car il a été démontré ().
* Analogies et Homologies:
> Le rideau/caverne de Platon peut etre vu comme un prémisse (lointain) de l'incertitude d'Heisenberg, de la dualité des choses,...: ce dispositif/modèle/théorie transcrit mais dénature les propriétés d'une réalité, convertissant un objet3D en son ombre(forme 2D) + pénombre + images subliminales observables. L'objet observé (2D) est donc une superposition d'images de l'objet réel, et la réalité objective qui en est la cause, est indéterminable complètement. L'analogie s'arrete là, ou devient scabreuse pour illustrer la dualité et l'incertitude de la physique moderne (quantique notamment) de facon plus exacte/analogue.
> Le septicisme/doute
(Pages Métaphores: Analogies et Homologies en Théories et Réalités/Données):
> Le rideau/caverne de Platon est une métaphore très pertinente à divers égards:
-elle marque l'évolution de la pensée humaine au niveau de sa conscience du monde (et sa place, la réalité objective/subjective): on ne percoit qu'indirectement la réalité fondamentale, qui est cachée (illusions). Ceci eut des implications essentielles en philosophie, sociologie,..
-la métaphore peut éventuellement être vue comme un prémisse (+/- lointain) de divers principes au fil des siècles:
.l'incertitude d'Heisenberg, la dualité des choses,...: cf infra (analogie qui devient vite scabreuse)
.
> Principe: [SHEMA à sélectionner/completer]
L'homme assez dans une caverne (son environnement immédiat) voir l'ombre des objets (et de lui même) sur le fond(rideau) de la caverne.
On pourra retrouver à partir de l'ombre une partie de l'information de ces propriétés, et de facon +/- incertaine:
-les propriétés d'interaction objet/fond lumineux (occlusion optique)
-certaines propriétés propres de l'objet réel (intensité lumineuse, couleur, directions) seront à peine perceptibles (et dénaturées) dans son ombre, et 'applaties'.
> Enseignement clé:
La métaphore de la caverne de Platon illustre d'abord (et surtout) que nos perceptions adressent une réalité directe(l'ombre, 2D) mais il existe une réalité qui en est la cause (l'objet3D) -réalisme-, et que l'investigation doivent procéder par déduction inductive-épistémologie-:
1/(Réalisme)
La pensée de Platon, via notamment sa métaphore de la caverne, est un des premiers maillons fort introduisant la philosophie réaliste: comme le réalisme, elle affirme l’existence d’une réalité extérieure indépendante de notre esprit.
2a/(épistémologie: Positionnement logique:
implication du monde réél versus induction de nos investigations):
-la réalité procède (à notre connaissance) par implication: une cause -implique-> une conséquence, ici dans la métaphore de la caverne de Platon, l'objet3D implique l'ombre/objet2D. Cette causalité est bien décrite par la 'logique' ordinaire dans nos sociétés modernes, classiquement causale, scientifique: avec des mesures hypothétiques de propriétés sur l'objet3D, il nous serait aisé de déduire (calculer) les propriétés secondaires (de l'ombre). Hélas, seules ces dernieres nous sont accessibles (forme2D visible), ce qui ne permet qu'une reconstruction limitée d'un possible objet3D (formes, taille/distance,...); ainsi devons nous en appeler à un autre raisonnement déductif...
-si donc la mesure sensible (de l'ombre) découle d'une réalité première (cachée), la mesure/perception/donnée, seule, ne permet pas de remonter à la réalité (la forme réelle de l'objet: disque, sphère ou cone? sans parler de ses détails: couleur, surface,...).
Il nous faut donc introduire d'autres données!...+/- subjectives!:
Soit imaginer directement l'objet3D (et y croire), soit poser un cadre de réflexion logique acceptable qui produira l'objet2D observé (l'ombre)(et le montrer, dans ce cadre): l'observation sera combinée à une(des) croyance/savoir antérieurs, ici le principe de l'éclairage/ombre (modèle logique liant cause et effet), plus des concepts postulés (d'un ciel éclairé et d'un objet qui seront la cause).
A ce stade, nous avons déduit par induction la probable existance d'un objet3D qui produit l'ombre observée, la force de la probabilité s'appuyant sur un modèle explicatif (eclairage/ombre) que nous avons observé sur Terre (avec des objets de la caverne; pas du cosmos), que nous avons appris/compris et acceptons avec tout confiance. L'induction ne prouve pas formellement, elle indique que la confiance qu'on a acquise avec notre modèle explicatif terrestre (eclairage/ombre) devrait s'appliquer au cosmos avec une confiance moindre mais de raison (qu'on espère raisonnable): on a beaucoup de chance qu'un objet3D celeste existe réellement, expliquant l'ombre, plus que de croire à l'ombre comme objet réel/fondamental et rien d'autre.
2b/(épistémologie: analogie avec l'inférence bayésienne):
Des données de la mesure de l'ombre on peut inférer que la cause soit un objet éclairé par le fond du ciel (théorie), qu'il soit un disque rond (ou une sphère, ou un cone,...). L'incertitude porte plus sur sur l'objet/ciel imaginés que sur l'ombre, à moins que ce soit sur le principe d'éclairage/ombre? Soit on rejettera l'interprétation (la théorie), en s'en limitant à accepter l'existance de lL'incertitude est on comprend surtout bayésienne (on ne sait pas si un autre théorie expliquerait mieux), que de type Heisenberg, sauf à imaginer (ajouter) une analogie que Platon n'envisageait pas (sous cette forme du moins): la forme2D de l'objet et sa vitesse/direction de déplacement seraient liées et incomplétement définies du fait d'un mécanisme sophistiqué (et disons ésotérique: de reflet/miroirs qui se combinent/masquent; de reflection non classique sur le rideau (dispersion/flou selon l'angle,...); ...)
Par induction donc, il est aisé (mais incertain/à priori) de décrire/comprendre la réalité de la forme (bien que réduite en 2D) de l'objet, d'autant plus s'il bouge/pivote: alors certaines propriétés regressent/disparraissent et d'autres apparraissent mais elle sont toutes liées à une réalité physique (supposée unique, premiere, stable) qu'on peut reconstruire à partir de vues différentes.
Il est bien moins facile de décrire/comprendre la lumière propre de l'objet (corriger avec les propriétés d'absorbtion/réemission du rideau, si on les connait!, sinon...; à partir des interférences qu'on pourra déceller d'après les contours ou l'intérieur de l'ombre;...).
Qu'on avance/recule/déforme le rideau... s'ouvre un autre champ de déductions (distance de l'objet par les variations de parallace;...).
> Analogies et homologies / l:
La métaphore de la caverne de Platon +/- lointaines avec
a/l'incertitude d'Heisenberg, la dualité des choses,... (physique moderne)
Le dispositif/modèle/théorie la caverne de Platon transcrit mais dénature les propriétés d'une réalité, convertissant un objet3D en son ombre(forme 2D) + pénombre + images subliminales observables. L'objet observé (2D) est donc une superposition d'images de l'objet réel, et la réalité objective qui en est la cause, est indéterminable complètement. L'analogie s'arrete là, ou devient scabreuse pour illustrer divers concepts la dualité et l'incertitude de la physique moderne (quantique notamment) de facon plus exacte/analogue.
-les notions de relativité (restreinte/générale) ne se retrouvent guère dans la caverne de Platon: la réalité observée (ombre) y est, dans un sens, relative à une réalité lointaine (l'objet3D), mais cela n'exprime par une relativité à un référentiel (galiléen ou non). Difficile aussi d'y voir une analogie avec l'intrication: chez Platon l'ombre et l'objet3D sont vus comme 2 objets/réalités simultannés (plutot que 2 évenements apparaissant /disparaissant simultanément).
(A Transferer PAGE PROPRE) * SOCRATE
-Principaux concepts: Questionner pour amener à douter de ses connaissances et à priori (irone de S), pour amener chacun à penser par soi-même (plus que pour developper un septiscisme ataraxique/qui empeche de choisir/agir ). Socrate revendique lui meme son ignorance, mais c'est un peu fallacieux, car il est largement reconnu très sage et savant (et le sait.reconnait à la Pithié). L'ignorance supposée est un élément de rhétorique pour intriguer et séduire (tout public, ses élèves: les aimés). Socrate fait le passage de la pensée orientale (divin revelé, avec des Dieux innaccessibles) à l'occidentale (le divin est accessible, en soi)
-Applications: Justice, Politique, Vérité, Ame, Sagesse, Bien, Maïeutique, Ignorance
-Influencé par: Présocratiques, Atomistes, Sophistes
-Inspirateur de: Tous les philosophes, mais retenons Platon, Aristote, Thomas d'Aquin, Kant, Nietzsche, Hegel
Modes de raisonnement et types de logique:
Un raisonnement peut être non logique (par analogie, homologie,...) ou logique (par syllogisme: un raisonnement logique mettant en relation au moins trois propositions: deux ou plus d'entre elles, initiales (les « prémisses », conduisent à une « conclusion »). Dans ces dernier, privilégiés en science, on distingue 2 grands types de raisonnements logiques qui fonctionnent avec des proposition vraies ou fausses (déduction et inférence):
-la déduction (dont l'implication est la +courante/intuitive/utilisée &épichérème,...)
{ A ->B ; C=A } => { C -> B } (chaque proposition écrite est vraie)
-l'inférence (dont l'induction, & modalités dérivés: abduction)
{ A ->B ; C=B } =!> % { A -> C } (les 2 propositions prémisses, vraies, donnent une proposition incertaine: j'appose le %, et le ! pour la dépendence forte au système d'axiome)
rem: je vois l'inférence homologue à la déduction (et l'implication homologie à l'induction), bien qu'il soit souvent présenté que c'est l'induction qui est homologie (opposée) à la déduction. De plus il est même parfois considéré un 3eme type de raisonnement, l'abduction.
A l'inverse, je(eb) tend à employer le terme de déduction inductive, alors que la logique/math utilise le terme déduction que pour l'implication (pas pour l'induction/inférence). Question de langage pour moi, car similairement, le terme inférence est utilisé qualifié d'abductive (inférence (dont induction, aduction), , alors que l'abduction est considéré d'un autre type de raisonnement (3m)
Variantes et dérivées:
.l'abduction [+/wiki] { A ->B + ; C=B - } => % { A -> C } (ou inférence abductive, inférence de la meilleure explication, retroduction, raisonnement par hypothèse, méthode du détective)
Ex: { proposition Majeure : "S'il pleut alors je prends mon parapluie" (ie : il pleut ⇒ je prends mon parapluie },
{ proposition Mineure : "J'ai pris mon parapluie" }
Conclusion: on en 'déduit*' que (par abduction) 'il est plausible qu'il pleuve" -alors que par déduction/implication on ne concluerait à rien, et par induction que 'il est possible qu'il pleuve' -.
Principe: l'abduction correspondrait à une inférence ou les prémisses sont probables pour des effets certains. L'une des prémisses est majeure, l'autre mineure, et induisent une hypothèse
Rem: La logique formelle écarte l'abduction de la déduction (comme l'inférence?!). L'abduction est vue (C.S.Peirce, XX°s) comme le seul mode de raisonnement par lequel on peut aboutir à des connaissances nouvelles. Certains distinguent 4 types d'abduction (Umberto Eco, Thagard) à 16(D.A.Shum).
Reflexions/explications:[eb/wiki]
(mineure/majeur ... en pouvoir logique?: la majeur est une assertion logique, la mineur une assertion de fait.
(il y a t il de proba respectivement moyenne et forte pour l'une et l'autre aserssion? la proba prédictive restant inférieure à celle de l'inférence classique: on introduit un élément très signifiant mais incertain pour suggérer de la plausibilité.
Par abduction, il n'y a pas de causalité physique dans la majeure, mais un lien par choix/décision 'arbitraire/basé sur un à priori'. On ne peut donc inférer qu'un probable lien causal, car hypothétique dans le présent (si: condition à une pluie non énoncée, mais qu'on va aussi inférer) et même dans le passé (car lien au passé non affirmé, mais aussi inductible/suggéré: lien causal pluie>parapluie (retro)généré par l'expérience passée sans en avoir prouvé la logique causale: on peut y voir une coincidence fortuite... ou intentionnelle! d'ou conclusion incertain et innovante). De plus, on infère un lien causal anticipé (ma régle/décision en fait préexistait à la pluie passée) et inversé (prendre le parapluie devient une cause, qui implique de se protéger).
La pluie est une hypothèse car conditionnée (si, alors) dans la majeure. Quand (si!) la conséquence énoncée par la majeure, s'est réalisée (j'ai pris mon parapluie), fut-ce une coincidence, ou une intention, l'hypothèse de pluie est encore plus probable et l'intention plus plausiblement causale. Mais c'est du tout plausible ou une toute autre cause inacessible à invoquer. Il faudra un autre raisonnement (inductif et/ou déductif), pour corroborer l'hypothèse (certaine) et réaliser cette intention causale (plausible/vraisemblable et anticipée) comme lien avéré de cause à effet.
.Epichérème: [+/wiki]: une déduction implicative 'alourdie' (*)
{ A&+ ->B&+ ; C=A&+ } => { C -> B }
Ex: {propos. Majeure : Tous les hommes sont sujets à l’erreur. Qui n’a jamais oublié un anniversaire, trébuché...
{proposition Mineure : Or un Roi est un homme comme les autres
Conclusion : Donc le roi peut se tromper
Principe: une ou plusieurs prémisses sont alourdies par une explication, une preuve ou une définition.
Utilisation: par Theophrane (alors que Socrate usait de l'induction)
Rem: *: l'alourdissement de la proposition par des informations qui exemplifient, autoprouvent ou précisent ou opposent artificiellement (le 'or') ne me semble rien changer au plan logique: ca me semble une simple figure de style/rhétorique, ou est-ce plus?
.on peut décrire et formaliser d'autres raisonnements, en variant le nb de prémisses (1, 2, 3,...) et de conclusions (prédicats unaire(logique monomonadique), ou binaire, trinaire,...). +/wiki]: cf/Wiki: Ethymol.: "parole(qu va)avec"; notion de majeur et mineur (dans chaque prémisse, entre les prémisses); la mineure d’un syllogisme est établie soit par une induction, soit par une hypothèse, soit par une évidence, soit par des syllogismes. Validité (la forme) versus Vérité (si le syllogisme est concluant). Moyen terme (présent dans les 2 prémisses/les reliant) établit le rapport : {M est P} or {S est M} donc {S est P} . Comprehension et Extension (du Sujet, du Prédicat). Classe des propositions (qualité et quantité => propo contradictoires/contraires/subcontraire/subalternes, construisant des opposition de 4+2types sur le carré logique).
J'imagine des (syl)logiques démontrables ou 'folles', et il serait intéressant d'identifier des logiques opérant en art, en reflexe,...:
(Contraposée): { A->B ; nonA } => { nonB } (?), ou { nonA -> nonB } par déduction, ou { nonB } par inférence ; voire par (?Symétrie): { A->B ; nonB } => { nonB }
(Transitivité): { A->B ; A->C } => { A -> C } (?/démontrable avec 2 déductions=un théorème)
(Distrib/ou): { A->BouC } => { A->B ; A->C } (démontrable avec un ET, mais inférc/ou,+?)
(Inf.Transv): { A->C ; B->C } => { A->B } (l'inférence est transverse entre des cause: (dé)cohérc?
(Infer.Interm): { A->B+; A->C } => { C -> B } (un prémisse majeur(B+) l'emporterai comme cause? Inference par association d'idées avec Intermédiaire) , et logiques intégrant plus de prémisses:
ex { A->B+; A->C ; C-> D} => { D -> B }
(Dominance): { AouB+-> C ; C } => { B+ } (un prémisse majeur(B+) l'emporterai comme cause/quasi déduction; A pour etre vrai ou faux, on pourrai rajouté en conclusion A:vrai (ou faux pour forcer -alors qu'avec un xor A serait faux)
(x): { A->B+ ; A->C } => { B -> C } (un prémisse majeur(B+) l'emporterai comme cause?)
(Reflexe danger): { A->B+ ; Fuite->nonB } => { B -> Fuite } (une fuite qi a évité 1 danger...)
>complémentarité Déduction/Induction/Abduction:
l'induction et la déduction(implication) ne sont pas en opposition mais en relations réciproques, elles sont en effet des phases coopératives d'un processus unique de résolution de problème.L'Abduction serait une facon de les relier, en introduisant de l'innovation par l'expérience sensible créative.
.la déduction (>), qui repose sur des causes et des effets certains, aboutit à des énoncés certains ;
.l'induction (<'), qui propose des causes certaines à des effets probables, aboutit à des énoncés probables ;
.et l'abduction ('<, ou '╬ , '╣, Ὠ), qui recherche des causes probables à des effets certains, aboutit à des énoncés plausibles.
n