Menu principale

Dadi e probabilità

Aperto da Apeiron, 20 Febbraio 2017, 15:45:35 PM

Discussione precedente - Discussione successiva

Apeiron

Citazione di: sgiombo il 20 Febbraio 2017, 21:12:04 PM
Citazione
Secondo me ci si deve intendere sui termini del discorso (il significato delle parole). E' un affermazione che è vera alla condizione indimostrabile (Hume!) che il divenire naturale sia ordinato secondo modalità o leggi universali e costanti; perché in questo caso se il dado non è truccato (ovvero le facce sono perfettamente regolari, il materiale di cui è fatto perfettamente omogeneo, ecc.) e se i lanci sono fatti "a caso" (in un' "infinità" di maniere simili e non calcolate in determinati modi) in un numero sufficientemente elevato di lanci i fattori causali tendenti a farlo cadere su ciascuna faccia si equilibrano. Tuttavia è un' affermazione alquanto imprecisa, in particolare per quanto riguarda i numerosi concetti che ho evidenziato in grassetto, i quali sono decisamente vaghi e non realistici (in realtà non esiste la perfezione!). Cosicché (in linea teorica, di principio) in un numero "ulteriormente sufficientemente elevato di lanci" ci si dovrebbe aspettare qualche pur minima differenza della distribuzione statistica dei risultati di ciascun dado concreto (costante per ciascun dato in un numero sufficientemente elevato di lanci, ma diversa fra i diversi dadi, nessuno dei quali, per quanto non deliberatamente "truccato", può essere perfetto). Ma a parte questo mi sembra che Apeiron intenda suggerire un problema più di fondo nel concetto di probabilità, che io stesso credo di aver colto per conto mio in precedenti riflessioni. Un divenire (della realtà fisica materiale) ordinato secondo leggi universali e costanti di tipo "deterministico - meccanicistico" mi sembra un concetto del tutto sensato, privo di contraddizioni: ogni singolo evento è determinato da "ciò che lo precede e circonda" e in linea teorica di principio prevedibile, calcolabile). Invece un divenire probabilistico - statistico (non ogni singolo evento è universalmente e costantemente e in linea teorica di principio prevedibile, calcolabile, ma sono invece universali e costanti e dunque in lenea di principio prevedibili, calcolabili, i rapporti fra -le frequenze di- diversi eventi che possono accadere ed accadono alternativamente gli uni agli altri a seconda dei singoli casi dipendentemente da "ciò che li precede e circonda" purché si consideri un numero sufficientemente grande di osservazioni) mi sembra problematico, mi sembra implicare inevitabili paradossi insolubili, che hanno a che fare con la questione infinito potenziale/infinito attuale. Innanzitutto: quando è che un numero di casi può essere considerato "sufficientemente grande"? Quale significato potrebbe mai avere tutto l' assunto sulla distribuzione dei casi reciprocamente alternativi in proporzioni universali e costanti nel caso di serie "sufficientemente numerose" di essi? Quanto numerose? E' possibile stabilirlo in una qualche maniera? Può darsi un qualche senso a questo concetto di "sufficientemente numerose"? Inoltre -sia pure- all' infinito (nel tempo e/o nello spazio) anche le cose più improbabili possono accadere (e tendono ad accadere; e forse accadono): per esempio anche in un numero "grande" (?) di casi (grande quanto si vuole?) le proporzioni delle osservazioni (dei casi) reciprocamente alternativi possibili possono talvolta, prima o poi (per quanto "rarissimamente" -?-), discostarsi da quelle previste dalla rispettiva legge probabilistica (nella fattispecie 1/6 per ciascun numero da 1 a 6). Fra un "numero sufficientemente grande" di casi -per quanto elevato esso sia- ed "infiniti" (un "numero infinito" di) casi c' è sempre inevitabilmente un abisso incolmabile (o solo potenzialmente, concettualmente e mai attualmente, effettivamente colmabile), il quale inficia (destituisce di significato) il concetto di "numero (sufficientemente) grande (di casi, osservazioni, rilievi)": qualsiasi numero, per quanto grande (o piccolo) sia, è (sempre insuperabilmente) infinitamente piccolo (o infinitamente grande) relativamente all' infinito (in confronto al numero "infinitamente grande" o "infinitamente piccolo"). Nel caso di frequenze probabilistiche-statistiche del divenire, al tendere all' infinito dei casi (osservati) le proporzioni delle alternative possibili tendono ad avvicinarsi sempre più a determinati valori (per esempio a 1/6 la frequenza di ciascun esito possibile nel nostro caso del lancio di un dado non truccato); ma anche serie sempre più improbabili tendono sempre più ad accadere (per esempio serie ininterrotte sempre più numerose di "6" consecutivi: queste ultime al crescere dei casi osservati tendono sia ad essere sempre più numerose e lunghe in assoluto, sia a essere sempre più rare relativamente alle altre serie più probabili. Dal momento che il concetto (umano, di fatto considerabile) di "(numero) infinito" comporta necessariamente una infinità inesauribile di (numeri) infiniti "di ordini successivi" come sue "parti", nella "infinità inesauribile dell' infinito" numero di casi, anche infinite sequenze di casi "anomali" (improbabili: contraddicenti la probabilità considerata), ognuna delle quali di lunghezza infinita (sic!), possono (e anzi tendono ad) accadere, per quanto le proporzioni complessive fra la totalità degli infiniti casi che accadono siano comunque quelle determinate proporzioni probabilistiche (1/6 per ciascun numero da 1 a 6): non è questo contraddittorio? E' questa un' aporia del concetto di "infinito", ovvero che "tendendo (le osservazioni de-) i casi all' infinito, le loro proporzioni tendono ad avvicinarsi sempre più a determinati valori probabili (1/6 nella fattispecie), per quanto inevitabilmente tendano anche sempre più ad accadere casi di discostamenti sempre più grandi da tali valori. L' infinito in quanto concetto (umano: in quanto oggetto di considerazione teorica, eventualmente di predicazione, eventualmente di conoscenza umana) non può mai essere attuale (potrebbe esserlo solo nella mente di Dio, se esistesse), bensì è sempre, inevitabilmente potenziale dal momento che qualsiasi considerazione teorica è finita (non continua all' infinito ma prima o poi si arresta). Laddove l' infinto in quanto reale (in quanto caratteristica della realtà) può benissimo essere in atto. MI sento in dovere di aggiungere il mio accordo con quanto acutamente ha scritto Davintro (soprattutto che il dubbio -humeiano- insuperabile circa l' induzione non lo é nemmeno attraverso il concetto di "probabilità", che può oggettivamente significare unicamente "frequenza statistica" la quale, per quante volte sia stata confermata, é sempre altrettanto e anzi più degna di dubbio della costanza "univoca" dell' induzione "deterministica - meccanicistica".

Sì c'era anche questo aspetto per cui un divenire probabilistico è problematico. Il problema è che lo stesso determinismo non è per nulla "dimostrabile", nemmeno se avessimo un tempo infinito per vivere. Il punto è che tra l'altro le generalizzazioni accidentali possono "durare" un'infinità di tempo. Sempre con l'esempio del dado. Se faccio un'infinità di lanci e trovo che il 6 esce con frequenza relativa 1/6 non possono a rigore nemmeno in questo caso dire che la probabilità è 1/6. Allo stessso modo se verifico che un'infinità di volte un oggetto lasciato cadere dal tavolo arriva al pavimento non posso dire che vi è una necessità che lo "costringe" a cadere. Posso solo dire che "è sempre caduto".

In ogni caso non riusciamo mai a distinguere una generalizzazione accidentale da una vera regolarità (e qui il mio scetticismo va oltre Hume e segue WIttgenstein). Infatti con l'induzione, anche se essa disponesse di un numero infinito di prove non potrebbe dimostrare una "legge", o meglio non può distinguere tra una "legge" e una mera "generalizzazione accidentale".
"[C]hi non pensa di trovarsi nell'indigenza non può desiderare quello di cui non pensa di aver bisogno" (Diotima - Simposio, Platone)

paul11

Se la varibile è una funzione X con un dado a sei facce la probabilità di uscita di ciascun numero è 1/6.
I lanci dei dadi costruiscono una successione di dati storici, in cui ogni ciclo è 6 e più il dato storico contemplato è ampio e più la distribuzione diventa normale.
Significa che se lancio 6 volte il dado può esserci un numero che esce 2 volte e un'altro 0, perchè il ciclo chiude la serie.Ma se considero ad esempio 6 esponente 2= 36 ho un dato storico di 6 cicli e più aumento l'ampiezza del dato e più la distribuzione ha meno discrepanze distributive fra i numeri.

Allora significa che  più si analizza un' ampiezza di serie numeriche piccole è più si notano le anomalie distributive, più è ampio il ciclo e queste anomalie tendono ad appiattirsi,a essere meno evidenti.

Ancora, se nel lotto vi sono 90 numeri il dato storico da analizzare è molto ampio perchè novanta numeri usciti costituiscono un ciclo , Se alla roulette sono 37 ,compreso lo zero, diciamo che è medio fra il dado e il lotto.

Ma proprio perchè la logica della funzione della probabilità e della distribuzione non è alterata dalla caratteristica,
ha una regola e delle funzioni per determinarla. Quindi ha una induzione se si tiene conto per ogni numero quante volte è uscito(analisi di una variabile discreta) e deduzione in quanto ha una regola generale distributiva e probabilistica.

Non è quindi tanto il ritardo in sè e per sè da tener conto, perchè quel numero in ritardo può essersi ripetuto in continuità aumentando la sua frequenza di uscita in un momento precedente.,quindi ha avuto un'anomalia e poi "sparisce", ma le uscite dei numeri sotto la distribuzione normale.

Io direi che la legge dei grandi numeri alla fine conta, che esistono cicli anche nelle serie numeriche la cui lunghezza è data dalle variabili in gioco (nel dado è 6) e che tutto torna alla fine.
Non è proprio così......ma comunque.

Angelo Cannata

Citazione di: paul11 il 21 Febbraio 2017, 00:53:33 AM
Io direi che la legge dei grandi numeri alla fine conta
Mi sono incuriosito e ho trovato in rete gli esperimenti di Buffon e Pearson nel fare testa o croce: i risultati dell'esperienza si avvicinano alle probabilità teoriche di 1/2, cioè allo 0,5 perfetto, con l'aumentare del numero di lanci: con 4040 lanci ottennero una frequenza di 0,5069; con 12000 lanci 0,50158; con 24000 lanci 0,5005.

Mi sembra che questi esperimenti diano però anche una misura di quanto sia davvero probabile che al lotto esca un numero troppo assente: dobbiamo infatti tener presente che il lancio della moneta prevede solo due possibilità, mentre nel lotto abbiamo 90 numeri. Se, per ottenere con due sole possibilità, una frequenza di 0,5069, furono necessari 4040 lanci, con le 90 possibilità del lotto, a tre uscite a settimana, immagino che la probabilità che un numero molto assente esca davvero cominci ad essere seria soltanto dopo qualche miliardo di secoli.

Quindi si pùo pensare che la legge dei grandi numeri conta sì, ma devono essere numeri di grandezze stratosferiche. Inoltre, per quanto grandi essi siano, si tratterà sempre di avvicinamento allo 0,5 perfetto e mai di raggiungimento.

paul11

Citazione di: Angelo Cannata il 21 Febbraio 2017, 01:51:39 AM
Citazione di: paul11 il 21 Febbraio 2017, 00:53:33 AMIo direi che la legge dei grandi numeri alla fine conta
Mi sono incuriosito e ho trovato in rete gli esperimenti di Buffon e Pearson nel fare testa o croce: i risultati dell'esperienza si avvicinano alle probabilità teoriche di 1/2, cioè allo 0,5 perfetto, con l'aumentare del numero di lanci: con 4040 lanci ottennero una frequenza di 0,5069; con 12000 lanci 0,50158; con 24000 lanci 0,5005. Mi sembra che questi esperimenti diano però anche una misura di quanto sia davvero probabile che al lotto esca un numero troppo assente: dobbiamo infatti tener presente che il lancio della moneta prevede solo due possibilità, mentre nel lotto abbiamo 90 numeri. Se, per ottenere con due sole possibilità, una frequenza di 0,5069, furono necessari 4040 lanci, con le 90 possibilità del lotto, a tre uscite a settimana, immagino che la probabilità che un numero molto assente esca davvero cominci ad essere seria soltanto dopo qualche miliardo di secoli. Quindi si pùo pensare che la legge dei grandi numeri conta sì, ma devono essere numeri di grandezze stratosferiche. Inoltre, per quanto grandi essi siano, si tratterà sempre di avvicinamento allo 0,5 perfetto e mai di raggiungimento.

Sì , per certi versi è come se ogni legge abbia con sè mai una perfezione assoluta, ma un'anomalia(si dice allora che l'eccezione conferma la regola), infatti la statistica utilizza studi di variabili discrete che applica in tutti campi, dalla fisica alla biologia alla sociologia.
nel nostro caso essendo 1/6 la probabilità di uscita teorica di ogni numero di un dado  a sei facce, il primo ciclo di sei lanci, in realtà non dà quasi mai il risultato che ogni numero sia uscito. Cè un numero che invece è uscito due volte e un'altro ,per compensazione non è uscito per niente. ma se ripeto questo ciclo di sei lanci tenendo conto dei rapporti di uscita di ciascun numero, tanti più cicli vi saranno di lanci e tanto più le differenze scemano, ma rimangono comunque..
Diciamo allora che la probabilità abbassa il rischio, ma non lo toglie del tutto.La probabilità relazionata quindi alla distribuzione, fa emergere le anomalie di chi è uscito di più e di chi è uscito meno di quella probabilità teorica iniziale , ma dove la "normalità" è rappresentata dalla media della distribuzione che "taglia" se proiettiamo la matematica in un disegno statistico (istogrammi, linea, ecc.) le frequenze dei numeri.

acquario69

Coi dadi non c'entra niente credo..mi sarebbe venuto in mente la pressoché perfetta proporzione quando si viene al mondo; 50xcento maschi e 50xcento femmine.
Curioso no?!

baylham

Citazione di: Angelo Cannata il 21 Febbraio 2017, 01:51:39 AM
Citazione di: paul11 il 21 Febbraio 2017, 00:53:33 AM
Io direi che la legge dei grandi numeri alla fine conta
Mi sono incuriosito e ho trovato in rete gli esperimenti di Buffon e Pearson nel fare testa o croce: i risultati dell'esperienza si avvicinano alle probabilità teoriche di 1/2, cioè allo 0,5 perfetto, con l'aumentare del numero di lanci: con 4040 lanci ottennero una frequenza di 0,5069; con 12000 lanci 0,50158; con 24000 lanci 0,5005.

Mi sembra che questi esperimenti diano però anche una misura di quanto sia davvero probabile che al lotto esca un numero troppo assente: dobbiamo infatti tener presente che il lancio della moneta prevede solo due possibilità, mentre nel lotto abbiamo 90 numeri. Se, per ottenere con due sole possibilità, una frequenza di 0,5069, furono necessari 4040 lanci, con le 90 possibilità del lotto, a tre uscite a settimana, immagino che la probabilità che un numero molto assente esca davvero cominci ad essere seria soltanto dopo qualche miliardo di secoli.

Quindi si pùo pensare che la legge dei grandi numeri conta sì, ma devono essere numeri di grandezze stratosferiche. Inoltre, per quanto grandi essi siano, si tratterà sempre di avvicinamento allo 0,5 perfetto e mai di raggiungimento. 

Ragionamento sbagliato.
La probabilità, sempre soggettiva, che un numero del lotto esca ad una estrazione rimane 1/90. Come hai giustamente rilevato in precedenza nel gioco del lotto un sorteggio non dipende in alcun modo dal risultato del sorteggio precedente, quindi non varia la mia valutazione soggettiva della probabilità. Non c'è alcuna probabilità oggettiva da raggiungere.

Angelo Cannata

Citazione di: baylham il 21 Febbraio 2017, 11:25:02 AM
Ragionamento sbagliato.
La probabilità, sempre soggettiva, che un numero del lotto esca ad una estrazione rimane 1/90. Come hai giustamente rilevato in precedenza nel gioco del lotto un sorteggio non dipende in alcun modo dal risultato del sorteggio precedente, quindi non varia la mia valutazione soggettiva della probabilità. Non c'è alcuna probabilità oggettiva da raggiungere.
Infatti il mio non è un ragionamento: ho descritto esperimenti che sono stati effettuati.

Eretiko

Cerchiamo di fare un poco di chiarezza sulle questioni sollevate in questa discussione.

1) Lancio dei dadi, con il dado inteso come ente astratto, matematico.
Una volta definita cosa sia la "probabilità di un evento" e stabilite le condizioni al contorno, in questo caso facce del dado equiprobabili e nessuna correlazione tra un lancio e il successivo, allora la probabilità che esca una certa faccia è pari a 1/6 e questa è una deduzione e non un'induzione, e non è legata a nessuna presunta regolarità: il fatto che ad ogni lancio possa uscire solo una delle 6 facce, in modo disgiunto tra loro e in modo disgiunto da tutti i lanci precedenti, è una condizione imposta al problema.

2) Lancio dei dadi come evoluzione di un sistema fisico reale.
Se io conosco il materiale con cui è fatto il dado (supposto un cubo regolare), la sua massa, i suoi momenti di inerzia rispetto ai vari assi di simmetria, se conosco densità, pressione e temperatura dell'aria nell'ambiente, se conosco il coefficiente di attrito del piano su cui il dado rotolerà, se conosco la posizione iniziale del dado nella mano del lanciatore, l'impulso con il quale si lancia il dado, la direzione verso la quale si effettua il lancio, l'altezza della mano dal piano, una volta individuato un opportuno sistema di riferimento, una volta cioè stabilite le condizioni al contorno, si possono scrivere le equazioni del moto del dado rispetto al sistema di riferimento. Una volta risolte queste equazioni imponendo la condizione che la velocità del dado rispetto al sistema di riferimento sia nulla, allora troveremo la posizione del dado (in quiete) rispetto al sistema di riferimento e l'istante di tempo al quale si raggiunge la condizione di quiete, e anche il modo con il quale il dado si trova in quiete (appoggiato su una delle 6 facce, oppure in equilibrio su uno dei 12 lati del cubo, oppure su uno degli 8 spigoli). E' quindi possibile prevedere (teoricamente) l'evoluzione del sistema, ed è possibile (teoricamente) imporre le condizioni al contorno sufficienti a garantire che un lancio del dado dia il risultato voluto.
Non c'è nessun calcolo probabilistico in questo caso.

Riguardo alla questione della solita "induzione" (sempre sul banco degli imputati) e delle presunte regolarità, conviene fare un salto temporale nella Londra di metà '600. Newton conosceva gli esperimenti di Galilei sulla caduta libera dei corpi ed il dato sperimentale dell'accelerazione di un corpo in caduta libera sulla terra, e conosceva le 3 leggi empiriche del moto dei pianeti formulate da Keplero. Conosceva il raggio terrestre con buona approssimazione (calcolato dagli antichi greci) e conosceva con approssimazione la distanza terra-luna pari circa a 60 raggi terrestri (calcolata durante le eclissi grazie all'ombra della terra proiettata sulla luna). Egli calcolò l'accelerazione centripeta della luna rispetto alla terra (conoscendo il periodo di rivoluzione della stessa attorno alla terra) e si accorse che il rapporto tra accelerazione di una "mela" in caduta libera sulla superficie terrestre e accelerazione centripeta della luna era pari circa a 3600, ovvero pari al quadrato del rapporto tra la distanza luna-terra (centro) e mela-terra (centro). Pura coincidenza o questa proporzione nascondeva un segreto? A questo punto ebbe la presunzione di estendere questa legge proporzionale all'inverso del quadrato della distanza (ecco la malefica induzione all'opera) al sistema solare, ed elaborò un modello teorico che descrivesse l'universo e comprendesse le 3 leggi empiriche di Keplero (deduzione), con verifica a posteriori della coerenza del modello stesso con i dati sperimentali.
Non ci si affida quindi né al solo dato empirico (le 3 leggi di Keplero) né alla sola induzione-deduzione (una forza centrale inversamente proporzionale al quadrato della distanza).

paul11

Se parliamo di un dado, nell'ambito di un'estrazione a sorte, parliamo di matematica pura e non applicata.

Quì il problema è l'aleatorietà e non quanto sia la probabilità che domani sorga di nuova  il sole che è data da studi fisici come premessa. Diversamente dovremmo inserirci il battito d'ali della farfalla o lo starnuto: certo se tutte le variabili fisiche fossero sotto controllo e ponderate sia ognuna che fra loro passiamo ad un determinismo togliendo la casualità, quindi i lcaso diventa causa che genera un effetto.

Dire che sai soggettivo si tratterebbe di pura "fortuna" senza alcun ragionamento, c'è chi lo fa  e guadagna una volta, ma chissà come mai alla fine la sommatoria algebrica i avvicina a zero? Non ci credono nemmeno quelli che giocano per fare soldi che si scervellano in sistemi , ma soprattutto lo sanno quelle aziende che campano sulle  scommesse che a loro volta per abbassare la probabilità di perdita loro, utilizzano dati storici e statistici..

La soggettività cade nel momento in cui si lanciano innumerevole volte i dadi, si hanno così dati storici , lo si compie più volte e compaiono così leggi matematiche,  Il risultato è spesso non un numero certo, ma un'ampiezza statistica in cui molto probabilmente
un evento accade. Ribadisco, la probabilità non dà certezze, ma restringe le possibilità di scelte, taglia quindi in poco probabile, in molto probabile, ecc.

E' una forma di conoscenza approssimata, inteso come avvicinamento ad un obbiettivo sapendo che è impossibile determinarlo.
Diversamente, si sogna e si legge la "smorfia".

sgiombo

Citazione di: Apeiron il 20 Febbraio 2017, 22:37:25 PMPer il "misticismo" come ho già detto non intenderlo come l'assoluto rifiuto di ragionare. Tuttavia è semplicemente la realizzazione che le certezze che abbiamo non hanno un completo fondamento.
CitazioneBeh, questo mi pare razionalismo, critica razionale, e non misticismo (ma quasi il contrario di esso).




Citazione di: davintro il 20 Febbraio 2017, 20:25:11 PMil punto fondamentale della questione mi pare sia quello di mantenere una coerenza tra un certo modello metodologico di ricerca nello svolgere le previsioni e la pretesa di scientificità (o razionalità) dei risultati a cui si ritiene di pervenire. L'induzione non solo, sulla base della celebre argomentazione del tacchino, è secondo me impossibilitata a fondare verità apodittiche, ma neanche probabilistiche. Per parlare di probabilità è necessario raffrontare una misura di casi in cui la probabilità si verifica e una "totalità", una serie FINITA di casi che effettivamente sono realizzabili nel contesto della previsione. Se ho di fronte un sacchetto con 100 cioccolatini di cui 90 alla nocciola, ha senso dire che razionalmente ho il 90% di possibilità che scegliendo a caso dal sacchetto di prendere un cioccolatino alla nocciola. Posso farlo perché la totalità dei casi possibili ha un limite ben definito, i 100 cioccolatini totali del sacchetto. Non è il caso del lancio dei dadi, nel quale l'induzione presume di ricavare previsioni, ma in modo del tutto irrazionale, perché nel caso del lancio dei dadi non esiste una totalità conclusa, ma per compiere previsioni è necessario ripetere in continuazione all'infinito l'esperienza del lancio dei dadi. L'esperienza non è un sistema chiuso ma infinitamente aperto, e non si arriverà mai a concepire una serie chiusa, un 100% da cui ricavare una percentuale vicina o lontana. Sono dunque d'accordo con il primo post di Apeiron. La vera razionalità non può che essere deduttiva, perché se razionale un discorso lo è in quanto giustificato da argomenti che hanno in loro stessi la loro validità fondativa epistemica, allora solo la razionalità che parte da un'evidenza stabile, un punto fermo di cui si è riconosciuta l'indubitabilità (come nel dubbio metodico cartesiano o nella riduzione fenomenologica) può fondare la pretesa di verità dei discorsi, non l'ingenua osservazione induttiva dei casi particolari dell'esperienza, metodo adeguato e vincolato alla contingenza dei contesti empirici verso cui si rivolge, e tale contingenza si rispecchia inevitabilmente nei risultati. Senza l'apodissi si perde anche la probabilità, dato che questa è solo un'approssimazione verso la certezza indubitabile, tolta questa cade anche l'altra. Non è certo un caso che nella modernità razionalismo ed empirismo erano visti, mi sembra, come fra loro contrapposti

Su questo sono d'accordo. Razionalismo ed empirismo erano opposti, oggi si tende a dire che il razionalismo è l'empirismo ma io usavo i termini nel senso seicentesco. Il problema è che entrambe le posizioni in realtà sono fallimentari in quello che si ripromettono ossia quello di giustificare la scienza.
CitazioneCome già scritto concordo anch' io.
Ma l' empirista settecentesco David Hume é proprio colui che prima e meglio di tutti l' ha capito; e accettato come una conquista (filosofica) di verità e non come un fallimento!





sgiombo

Citazione di: Apeiron il 20 Febbraio 2017, 22:47:14 PM
Citazione di: sgiombo il 20 Febbraio 2017, 21:12:04 PM
Citazione
Secondo me ci si deve intendere sui termini del discorso (il significato delle parole). E' un affermazione che è vera alla condizione indimostrabile (Hume!) che il divenire naturale sia ordinato secondo modalità o leggi universali e costanti; perché in questo caso se il dado non è truccato (ovvero le facce sono perfettamente regolari, il materiale di cui è fatto perfettamente omogeneo, ecc.) e se i lanci sono fatti "a caso" (in un' "infinità" di maniere simili e non calcolate in determinati modi) in un numero sufficientemente elevato di lanci i fattori causali tendenti a farlo cadere su ciascuna faccia si equilibrano. Tuttavia è un' affermazione alquanto imprecisa, in particolare per quanto riguarda i numerosi concetti che ho evidenziato in grassetto, i quali sono decisamente vaghi e non realistici (in realtà non esiste la perfezione!). Cosicché (in linea teorica, di principio) in un numero "ulteriormente sufficientemente elevato di lanci" ci si dovrebbe aspettare qualche pur minima differenza della distribuzione statistica dei risultati di ciascun dado concreto (costante per ciascun dato in un numero sufficientemente elevato di lanci, ma diversa fra i diversi dadi, nessuno dei quali, per quanto non deliberatamente "truccato", può essere perfetto). Ma a parte questo mi sembra che Apeiron intenda suggerire un problema più di fondo nel concetto di probabilità, che io stesso credo di aver colto per conto mio in precedenti riflessioni. Un divenire (della realtà fisica materiale) ordinato secondo leggi universali e costanti di tipo "deterministico - meccanicistico" mi sembra un concetto del tutto sensato, privo di contraddizioni: ogni singolo evento è determinato da "ciò che lo precede e circonda" e in linea teorica di principio prevedibile, calcolabile). Invece un divenire probabilistico - statistico (non ogni singolo evento è universalmente e costantemente e in linea teorica di principio prevedibile, calcolabile, ma sono invece universali e costanti e dunque in lenea di principio prevedibili, calcolabili, i rapporti fra -le frequenze di- diversi eventi che possono accadere ed accadono alternativamente gli uni agli altri a seconda dei singoli casi dipendentemente da "ciò che li precede e circonda" purché si consideri un numero sufficientemente grande di osservazioni) mi sembra problematico, mi sembra implicare inevitabili paradossi insolubili, che hanno a che fare con la questione infinito potenziale/infinito attuale. Innanzitutto: quando è che un numero di casi può essere considerato "sufficientemente grande"? Quale significato potrebbe mai avere tutto l' assunto sulla distribuzione dei casi reciprocamente alternativi in proporzioni universali e costanti nel caso di serie "sufficientemente numerose" di essi? Quanto numerose? E' possibile stabilirlo in una qualche maniera? Può darsi un qualche senso a questo concetto di "sufficientemente numerose"? Inoltre -sia pure- all' infinito (nel tempo e/o nello spazio) anche le cose più improbabili possono accadere (e tendono ad accadere; e forse accadono): per esempio anche in un numero "grande" (?) di casi (grande quanto si vuole?) le proporzioni delle osservazioni (dei casi) reciprocamente alternativi possibili possono talvolta, prima o poi (per quanto "rarissimamente" -?-), discostarsi da quelle previste dalla rispettiva legge probabilistica (nella fattispecie 1/6 per ciascun numero da 1 a 6). Fra un "numero sufficientemente grande" di casi -per quanto elevato esso sia- ed "infiniti" (un "numero infinito" di) casi c' è sempre inevitabilmente un abisso incolmabile (o solo potenzialmente, concettualmente e mai attualmente, effettivamente colmabile), il quale inficia (destituisce di significato) il concetto di "numero (sufficientemente) grande (di casi, osservazioni, rilievi)": qualsiasi numero, per quanto grande (o piccolo) sia, è (sempre insuperabilmente) infinitamente piccolo (o infinitamente grande) relativamente all' infinito (in confronto al numero "infinitamente grande" o "infinitamente piccolo"). Nel caso di frequenze probabilistiche-statistiche del divenire, al tendere all' infinito dei casi (osservati) le proporzioni delle alternative possibili tendono ad avvicinarsi sempre più a determinati valori (per esempio a 1/6 la frequenza di ciascun esito possibile nel nostro caso del lancio di un dado non truccato); ma anche serie sempre più improbabili tendono sempre più ad accadere (per esempio serie ininterrotte sempre più numerose di "6" consecutivi: queste ultime al crescere dei casi osservati tendono sia ad essere sempre più numerose e lunghe in assoluto, sia a essere sempre più rare relativamente alle altre serie più probabili. Dal momento che il concetto (umano, di fatto considerabile) di "(numero) infinito" comporta necessariamente una infinità inesauribile di (numeri) infiniti "di ordini successivi" come sue "parti", nella "infinità inesauribile dell' infinito" numero di casi, anche infinite sequenze di casi "anomali" (improbabili: contraddicenti la probabilità considerata), ognuna delle quali di lunghezza infinita (sic!), possono (e anzi tendono ad) accadere, per quanto le proporzioni complessive fra la totalità degli infiniti casi che accadono siano comunque quelle determinate proporzioni probabilistiche (1/6 per ciascun numero da 1 a 6): non è questo contraddittorio? E' questa un' aporia del concetto di "infinito", ovvero che "tendendo (le osservazioni de-) i casi all' infinito, le loro proporzioni tendono ad avvicinarsi sempre più a determinati valori probabili (1/6 nella fattispecie), per quanto inevitabilmente tendano anche sempre più ad accadere casi di discostamenti sempre più grandi da tali valori. L' infinito in quanto concetto (umano: in quanto oggetto di considerazione teorica, eventualmente di predicazione, eventualmente di conoscenza umana) non può mai essere attuale (potrebbe esserlo solo nella mente di Dio, se esistesse), bensì è sempre, inevitabilmente potenziale dal momento che qualsiasi considerazione teorica è finita (non continua all' infinito ma prima o poi si arresta). Laddove l' infinto in quanto reale (in quanto caratteristica della realtà) può benissimo essere in atto. MI sento in dovere di aggiungere il mio accordo con quanto acutamente ha scritto Davintro (soprattutto che il dubbio -humeiano- insuperabile circa l' induzione non lo é nemmeno attraverso il concetto di "probabilità", che può oggettivamente significare unicamente "frequenza statistica" la quale, per quante volte sia stata confermata, é sempre altrettanto e anzi più degna di dubbio della costanza "univoca" dell' induzione "deterministica - meccanicistica".

Sì c'era anche questo aspetto per cui un divenire probabilistico è problematico. Il problema è che lo stesso determinismo non è per nulla "dimostrabile", nemmeno se avessimo un tempo infinito per vivere. Il punto è che tra l'altro le generalizzazioni accidentali possono "durare" un'infinità di tempo. Sempre con l'esempio del dado. Se faccio un'infinità di lanci e trovo che il 6 esce con frequenza relativa 1/6 non possono a rigore nemmeno in questo caso dire che la probabilità è 1/6. Allo stessso modo se verifico che un'infinità di volte un oggetto lasciato cadere dal tavolo arriva al pavimento non posso dire che vi è una necessità che lo "costringe" a cadere. Posso solo dire che "è sempre caduto".

In ogni caso non riusciamo mai a distinguere una generalizzazione accidentale da una vera regolarità (e qui il mio scetticismo va oltre Hume e segue WIttgenstein). Infatti con l'induzione, anche se essa disponesse di un numero infinito di prove non potrebbe dimostrare una "legge", o meglio non può distinguere tra una "legge" e una mera "generalizzazione accidentale".
CitazioneSecondo me che fare un'in finità di lanci e trovare che il 6 esce con frequenza relativa 1/6 é precisamente la definizione di "probabilità 1/6".
Perfettamente d' accordo con il resto (secondo quanto insegnatomi dal grande David Hume; salvo il fatto che che però non trovo sia stato superato in questo da Wittgenstein: già il mio amato scozzese criticava il concetto  di causalità argomentando che -cito a memoria ma credo del tutto fedelmente- "non é contraddittorio pensare che la prossima volta ad "A" non seguirà "B" anche se finora immancabilmente ogni volta che é accaduto "A" ne é seguito "B", per quante siano le constatazioni finora effettuate"= fossero pure infinite).

Nel copiare-incollare precedenti considerazioni svolte in altre sedi nell' intervento precedente avevo fatto dei tagli errati (per "amore di brevità").
In realtà avrei voluto sostenere che, per quanto indimostrabile (Hume! E va beh, anche Wittgenstein!), un divenire ordinato di tipo deterministico - meccanicistico é comunque non contraddittorio, sensato, così come un divenire ordinato di tipo ontologicamente deterministico - meccanicistico ma conosciuto (gnoseologicamente o epistemicamente) in maniera  probabilistica statistica
 (per limiti di completezza e precisione nella conoscenza di fatto possibile delle leggi generali astratte del divenire e delle condizioni particolari concrete a un determinato istante di tempo "iniziale");  mentre pone insuperabili aporie un divenire ordinato di tipo ontologicamente probabilistico - statistico (come quello invocato dalle interpretazioni prevalenti o "conformistiche" della meccanica quantistica).
Infatti, contrariamente alle leggi umane (statali) e a generiche "regole" che ammettessero eccezioni (e magari ne venissero "confermate"), se si danno leggi universali e costanti del divenire naturale, queste non potrebbero presentare alcuna "eccezione" (alcun "miracolo"), pena la loro confutazione (o meglio: falsificazione empirica): in questo caso si tratterebbe di (sarebbe da considerarsi come) un caso, per quanto "stranissimo" di "mutamento caotico, assoluto-integrale, del tutto privo di aspetti fissi, universali e costanti astraibili dai particolari concreti (e dunque incompatibile con la possibilità di conoscenza scientifica); sarebbe come se (cosa improbabilissima ma in linea teorica, di principio -non di fatto!- non impossibile) in una serie di di 100 lanci di un dado non truccato si ottenessero 100 esiti "6": regolarità meramente apparente, fortuita, non reale.
Ma questo ha senso nel caso di divenire ontologicamente meccanicistico-deterministico (magari conoscibile solo sotto forma di divenire probabilistico statistico meramente epistemologico); mentre invece in caso di divenire ontologicamente probabilistico statistico le considerazioni esposte nel precedente intervento su arbitrarietà e vaghezza del concetto di "numero sufficientemente elevato di casi" e sulla dialettica infinito in atto/infinito in potenza, con in particolare l' inevitabilità di sequenze di lunghezza indefinita di casi contravvenienti le proporzioni statistiche pretese "universali e costanti", imporrebbero addirittura come necessarie (non solo possibili!) "eccezioni alla regola" ovvero deroghe dalle (pretese, a questo punto) leggi probabilistiche statistiche del divenire; deroghe che le destituirebbero di senso facendo della (pretesa) ipotesi di divenire considerato in realtà qualcosa da intendersi come un muutamento autenticamente caotico, non ordinato, per quanto di fatto con sequenze di eventi "stranissime", del tipo dei cento "6" consecutivi nel lancio del dado non truccato.
Senza falsa modestia credo che il ragionamento sia sottile, ma ovviamente del tutto alla portata della tua finezza di ragionamento e di quella di tanti altri; per questo mi interesserebbe una tua esplicita valutazione critica (e anche di altri, ovviamente!).
Grazie.


sgiombo

Citazione di: paul11 il 21 Febbraio 2017, 10:17:19 AM
Citazione di: Angelo Cannata il 21 Febbraio 2017, 01:51:39 AM
Citazione di: paul11 il 21 Febbraio 2017, 00:53:33 AMIo direi che la legge dei grandi numeri alla fine conta
Mi sono incuriosito e ho trovato in rete gli esperimenti di Buffon e Pearson nel fare testa o croce: i risultati dell'esperienza si avvicinano alle probabilità teoriche di 1/2, cioè allo 0,5 perfetto, con l'aumentare del numero di lanci: con 4040 lanci ottennero una frequenza di 0,5069; con 12000 lanci 0,50158; con 24000 lanci 0,5005. Mi sembra che questi esperimenti diano però anche una misura di quanto sia davvero probabile che al lotto esca un numero troppo assente: dobbiamo infatti tener presente che il lancio della moneta prevede solo due possibilità, mentre nel lotto abbiamo 90 numeri. Se, per ottenere con due sole possibilità, una frequenza di 0,5069, furono necessari 4040 lanci, con le 90 possibilità del lotto, a tre uscite a settimana, immagino che la probabilità che un numero molto assente esca davvero cominci ad essere seria soltanto dopo qualche miliardo di secoli. Quindi si pùo pensare che la legge dei grandi numeri conta sì, ma devono essere numeri di grandezze stratosferiche. Inoltre, per quanto grandi essi siano, si tratterà sempre di avvicinamento allo 0,5 perfetto e mai di raggiungimento.

Sì , per certi versi è come se ogni legge abbia con sè mai una perfezione assoluta, ma un'anomalia(si dice allora che l'eccezione conferma la regola), infatti la statistica utilizza studi di variabili discrete che applica in tutti campi, dalla fisica alla biologia alla sociologia.
nel nostro caso essendo 1/6 la probabilità di uscita teorica di ogni numero di un dado  a sei facce, il primo ciclo di sei lanci, in realtà non dà quasi mai il risultato che ogni numero sia uscito. Cè un numero che invece è uscito due volte e un'altro ,per compensazione non è uscito per niente. ma se ripeto questo ciclo di sei lanci tenendo conto dei rapporti di uscita di ciascun numero, tanti più cicli vi saranno di lanci e tanto più le differenze scemano, ma rimangono comunque..
Diciamo allora che la probabilità abbassa il rischio, ma non lo toglie del tutto.La probabilità relazionata quindi alla distribuzione, fa emergere le anomalie di chi è uscito di più e di chi è uscito meno di quella probabilità teorica iniziale , ma dove la "normalità" è rappresentata dalla media della distribuzione che "taglia" se proiettiamo la matematica in un disegno statistico (istogrammi, linea, ecc.) le frequenze dei numeri.
CitazionePerfettamente d' accordo (in pratica).

Ma i filosofi tendono a cercare sempre "il pelo teorico (il pelo in linea di principio) nell' uovo".

Un grosso "pelo teorico" trovato da David Hume (e anche da Wittgenstein e probabilmente altri) é che qualsiasi induzione, anche di tipo probabilistico-statistico, é in linea di principio degna di dubbio, come ha osservato Davintro: col fatto che  con 4040 lanci di una moneta non truccata lanci si sia ottenuta una frequenza di 0,5069 "testa"; con 12000 lanci 0,50158; con 24000 lanci 0,5005 non é in contraddizione con l' ipotesi che altre volte in analoghe serie di lanci si ottengano frequenze anche molto diverse.

Un altro é il fatto che al crescere all' infinito dei casi considerati prima o poi tendono ad accadere, per quanto con strabiliante infrequenza, anche i fatti più improbabili.

A scanso di equivoci preciso che, pur essendo "un filosofo che ama cercare i peli teorici di principio nelle uova, non sono un pazzo e in pratica non ho dubbi nel seguire ciò che la scienza ci dice, in termini apodittici e (molto più frequentemente e in modo molto più difficile da interpretarsi) probabilisticamente - statisticamente.

sgiombo

Citazione di: acquario69 il 21 Febbraio 2017, 10:26:05 AM
Coi dadi non c'entra niente credo..mi sarebbe venuto in mente la pressoché perfetta proporzione quando si viene al mondo; 50xcento maschi e 50xcento femmine.
Curioso no?!
CitazioneDirei ovvio: la distribuzione statistica delle combinazioni possibili dei due cromosomi sessuali di ciascun gamete é esattamente 50% come nel lancio di una moneta non truccata.

paul11

....speciificherei, c'è sempre una certa soggettività, in parte nella scelta perchè la matematica ci porta fino ad un ceto punto, ad abbassare il rischio, ma alla fine ,come nel poker c'è  la componente "'azzardo". Il problema è riuscire a tenerlo nell'ambito razionale per quanto possibile.

Ritornando alla domanda iniziale di Aperion, la matematica è una metafisica costruita dall'uomo.
Ha sue regole interne, ma si regola con l'esperienza. Quì c'è quella componente induttivo, deduttivo che si relazionano per perfezionare la regola stessa. Significa allora che la matematica direi che sia una mediatrice conoscitiva fra il nostro mentale e il mondo e ci permette di leggerlo di codificarlo e ricodificare un fenomeno dentro un nostro linguaggio, dei simboli matematici, logici, argomentarlo a parole, costruirne una legge sempre in simboli.
Se poi poni il fatto che cosa sia una realtà, quì difficilmente ne usciamo se non un modello rappresentazionale.
la reiterazione avvalora la lettura relazionata fra la nostra mente e la realtà e diventa convenzionale nel momento in cui non è solo un soggetto, ma è tutta l'umanità, diciamo così, che applica la stessa modalità raggiungendo lo stesso risultato. 

Quanto, perchè questo è il problema, sia una convenzione razionale della nostra mente e quanto sia davvero realtà, a prescindere quindi dalla nostra mente, penso sia impossibile da definire.
Perchè ritengo che in fondo le sofisticate tecnologie, come radiotelescopi, microscopi elettronici, sono in fondo protesi che estendono i nostri sensi, ma comunque interfacciano con noi, sono dentro il nostro linguaggio, ci informano e comunicano.
Non credo quindi alla netta divisione fra oggettivo e soggettivo, siamo comunque noi agenti conoscitivi che oltre a strumenti sensoriali utilizziamo quelli mentali. La realtà è restituita a noi da una cultura che ci dà un modello relazionale linguistico in qualunque forma di relazione,dalla matematica alla società.
Per quello che  conosco, nella remota antichità è proprio la regolarità che incide, prima ancora che fosse scienza era osservazione di regolarità cicliche, osservavano cielo e natura e ovviamente la rappresentavano nella natura.Ciò che ha sempre temuto l'umanità dai tempi più remoti ad oggi è proprio l'irregolarità, ciò che sfugge al cosiddetto razionale diremmo oggi: un terremoto, un alluvione fino alla siccità o alluvione, o la malattia.
La fortuna o la sfortuna è l'inspiegabile percezione di una realtà che non è tangibile dal linguaggio umano, o comunque sconosciuto.

sgiombo

Citazione di: Eretiko il 21 Febbraio 2017, 12:16:36 PM

Riguardo alla questione della solita "induzione" (sempre sul banco degli imputati) e delle presunte regolarità, conviene fare un salto temporale nella Londra di metà '600. Newton conosceva gli esperimenti di Galilei sulla caduta libera dei corpi ed il dato sperimentale dell'accelerazione di un corpo in caduta libera sulla terra, e conosceva le 3 leggi empiriche del moto dei pianeti formulate da Keplero. Conosceva il raggio terrestre con buona approssimazione (calcolato dagli antichi greci) e conosceva con approssimazione la distanza terra-luna pari circa a 60 raggi terrestri (calcolata durante le eclissi grazie all'ombra della terra proiettata sulla luna). Egli calcolò l'accelerazione centripeta della luna rispetto alla terra (conoscendo il periodo di rivoluzione della stessa attorno alla terra) e si accorse che il rapporto tra accelerazione di una "mela" in caduta libera sulla superficie terrestre e accelerazione centripeta della luna era pari circa a 3600, ovvero pari al quadrato del rapporto tra la distanza luna-terra (centro) e mela-terra (centro). Pura coincidenza o questa proporzione nascondeva un segreto? A questo punto ebbe la presunzione di estendere questa legge proporzionale all'inverso del quadrato della distanza (ecco la malefica induzione all'opera) al sistema solare, ed elaborò un modello teorico che descrivesse l'universo e comprendesse le 3 leggi empiriche di Keplero (deduzione), con verifica a posteriori della coerenza del modello stesso con i dati sperimentali.
Non ci si affida quindi né al solo dato empirico (le 3 leggi di Keplero) né alla sola induzione-deduzione (una forza centrale inversamente proporzionale al quadrato della distanza).
CitazioneL' induzione per un filosofo razionalista non é per niente "malefica" (concetto etico; e casomai é benefica, almeno se ne fa un uso assennato nell' interesse dell' umanità presente e futura; ma in realtà benefico o malefico é casomai l' uso che se ne fa).

Per un filosofo razionalista é semplicemente da sottoporre a critica razionalistica.
E questa ci dice che in linea di principio é dubitabile, che la sua validità non é né logicamente deducibile a priori né dimostrabile empiricamente a posteriori; che se si vuole essere razionalisti fino in fondo ci si deve rendere conto che la si crede (o per lo meno ci si comporta come se la si credesse) arbitrariamente, letteralmente "per fede".


Discussioni simili (5)