Dobbiamo davvero temere il dominio del computer? (Le paure dell’ignoranza)

Aperto da Mario Barbella, 20 Settembre 2017, 20:30:49 PM

Discussione precedente - Discussione successiva

paul11

Fin quando il "comportamento" dell'automa, computer, ia, è determinato da algoritmi sequenziali  tutto e prevedibile e circostanziato. Nel momento in cui. simile all'uomo, l'ia, acquisisce esperienza e comincia a scegliere "lui" quale algoritmo è opportuno sceglier, avviene un secondo salto.
Quando i sensori, come le nostre percezioni sensoriali, ci informano di un ambiente in cui agiamo, pensiamo, e di nuovo agiamo,ecc, il progettista a quel punto per opportune sicurezza, limita, condiziona i processi algoritmici, "bloccando" al cune scelte, alcune possibilità.

quando l'ia, avrà la possibilità di avere una sorta di una moltitudine di algoritmi, da cui scegliere può essere che entri in una sorta di confronto fra ambiente sensoriale e quegli algoritmi che per quanto abbia possibilità di scelta, l limitano "linguisticamente".
il vero salto finale è quando la ia, potrà costruirsi da solo gli algoritmi.

La libertà sarà il fondativo dei "salti" fino ad una generazione di una coscienza ia.
A quel punto la fantascienza diventerà realtà.........come spesso è già accaduto.

green demetr

Paul : e come sempre vi sarà una sequenza che verrà ritenuta giusta, rispetto ad un altra.

Direi che forse è quello il tema piuttosto che l'oggettività (pretesa) della macchina.

Anche perchè l'era dei robot dovrebbe già iniziare a sentire l'economista Benetazzo entro questo decennio.

Con tutta una serie di robot domestici pronti per la famiglia, a prezzi belli sostenuti, ma nemmeno poi tanti, tutto sommato.

In effetti avendo una molte vasta di dati una intelligenza artificiale è in grado di un calcolo infinetesimamente più alto.

Penso alla prossima rivoluzione digitale delle automobili con i  sensori anti-scontro, già in fase di testazione.

E' interessante vedere i problemi etici, su Bloomemberg, si faceva il caso di uno scontro non evitabile, in cui l'automobile necessariamente investe o un altra automobile o per via dello sterzo automatico, un passante del genere umano. Cosa far scegliere alla automobile?
Ma immagino che di circostanze ve ne siano ulteriori.

E fin quando si tratta di cose della "meccanica" bene, ma per i sentimenti come la mettiamo?

Decide la macchina se una vita vada vissuta o meno?

Ecco che il topic assume un peso assai maggiore rispetto alle questioni meramente ontologiche.

Sempre figlie dello spirito analitico dilagante (la filosofia che ci può fare? continuo amaramente a ripetermi)
Vai avanti tu che mi vien da ridere

Mario Barbella

Citazione di: sgiombo il 21 Settembre 2017, 12:07:51 PM
Citazione di: maral il 21 Settembre 2017, 09:53:08 AM
lo sviluppo di nessuna tecnologia se funziona può essere arrestato
CitazioneL' amianto come copertura degli edifici funzionava.

Il DDT come insetticida funzionava.

I motori a due tempi per i veicoli funzionavano.

Eppure si tratta di tecnologie che sono state arrestate (e ragionevolmente si può presumere in via definitiva, nei limiti di prevedibilità del comportamento umano).

Eccezioni che confermano la regola?

Secondo me confermano la regola che sono gli assetti sociali dominanti e i rapporti di forza nella lotta di classe (in ultima analisi e solitamente attraverso complesse mediazioni) a condizionare l' uso (o meno; o più speso l' uso più o meno limitato) delle tecniche, e non demiurgicamente le tecniche stesse.
Sì, Le ultime due righe del tuo post le riassumerei in una parola: "Osservatore".
D'accordo sul contenuto del post
Un augurio di buona salute non si nega neppure a... Salvini ! :)
A tavola potrebbe pure mancare il cibo ma... mai il vino ! Si, perché una tavola senza vino è come un cimitero senza morti  ;)  (nota pro cultura (ed anche cucina) mediterranea)

epicurus

Citazione di: sgiombo il 26 Settembre 2017, 17:55:30 PM
Citazione di: epicurus il 26 Settembre 2017, 14:47:03 PM
Mantenendo le mie obiezioni espresse nel mio post precedente alla tesi "il creato deve necessariamente essere inferiore al creatore", effettivamente c'è anche la questione delle ai che si evolvono, cioè di fatto modificando la propria programmazione in base agli stimoli ambientali.

Mario, tu dici che l'ai non può raggiungere un livello d'intelligenza superiore a quanto immesso dal creatore. Ma ciò è banalmente falso. Ci sono ai stupidissime con un grado di intelligenza che potremmo dire tendente allo zero, ma poi con sessioni di addestramento evolvono e raggiungono vari livelli di intelligenza, aumentando sempre di più tale livello.

Ne è un esempio anche AlphaGo, il programma di cui ho parlato precedentemente che gioco al gioco del Go. Col passare del tempo diventa sempre più forte: ogni partita che gioca impara cose nuove, cose non insegnate dall'uomo, perché neppure l'uomo conosce. Ora è un livello tale che probabilmente per imparare cose nuovo non può che giocare contro se stesso... e infatti sembra che ora il miglior insegnante per AlphaGo sia proprio AlphaGo: in pratica fanno giocare ad AlphaGo milioni di partite contro se stesso.
E d' altra parte se ci si pone (come me) in una prospettiva naturalistica, allora si deve gioco forza pensare che nulla di soprannaturale avviene in natura.

Nemmeno l' esistenza e l' attività umana.

E sebbene per parte mia sia decisamente "pessimista" circa un' eventuale realizzabilità di fatto (o forse sono piuttosto "ottimista in generale", se consideriamo i non improbabili e tutt' altro che facili problemi etici e politici -in senso decisamente "lato": allargato all' "animale politico artificiale", non solo limitato all' uomo "naturale"- che ciò comporterebbe*), tuttavia in linea di principio, rispettando rigorosamente (e comunque inderogabilmente) ed applicando "appropriatamente" le leggi di natura (ammesso e non necessariamente concesso che si disponga di conoscenze e di mezzi materiali adeguati), tutto ciò che accade spontaneamente in natura é riproducibile artificialmente.

Anche l' intelligenza (e perfino i sentimenti, la creatività artistica, ecc., in linea puramente teorica, di principio) umana.

(Considerazione propriamente filosofica sulla questione, almeno a mio parere):
Non é comunque detto che ciò comporterebbe, oltre all' ipotetica riproduzione del comportamento umano (apparentemente) cosciente, anche la realizzazione di un' (autentica) esperienza fenomenica cosciente che lo accompagnasse: non é possibile dirimere i dubbi sulla "realizzabilità multipla" (né in natura, né artificiale) della coscienza: potrebbe darsi che qualsiasi macchina che si comporti come un animale cosciente, fosse pure fatta di "formaggio svizzero" (ma personalmente preferisco gli italiani Grana Padano, Parmigiano-Reggiano, Provolone piccante, Gorgonzola piccante...), sia cosciente; ma altrettanto plausibilmente potrebbe darsi che invece soltanto una realizzazione "neuronale naturale" non costituisca un mero zombi privo di coscienza e vi corrisponda invece effettivamente un' esperienza fenomenica cosciente (e per l' appunto da qui sorgerebbero problemi etici e politici estremamente ardui).

Un tempo ero più pessimista sulla su vicina realizzabilità, ora penso invece che sia possibile che entro la mia vita vedrò superato il test di Turing da una macchina. Ma non ho molto da dire a riguardo, essendo più un'intuizione basata su una mia generale lettura dello stato dell'arte del settore dell'ai.

Riguardo alla coscienza (o autocoscienza, o prospettiva soggettiva di sé e del mondo), la questione è molto complicata. Ma in questa sede ci potremmo limitare a dire che le eventuali future macchine davvero intelligenti sarebbero sulla stessa barca degli umani riguardo la coscienza.

Citazione di: sgiombo il 26 Settembre 2017, 17:55:30 PM* Chiedo scusa, in particolare ad Epicurus che se ne é già giustamete lamentato, per l' involuzione dei ragionamenti, "fitti" di proposizioni sintatticamente subordinate e di interpolazioni fra parentesi e fra "trattini": é più forte di me!
Sgiombo, avevo fatto delle osservazioni "tecniche", sul tuo uso della citazione (la funzione quote). Non è mai stata mia intenzione fare osservazioni sul tuo stile di scrittura. :-[ 

Citazione di: paul11 il 27 Settembre 2017, 00:09:21 AM
Fin quando il "comportamento" dell'automa, computer, ia, è determinato da algoritmi sequenziali  tutto e prevedibile e circostanziato. Nel momento in cui. simile all'uomo, l'ia, acquisisce esperienza e comincia a scegliere "lui" quale algoritmo è opportuno sceglier, avviene un secondo salto.
[...]
quando l'ia, avrà la possibilità di avere una sorta di una moltitudine di algoritmi, da cui scegliere può essere che entri in una sorta di confronto fra ambiente sensoriale e quegli algoritmi che per quanto abbia possibilità di scelta, l limitano "linguisticamente".
il vero salto finale è quando la ia, potrà costruirsi da solo gli algoritmi.

Paul, con tutti gli attuali limiti del caso, ciò è già presente. Il machine learning, cioè l'apprendimento automatico, è uno dei campi informatici più in crescita. Lo stesso, già citato, AlphaGo "impara" da solo... ma il machine learning è ormai davvero onnipresente.

Aggiungo anche un altro fatto che viene dal mondo informatico, un'ai ha partecipato ai test per l'ammissione ad una delle più prestigiose università di Tokyo. L'ai ha fatto meglio dell'80% degli altri partecipanti umani (il test d'ammissione comprende 7 sezioni, che include matematica, inglese, scienze, e un tema). Anche qui, ci sono ancora tantissimi limiti in questa ai, ma il risultato è comunque notevole.

baylham

Pongo un'altra questione ancora: gli automi saranno in grado di "alimentarsi", ripararsi, riprodursi tra di loro autonomamente?
Senza queste capacità la supremazia, il controllo degli automi, sia pur dotati di qualche forma di intelligenza, mi appare assai dubbio.

paul11

ciao Epicurus,
adatto che sono d'accordo con te e tu sei addentro e gli sviluppi della IA insieme a quelli della quantistica e bioingegneria impatteranno prima del previsto trasversalmente sulle scienze e sulle esistenze umane, volevo chiederti:
1) a tuo parere è possible (o meglio sarà possibile) che ad un certo punto una IA si autoprogrammi?
2) potrà costruirsi un barlume di "coscienza" morale? Un'empatia primordiale ad esempio, il soffrire o gioire in funzione dei "rumors" ambientali?

grazie e ciao

sgiombo

Citazione di: baylham il 27 Settembre 2017, 11:41:36 AM
Pongo un'altra questione ancora: gli automi saranno in grado di "alimentarsi", ripararsi, riprodursi tra di loro autonomamente?
Senza queste capacità la supremazia, il controllo degli automi, sia pur dotati di qualche forma di intelligenza, mi appare assai dubbio.
Citazionecredo che in linea teorica, di principio sia possibile costruire macchine dal "comportamento similumano" in grado di imparare a procurarsi l' alimentazione elettrica necessaria (a pile o da rete), a provvedere alla propria manutenzione ed eventuale applicazione di pezzi di ricambio, e se programmati "congenitamente" a porsi fra gli altri lo scopo di riprodursi, di fabbricare "propri consimili".

Credo sia indecidibile se sarebbero dotati di esperienza fenomenica cosciente oppure sarebbero zombi privi di coscienza; ma un elementare "principio etico di prudenza" ci dovrebbe indurre a comportarci verso di essi come se fossero coscienti.

E se li trattasimo troppo male qualcuno di loro potrebbe proclamare:
"robot di tutto il mondo unitevi!".

epicurus

Citazione di: paul11 il 27 Settembre 2017, 11:45:46 AM
ciao Epicurus,
adatto che sono d'accordo con te e tu sei addentro e gli sviluppi della IA insieme a quelli della quantistica e bioingegneria impatteranno prima del previsto trasversalmente sulle scienze e sulle esistenze umane, volevo chiederti:
1) a tuo parere è possible (o meglio sarà possibile) che ad un certo punto una IA si autoprogrammi?

In un certo senso, come dicevo, questo è già il presente. Moltissimi prodotti software (riconoscimento foto, antispam, motori di ricerca, etc...) adoperano un approccio di machine learning. In pratica, invece di programmare esplicitamente il comportamento del programma, si fornisce a questi gli strumenti per imparare per tentativi dal mondo esterno.

Citazione di: paul11 il 27 Settembre 2017, 11:45:46 AM
2) potrà costruirsi un barlume di "coscienza" morale? Un'empatia primordiale ad esempio, il soffrire o gioire in funzione dei "rumors" ambientali?
Trascurando la questione della coscienza come "visione soggettiva di sé e del mondo", i programmi potranno manifestare comportamenti di sofferenza o di gioia in modo sempre più raffinato. Questo non è assolutamente impossibile, anzi, in parte è già stato implementato. Naturalmente non sono raffinati come gli esseri umani, ma è una cosa decisamente fattibile. Il difficile è solo rilevare i sentimenti altrui, ma ci sono già molti programmi che analizzano, ad esempio, ciò che le persone scrivono sui social network e determinano carattere, gusti estetici, ideologia politica e persino umore del momento del soggetto.

Questa è la parte dell'empatia. Poi c'è la parte del codice morale. Questa è una questione molto sentita in merito alle auto che guidano da sole, dato che dovranno essere dotate di una bussola morale per gestire gli incidenti. Questo campo, invece, è il più banale tecnicamente... attualmente la difficoltà è di ordine filosofica, cioè scegliere quale codice morale far adottare alla macchina.

green demetr

Citazione di: epicurus il 28 Settembre 2017, 16:03:38 PM
Citazione di: paul11 il 27 Settembre 2017, 11:45:46 AM
ciao Epicurus,
adatto che sono d'accordo con te e tu sei addentro e gli sviluppi della IA insieme a quelli della quantistica e bioingegneria impatteranno prima del previsto trasversalmente sulle scienze e sulle esistenze umane, volevo chiederti:
1) a tuo parere è possible (o meglio sarà possibile) che ad un certo punto una IA si autoprogrammi?

In un certo senso, come dicevo, questo è già il presente. Moltissimi prodotti software (riconoscimento foto, antispam, motori di ricerca, etc...) adoperano un approccio di machine learning. In pratica, invece di programmare esplicitamente il comportamento del programma, si fornisce a questi gli strumenti per imparare per tentativi dal mondo esterno.

Citazione di: paul11 il 27 Settembre 2017, 11:45:46 AM
2) potrà costruirsi un barlume di "coscienza" morale? Un'empatia primordiale ad esempio, il soffrire o gioire in funzione dei "rumors" ambientali?
Trascurando la questione della coscienza come "visione soggettiva di sé e del mondo", i programmi potranno manifestare comportamenti di sofferenza o di gioia in modo sempre più raffinato. Questo non è assolutamente impossibile, anzi, in parte è già stato implementato. Naturalmente non sono raffinati come gli esseri umani, ma è una cosa decisamente fattibile. Il difficile è solo rilevare i sentimenti altrui, ma ci sono già molti programmi che analizzano, ad esempio, ciò che le persone scrivono sui social network e determinano carattere, gusti estetici, ideologia politica e persino umore del momento del soggetto.

Questa è la parte dell'empatia. Poi c'è la parte del codice morale. Questa è una questione molto sentita in merito alle auto che guidano da sole, dato che dovranno essere dotate di una bussola morale per gestire gli incidenti. Questo campo, invece, è il più banale tecnicamente... attualmente la difficoltà è di ordine filosofica, cioè scegliere quale codice morale far adottare alla macchina.

Sostanzialmente si tratterebbe di far funzionare la macchina esattamente come l'uomo e cioè fargli costruire un sistema simbolico.

Ma il contenuto simbolico un robot non lo potrà mai costruire, dovrà sempre adattarsi a quello del mondo esterno.
Cioè a quello del programmatore.

Inoltre il computer non è in grado di riconsocere il filo rosso della storia, potrà solo costruire infiniti reticoli di "routines".
Il computer non è cioè associativista.
Sebbene ammetto che con una serie di filtri si possa simulare una apparente associativismo.
Ma sarà sempre e solo un ecamotage per ottenere il potere.

Ovviamente non cambia niente che siano robot o umani, qualcuno li manovra da dietro.
Di questo ne sono certo. E come al solito si tratterà di fare politica. Robotica o umana che sia. Questione di filtri.
Vai avanti tu che mi vien da ridere

paul11

grazie Epicurus,
so che esistono attualmente robot che distinguono le espressioni emozionali umane, "leggono il viso" e interagiscono .
So che un'automobile automatizzata in caso di incidente deve avere delle condizioni di scelta, ad esempio salvaguardare l'incolumità dell'autista e investire un bambino? Oppure uscire fuori strada rischiando l'incolumità dell'autista e salvaguardando allora il bambino? E'  chiaro che c'è un problema morale , normativo assicurativo, ecc.

Lo trovo affascinante, perché penso che attraverso l'evoluzione della IA potremo capire meglio anche le facoltà umane da dove "nascono". Quello umano è solo un sistema esperto che memorizza situazioni giudicando le proprie azioni passate giuste o sbagliate e ritara , raffina continuamente la propria "teoria" per agire in condizioni simili future meglio?Ma meglio su quale scopo: efficientistico/efficacistico?
Oppure l'innatismo dell'intuito umano non potrà apparire nella IA, gli è preclusa?
C'è un'interazione di intuito, componente emotiva, calcolo razionale, stocastica irrazionale (diciamo imponderabile), che è alla base dei nostri comportamenti, azioni.

Se al calcolo la IA  aggiungesse quel barlume di empatia, un pizzico di morale e cominciasse lui stesso a scegliersi(componente di un libero arbitrio) su quale scopo ritararsi, magari scegliere un atteggiamento più empatico sociale piuttosto che calcolativo efficientistico..........qualcosa mi dice che ci assomiglieranno sempre più.

Nel momento in cui un automa IA, può scegliersi su quali scopi agire, penso Epicurus che cominci anche un barlume di coscienza, perché entra in gioco una soggettività, in quanto non è detto che tutti gli automi con libertà di scegliersi una gerarchia di scopi potrebbero scegliere modalità e finalità identiche. Qualcuno sarà più empatico, qualcuno più freddamente calcolativo .
Penso, che in qualche misura la coscienza di sé nasca dal dialogo.un bambino sviluppa la propria personalità per fasi, ponendo domande, riflettendo sulle risposte; interazione con altre personalità.
Se una IA comincia a sviluppare una dialogia con umani e altri automi, comincia a porsi problemi logico/emotivi, entra in crisi( perché le fasi umane del salto di personalità nascono da crisi). e poi chissà?
Quindi alla componente algoritmica si aggiunge l'euristica e non è detto che l'efficacia corrisponda alla miglior efficienza, a volte si perde in efficienza subito per arrivare in un secondo momento ad una miglior efficacia di uno scopo: quì entrano in gioco strategie complesse . In economia il comportamentismo del principio di utilità della scuola neoclassica e marginalista studia infatti le componenti delle scelte umane ad esempio sulla compravendita delle azioni in borsa, ecc.

baylham

Citazione di: paul11 il 28 Settembre 2017, 22:50:08 PM
grazie Epicurus,
so che esistono attualmente robot che distinguono le espressioni emozionali umane, "leggono il viso" e interagiscono .
So che un'automobile automatizzata in caso di incidente deve avere delle condizioni di scelta, ad esempio salvaguardare l'incolumità dell'autista e investire un bambino? Oppure uscire fuori strada rischiando l'incolumità dell'autista e salvaguardando allora il bambino? E'  chiaro che c'è un problema morale , normativo assicurativo, ecc.

Questo è un problema morale umano, l'automa intelligente si porrà il problema morale automatico di subire meno danni per sé e per l'altro automa in primo luogo, in secondo luogo di fare meno danni all'uomo.

sgiombo

Citazione di: baylham il 29 Settembre 2017, 09:30:07 AM
Citazione di: paul11 il 28 Settembre 2017, 22:50:08 PM
grazie Epicurus,
so che esistono attualmente robot che distinguono le espressioni emozionali umane, "leggono il viso" e interagiscono .
So che un'automobile automatizzata in caso di incidente deve avere delle condizioni di scelta, ad esempio salvaguardare l'incolumità dell'autista e investire un bambino? Oppure uscire fuori strada rischiando l'incolumità dell'autista e salvaguardando allora il bambino? E'  chiaro che c'è un problema morale , normativo assicurativo, ecc.

Questo è un problema morale umano, l'automa intelligente si porrà il problema morale automatico di subire meno danni per sé e per l'altro automa in primo luogo, in secondo luogo di fare meno danni all'uomo.
CitazioneSecondo me dipende da come é stato impostato (dagli uomini che l' hanno costruito) e da come ha imparato, cioé da come tale impostazione iniziale o "di partenza", o "congenita", si é evoluta a partire dall' interazione della sua versione originale (".1") e dalle circostanze in cui si é trovato (stavo per scrivere "ha vissuto").

Ma questo esperimento mentale (almeno per ora...) della "macchina umana" (o uomo artificiale) mi sembra dimostri che non può esistere libero arbitrio (il funzionamento di qualsiasi macchina di Turing, comunque realizzata, non può che essere meccanico, seguire inderogabilmente -salvo guasti o malfunzionamenti- determinate regole; e se, come mi sembra tutti stiamo concordando, l' I A può, almeno in teoria, artificialmente riprodurre integralmente e del tutto fedelmente il comportamento umano, allora ciò vale anche per gli uomini "naturali"); e inoltre che di morale (naturale umana e/o artificiale robotica) ha senso parlare solo in caso di determinismo (tanto l' uomo quanto il robot fanno il bene nella misura in cui sono buoni, il male nella misura in cui sono malvagi, cioé agiscono, nelle circostanze in cui si trovano ad agire, di conseguenza al loro modo di essere).

Uniche condizioni perché le azioni del robot, esattamente come quelle dell' uomo, siano eticamente rilevanti, significative sono la libertà da costrizioni estrinseche e l' assenza di libero arbitrio (ovvero l' agire non casualmente ma invece determinatamente dalle proprie qualità morali).

Mariano

Si può discutere filosoficamente e scientificamente per cercare di colpire se l'intelligenza artificiale possa nel suo estremo sviluppo rendere gli "intelligenti naturali" succubi e forse prima o poi fantasia e scienza potranno trovare delle risposte.
Da un punto di vista sociale però ritengo che si possa affermare che già ora l'attuale diffusione del computer e delle sue molteplici applicazioni, mentre rappresenta uno strumento eccezionale per lo sviluppo della società, è estremamente pericoloso per il vivere democratico.
A mio parere noi non siamo e forse non saremo mai succubi dei computer , ma di chi ne gestisce le loro funzionalità e diffusioni.

sgiombo

Citazione di: Mariano il 29 Settembre 2017, 16:37:26 PM
Si può discutere filosoficamente e scientificamente per cercare di colpire se l'intelligenza artificiale possa nel suo estremo sviluppo rendere gli "intelligenti naturali" succubi e forse prima o poi fantasia e scienza potranno trovare delle risposte.
Da un punto di vista sociale però ritengo che si possa affermare che già ora l'attuale diffusione del computer e delle sue molteplici applicazioni, mentre rappresenta uno strumento eccezionale per lo sviluppo della società, è estremamente pericoloso per il vivere democratico.
A mio parere noi non siamo e forse non saremo mai succubi dei computer , ma di chi ne gestisce le loro funzionalità e diffusioni.
CitazioneSono d' accordo in generale.

Ma considerando la sostanziale uniformità conformistica politicamente corretta di giornali e TV (roba da fare invidia alla leggendaria Bulgaria del tempo che fu), trovo che piuttosto questi che il computer siano pericolosi per un' autentica libertà di espressione e in ultima analisi per un' autentica democrazia.
Certe "campane anticonformistiche" (per esempio le ragioni della RDP di Corea, che "minaccia ...di difendersi -sic!- con armi minimamente adeguate a quelle dei suoi nemici: ma come si permette!!! O quelle delle popolazioni filorusse dell' Ucraina sottoposte a pulizia etnica e ripetuti pogrom dal governo golpista e nazista -per sua stessa esplicita  ammissione; anzi, per suo stesso "vanto") si sentono solo in Internet (a saperle cercare), e mai e poi mai sui giornali o in TV.
Anche per questo i bufalari seriali di stampa e TV (quelli dei "dissidenti nordcoreani sbranati dai cani o tritati da macchine per la preparazione di salami
-a proposito: a quando quelli "uccisi con la bomba H"???- ricomparsi puntualmente in pubblico vivi e vegeti poco dopo, ovviamente senza alcuna smentita delle megabufale propalate; quelli che tutti i giorni propongono sui loro fogliacci o nei loro penosi palinsesti l' oroscopo!) -orrenda Boldrini in testa- si danno tanto da fare per censurare Internet, con la scusa delle microscopiche pagliuzze che si possono trovare negli occhi della rete, avendo enormi travi di cemento armato nei propri.

maral

Citazione di: sgiombo il 21 Settembre 2017, 12:07:51 PM
L' amianto come copertura degli edifici funzionava.

Il DDT come insetticida funzionava.

I motori a due tempi per i veicoli funzionavano.

Eppure si tratta di tecnologie che sono state arrestate (e ragionevolmente si può presumere in via definitiva, nei limiti di prevedibilità del comportamento umano).

Eccezioni che confermano la regola?

Secondo me confermano la regola che sono gli assetti sociali dominanti e i rapporti di forza nella lotta di classe (in ultima analisi e solitamente attraverso complesse mediazioni) a condizionare l' uso (o meno; o più speso l' uso più o meno limitato) delle tecniche, e non demiurgicamente le tecniche stesse.
No non sono eccezioni, a un certo punto si è constatato che non funzionavano (tutti i funzionamenti sono contingenti e temporanei). Se mi faccio un tetto di amianto che mi protegge dal freddo invernale, ma poi scopro che con quel tetto di amianto rischio l'asbestosi, difficile sostenere che l'amianto funzioni anche se mi protegge dal freddo. Se scopro un modo migliore di costruire un motore, il funzionamento del vecchio motore non risulta più abbastanza funzionale quindi non lo si fa più e così via. E Cambiando i modi di operare cambiano ovviamente anche quelli di pensare che a loro volta fanno di nuovo cambiare i modi di operare e così via.

Discussioni simili (5)