Menu principale

sull' etica

Aperto da sgiombo, 06 Ottobre 2017, 10:56:13 AM

Discussione precedente - Discussione successiva

Ipazia

Ribadisco: conviene fare quesiti etici più sensati. Tipo: vi è un naufragio. Sulle scialuppe: prima le donne e i bambini ? E se vi è una mano di fata della chirurgia salvavita maschio che famo ?

E' già più interessante, no ?!  8)

(Quesito già superato da quando fanno le navi che non naufragano più, esclusi i naufragi programmati dell'immigrazione clandestina, ma è tutto un altro discorso e poi il salvatore e sempre a portata di canotto, anche se qualche volta si sbagliano i calcoli della filiera)

Sulle macchine ritengo che la sicurezza vada garantita a priori e che sia questo il fondamento etico di una tecnoscienza a misura d'uomo e non di squalo. La self driving car nelle condizioni attuali non possiede tali requisiti. Il carrello lo lascio al bambino del video.
pacata posse omnia mente tueri (Lucrezio)
simplex sigillum veri

paul11

 A mio parere ha ragione Phil,
per quanto possa storcerci il naso, queste situazioni sono ormai reali e ci toccano da vicino, in futuro ancora di più.


Nel dilemma ferroviario se sacrificare uno o cinque persone, purtroppo tocca a quell'uno.
Ma lo complico io con un vecchio dilemma simile.
Se quella unica persona sul binario fosse un eminente scienziato che sta sperimentando il vaccino contro il coronavirus attuale? Sarebbe ancora sacrificabile rispetto alle altre cinque?
Mutando il peso specifico si entra ancora di più  in crisi.
D'altra parte come indennizzano le assicurazioni una persona morta per incidente stradale?
Non sono tutte eguali, dipende dal reddito, dall'età , dai carichi famigliari e se non erro il valore stimato non è suddiviso per il numero di famigliari, perché il dolore non  è suddividibile, quindi spetta indipendentemente dal numero dei famigliari.


Per quanto riguarda le automobile automatizzate, ricorderei che già i sistemi di compensazione sul differenziale, aumentano la tenuta di strada, ma un famoso pilota di motocicli in una gara mondiale, perse la vita perché la moto invece di uscire dalla carreggiata e scivolare fuori pista, rimase sulla carreggiata e così fu travolto da chi lo seguiva e purtroppo morì.
E' un caso eclatante forse, ma è per ricordare che già oggi  i sistemi sono sempre più "invasivi", nel bene o male.


Porrei prima una questione morale e poi etica, personalmente distinguo le due cosa.


La morale è del progettista del programma dell' automobile automatica.
Con quale criterio decide la sacrificabilità? Deve dare delle norme rigide innanzitutto in funzione del codice della strada. Il conducente di un tempo, ora diventerebbe un passeggero comune.
Questo crea problematiche giuridiche e assicurative non da poche sui termini delle responsabilità
da imputare in caso di danni.
Il passeggero ex conducente diventa sacrificabile o inviolabile?
L'ex conducente davanti ad uno scenario, magari avrebbe scelto di andare contro un muro o fare una manovra comunque alternativa,sicuramente con danni a cose piuttosto che a persone. E' una ipotesi dove il rischio lo prende l'automobile automatizzata che rischia un danno notevole e persino l'incolumità del suo passeggero.
Non so se è prevista in queste auto la possibilità di bypassare ai comandi manuali. Certo che se un evento è talmente improvviso, il tempo di reazione non permetterebbe nemmeno questa possibilità.


Quindi il problema morale a mio parere viene delegato al progettista del sistema che deve imputare scelte gerarchiche.
Il problema etico è dentro la dinamica dello scenario pratico che potrebbe aprirsi e non sarebbe facile per nessun passeggero ex conducente vedere passivamente lo spettacolo di un incidente mortale senza poterci fare nulla.

Phil

Citazione di: paul11 il 16 Marzo 2020, 19:38:55 PM
Ma lo complico io con un vecchio dilemma simile.
Se quella unica persona sul binario fosse un eminente scienziato che sta sperimentando il vaccino contro il coronavirus attuale? Sarebbe ancora sacrificabile rispetto alle altre cinque?
Mutando il peso specifico si entra ancora di più  in crisi.
La struttura dell'esperimento mentale si presta infatti a molte varianti (reperibili online o improvvisabili), tutte volte a capire con quali criteri diamo valore alle vite altrui e non solo: se la persona sul binario unico fossi io, urlerei a chi comanda la leva di deviare il treno sul mio binario (universalità della morale "5 > 1")? E se io fossi alla leva e la persona singola fosse la mia compagna/moglie/altro e i 5 fossero dottori a un passo dalla cura per il cancro (dilemma egoismo/filantropia)? E se la persona singola fosse una pensionata reduce dai lager e i 5 giovani nazisti (valore della vita rispetto all'età e all'accettabilità sociale)? E se il singolo fosse un neonato e i 5 fossero già condannati alla pena di morte (questione di pro o contro pena capitale)?
Lo stesso si potrebbe fare con l'uomo grasso sul ponte: e se fosse... ad libitum.
Citazione di: paul11 il 16 Marzo 2020, 19:38:55 PM
La morale è del progettista del programma dell' automobile automatica.
Con quale criterio decide la sacrificabilità? Deve dare delle norme rigide innanzitutto in funzione del codice della strada. Il conducente di un tempo, ora diventerebbe un passeggero comune.
[...] Il passeggero ex conducente diventa sacrificabile o inviolabile?
L'ex conducente davanti ad uno scenario, magari avrebbe scelto di andare contro un muro o fare una manovra comunque alternativa,sicuramente con danni a cose piuttosto che a persone. E' una ipotesi dove il rischio lo prende l'automobile automatizzata che rischia un danno notevole e persino l'incolumità del suo passeggero.
[...]

Quindi il problema morale a mio parere viene delegato al progettista del sistema che deve imputare scelte gerarchiche.
Credo che il progettista dovrà a sua volta attenersi al progetto dei "piani alti" che probabilmente si baseranno anche su ricerche demoscopiche come quelle che ho linkato in precedenza. Il secondo link del p.s. del primo messaggio presenta proprio le differenti casistiche in cui l'auto a guida autonoma (incapacitata a frenare efficacemente per guasti, distanza o altro) deve scegliere fra tutelare i propri passeggeri oppure chi attraversa la strada, distinguendo anche diverse tipologie di pedoni (per età, ruolo sociale, etc.) che attraversano con il verde oppure il rosso pedonale.
Per verificare i risultati delle nazioni intervistate, confrontandole fra loro e alla media globale, in termini di preferenze riscontrate (salvare di più alcune categorie rispetto ad altre) c'è questo link, anche se non mi pare ci sia il numero di votazioni per paese su cui è basato il risultato (che quindi è da prendere con la dovuta cautela), si sa solo che il minimo è stato di 101 votanti il massimo quasi 450.000.
Per i campanilisti che se lo stessero chiedendo, l'Italia ha dato risultati maggiormente simili alla Bulgaria e più divergenti rispetto alla Palestina (le nazioni sono confrontabili due alla volta), dimostrandosi fra le più attente a salvare vite umane (rispetto agli animali, ma non rispetto alla massima quantità possibile) e in particolare quella dei giovani.
Per risultati più dettagliati questo è il link.

Ipazia

#78
Citazione di: paul11 il 16 Marzo 2020, 19:38:55 PM
A mio parere ha ragione Phil,
per quanto possa storcerci il naso, queste situazioni sono ormai reali e ci toccano da vicino, in futuro ancora di più.

Mi stupisce che un ricercatore del nomos, archè, aretè,... si arrenda così incondizionatamente di fronte alla dittatura del mercato tecnoscientifico. Una relativista debole, ma eticista forte, come Ipazia crede vi siano ancora speranze alternative al getto della spugna.

Andando ad un esempio più contingente, la questione dei respiratori, io (pre)tendo ad una situazione in cui non sia il valore mercatistico del mezzo tecnoscientifico e dell'umano a determinare se salvare un vecchio o un giovane, ma la ippocratica valutazione virtuosa, secondo scienza e coscienza, se il vecchio sia giunto, per acciacchi e condizioni fisiche generali, al suo fine vita che trasformerebbe l'intubazione in un inutile e inumano accanimento terapeutico. Questione collegata alla buona morta vissuta congiuntamente dall'estinto e dai superstiti.

Le situazioni in cui si deve decidere chi sacrificare non possono essere fatalisticamente accettate come leggi di natura, qualora non lo siano, ma attivare una (pre)tensione verso situazioni in cui non si ripetano più. Situazioni che nella mia antica professione si definiscono come rischio zero. Il rischio zero è il santo graal virtuoso dell'universo antropologico qualora il valore vita umana diventi nomos, archè, aretè. Il che non è, ma si , secondo buona etologia relativista. Però vale la pena darlo, e la storia della civiltà umana si attorciglia intorno a questa funzione evolutiva ideale.

In tale funzione la self driving car diventa un orpello etico del tipo inviso a green (e pure a Ipazia), per cui la casserei di brutto e di fronte al primo morto ammazzato farei un gran casino. Lo stesso Asimov in io robot, ci ha messo in guardia dai rischi di delegare i comportamenti etici alle macchine. E ai loro programmatori. Rischi dovuti all'impossibilità logica di produrre un nomos-macchina senza coni d'ombra.
.
pacata posse omnia mente tueri (Lucrezio)
simplex sigillum veri

baylham

Citazione di: Ipazia il 17 Marzo 2020, 08:50:59 AM

Le situazioni in cui si deve decidere chi sacrificare non possono essere fatalisticamente accettate come leggi di natura, qualora non lo siano, ma attivare una (pre)tensione verso situazioni in cui non si ripetano più. Situazioni che nella mia antica professione si definiscono come rischio zero.
.

Ma l'etica è proprio questo, decidere chi e che cosa sacrificare.





paul11

#80
 @ ipazia

E' facile fare i "duri e puri"  o arroccarsi su torri  d'avorio e dire sentenze fingendo che non si vive, e la vita è anche rischio.
Non sono tipo di arrendermi e penso neanche tu, ma la vita è in qualche modo "sporcarsi le mani"
perché nessuno sa dirci quali eventi possono accaderci nella nostra esistenza di vivere in prima persona o di vederceli raccontare da chi li ha vissuti:questa è etica, è prassi che mette in discussione le stesse morali che permeano diverse culture e tradizioni.
Gli incroci di dati qualitativi ,il tipo di risposta, e quantitativi, il numero delle risposte scelte per tipo, su aree geografiche indicano che la cultura originaria entra in relazione con il nostro cognitivismo personale.
Mettiamoci allora nei panni di medici che devono fare fronte a questa epidemia. Devono fare scelte fra il numero enorme di casi che hanno necessità di respiratori e di sale di rianimazione, con il loro stesso numero di personale medico e infermieristico non sufficiente, con il numero insufficiente di posti e di macchinari:cosa fanno? Devono fare scelte in base a patologie croniche, età, ecc.? Oppure seguono la coda, chi prima arriva, indipendentemente dai dati anagrafici e patologie pregresse, sarà accudito?
Devono necessariamente fare scelte.Anche tirare una moneta con testa o croce è una scelta.
E i parenti del contagiato? Divisi in quarantena senza nessun contatto mentre il contagiato "sparisce" nei numeri degli ospedali senza relazione affettive con i parenti.
Non è facile per nessuno.


Filosoficamente mi interessa perché vengono applicate diverse teorie: da quella dei giochi per le scelte e decisioni, da quella cognitivista  che con le neuroscienze  è  elemento base della filosofia della mente; filosofia morale, come principi ed etica come comportamento pratico e la loro relazione morale-etica che a volte è contrastante.


Non ci piove che qualunque sistema dovrebbe essere sicuro. Ma attenzione nemmeno una centrale nucleare è sicurissima, nemmeno i dati della CIA sono perfettamente e certamente sicuri.
Si possono testare per cercare di dare sicurezze il più alto possibile, ma poi scappa prima o poi  l'evento anomalo. Non esiste il rischio zero, ci si può avvicinare il più possibile semmai.
Ed è proprio accettando il concetto di rischio ,dato dalle casistiche, che si intraprendono  ragionamenti di abbassamento del rischio, pensiamo ad esempio sui luoghi di lavoro.
Senza rischi non sarebbero mai nate le assicurazioni e nessuno si assicurerebbe.


Con automobili a guida "manuale" esistono eventi mortali? Attenzione che molti processi industriali
di automazione hanno tolto l'errore umano e hanno tolto di conseguenza posti di lavoro.
Potrebbe essere che se la casistica delle automobili automatizzate completamente, sappiano comportarsi meglio dei conducenti a guida manuale che oltre ad imperizia,potrebbero aver alcool ,droghe, medicinali che abbassano i tempi di reazione,ecc..


La macchina da sola non ha morale né etica. Qualche umano  lo ha deciso e inserito nel suo sistema dei codici. O si pensa  che i tribunali e assicurazioni convochino la macchina?
Quando dico che i livelli di responsabilità saranno decisivi, vengono indicate le responsabilità in dirigenti che hanno procure da parte della proprietà ,se è un azienda privata che vende l'automobile.
Infatti mi chiedevo quanto e se è responsabile un ex conducente che ora di fatto guarda il panorama dall'auto, cambierebbe lo statuto da responsabile del mezzo a passivo passeggero ai fini legali e anche assicurativi?
La parte giuridica è sempre in qualche modo relazionata alla morale ed etica, anche se agisce prevalentemente sugli effetti, quando avviene un danno ,un dolo.

Phil

Citazione di: paul11 il 17 Marzo 2020, 11:54:37 AM
La parte giuridica è sempre in qualche modo relazionata alla morale ed etica, anche se agisce prevalentemente sugli effetti, quando avviene un danno ,un dolo.
Il tema giuridico in cui convergono dolo e intermediazione tecnologica è tanto più intricato quanto più tale intermediazione aumenta: i dispositivi informatico-tecnologici agiscono sempre più, tuttavia non sono giuridicamente responsabili delle loro azioni; se l'auto a guida autonoma uccide per un glitch o un generico problema tecnico, abbiamo un morto senza assassino, probabilmente classificabile come decesso accidentale. Chiaramente se tale problema tecnico sia stato causato con dolo dissimulato da qualcuno o sia autenticamente accidentale è questione di perizia tecnica.

Una vera "rivoluzione" in atto (questa sì filosofica e non solo) è per me proprio quella che propone un apparato tecnologico, o meglio, il software che lo comanda, come autonomamente agente in situazioni dal possibile risvolto etico; il che non significa ovviamente che il macchinario diventi soggetto etico, ma che la sua programmazione (finché è fatta da uomini) contempla scenari etici e "comandamenti" etici rigidi, con il dispositivo che va quindi impostato secondo paradigmi che non risultano solo esecutivi-performativi ma anche, "progettualmente etici". La scelta di tali "comandamenti" mette l'etica (o meglio, concedetemelo, le etiche) con le spalle al muro, senza troppe possibilità di attesa/proroga (il galoppo tecnologico non aspetta il pensoso trotterellare delle teoresi filosofiche) e con la necessità di limitare o almeno mitigare le divergenze culturali (salvo diversificare tali software a seconda della nazione di impiego). Non c'è più solo la situazione in cui un uomo può usare eticamente o meno un dispositivo (ad esempio una penna, per scrivere o per conficcarla nel cuore di una vittima), ovvero un oggetto di per sé eticamente neutro. Nel momento in cui un programma esegue comandi con possibili ricadute etiche (filtrare i curricula dei candidati per un posto di lavoro, guidare un'auto in situazioni critiche di "scelta omicida", dare una valutazione numerica agli avvenimenti biografici come nel caso del sistema di "credito sociale" cinese, etc.), tale programma non può, a differenza di un giudicante/giudice umano (quindi nel bene e nel male), contemplare la deroga, la revisione o la sospensione dei comandi/comandamenti etici su cui è impostato (comandi che possono comprendere una lista chiusa di casi speciali, quindi comunque preimpostati), rendendo l'esecuzione di tali "principi etici", con annesse ripercussioni, impeccabilmente e inderogabilmente conformi a quanto ordinato dai dettami (prestabiliti dal programmatore che a sua volta li ha ricevuti da chi ha commissionato il programma).

Detto altrimenti, sta emergendo sempre più la differenza fra dispositivi che non hanno scelta, come il distributore di bevande che eroga ciò che gli viene chiesto secondo una procedura, e dispositivi che compiono delle "scelte" algoritmiche (metaforicamente "etiche") preimpostate, come l'auto che, ad esempio, decide di preservare il suo passeggero dall'urto con un grosso oggetto imprevisto che occupa la carreggiata, "decidendo" di travolgere una persona sul marciapiede (se così è stata programmata l'auto). Sotto il "cofano" di tali apparenti scelte c'è, ma potrei sbagliarmi, una programmazione logica basata principalmente sul meccanismo «se... allora... altrimenti...» (usando operatori come «if», «elif», «else», «try», «except», «finally», etc.), quindi ciò che appare esternamente come una "scelta" del programma, in verità è l'applicazione di una diramazione del tipo se/allora, già preventivata (sicuramente nei casi più complessi di machine learning il gioco non è così semplice, salvo intendere tale «learning» come l'acquisizione/elaborazione di ulteriori scritture condizionali se/allora).

Da notare per inciso che il convitato di pietra è sempre la "potente delicatezza" dell'informatica: una volta implementata una gestione informatica dello sterzo, dell'accelerazione, etc. dal self driving al remote control via hacking, a pensar male (come diceva un saggio), il passo è breve... questa è una scena smaccatamente hollywoodiana, con tutti i "machismi" tipicamente made in Usa, comunque, al netto dell'apocalisse di metallo e circuiti, credo renda l'idea (scusate la poca raffinatezza della fonte cinematografica, ma citare «il carretto fantasma» di Ingmar Bergman non mi sembrava troppo a tema, pur trattandosi, a suo modo, sempre di "guida non umana" in cui l'uomo è mero passeggero).

green demetr

Citazione di: Phil il 16 Marzo 2020, 15:49:41 PM

Citazione di: green demetr il 16 Marzo 2020, 13:51:04 PM
Ma non capisci che questi test sono finalizzati ad aumentare e a suffragare una volta (anche qui spero di non viverlo) inocultati nel pensiero comune, la dimensione antagonista, gerarchica e cinica, che già contraddistingue questo mondo?
Più che «aumentare e suffragare» direi «riflettere su ed allenarsi ad affrontare» ciò che già è nel mondo (piaccia o meno, quello è un altro discorso).
Sono esperimenti mentali che spesso generano repulsione proprio perché chiamano in causa i fondamenti della nostra etica (e sappiamo come il trattare esplicitamente i fondamenti in filosofia costituisca il "tabù dell'apodittico"): che «uccidere è sbagliato» è un motto banale e universalmente accettato (con le dovute postille, secondo alcuni, ma non divaghiamo), quindi è ovvio che in generale è meglio fermare il carrello senza far vittime... tuttavia, se proprio non è possibile? Questo è ciò che chiede l'esperimento. E non ci piace perché ci costringe a declinare la nostra etica fuori dalla zona di comfort del condiviso «uccidere è sbagliato», chiedendoci di farci carico di una responsabilità etica tanto rilevante quanto inquisitoria (ed è per condividere la bruta sfida di questo "input inquietante" che ho postato i link, non perché mi interessi fare una casistica di risposte fra i forumisti o perché ritenga tali esperimenti dei capolavori del pensiero filosofico).


Ti sbagli, infatti questo quesito è stato già affrontato in campo giuridicio e risolto a favore dell'essere umano, la macchina ha libertà di decidere fin quando non vi sia la scelta che comprenda rendere vittima una vita umana, in qual caso le case automobilistiche (nel caso a cui mi riferisco, ma equivalentemente ad altri ambiti cibernetici) devono lasciare la possibilità all'uomo di decidere.


In realtà gli esperimenti continuano sulle direzioni da te data alla discussione, proprio perchè siete dei robot.


In campo bio-etico, è sempre un soggetto giuridico a scegliere.


Il punto dunque non è affatto reale, ma piuttosto immaginario, per creare un ulteriore depensamento del reale.


Dovuto (se non per le solito motivazioni padrone-schiavo,per quelle ideologiche, frutto del fantasma immaginario prodotto


(fantasmatica) dal fantasma (fantasia) paranoico dell'uomo che non vive, dell'uomo robot. Mi permetto di insitere.





Vai avanti tu che mi vien da ridere

green demetr

Citazione di: paul11 il 17 Marzo 2020, 11:54:37 AM
@ ipazia

E' facile fare i "duri e puri"  o arroccarsi su torri  d'avorio e dire sentenze fingendo che non si vive, e la vita è anche rischio.
Non sono tipo di arrendermi e penso neanche tu, ma la vita è in qualche modo "sporcarsi le mani"
perché nessuno sa dirci quali eventi possono accaderci nella nostra esistenza di vivere in prima persona o di vederceli raccontare da chi li ha vissuti:questa è etica, è prassi che mette in discussione le stesse morali che permeano diverse culture e tradizioni.
Gli incroci di dati qualitativi ,il tipo di risposta, e quantitativi, il numero delle risposte scelte per tipo, su aree geografiche indicano che la cultura originaria entra in relazione con il nostro cognitivismo personale.
Mettiamoci allora nei panni di medici che devono fare fronte a questa epidemia. Devono fare scelte fra il numero enorme di casi che hanno necessità di respiratori e di sale di rianimazione, con il loro stesso numero di personale medico e infermieristico non sufficiente, con il numero insufficiente di posti e di macchinari:cosa fanno? Devono fare scelte in base a patologie croniche, età, ecc.? Oppure seguono la coda, chi prima arriva, indipendentemente dai dati anagrafici e patologie pregresse, sarà accudito?
Devono necessariamente fare scelte.Anche tirare una moneta con testa o croce è una scelta.
E i parenti del contagiato? Divisi in quarantena senza nessun contatto mentre il contagiato "sparisce" nei numeri degli ospedali senza relazione affettive con i parenti.
Non è facile per nessuno.


Filosoficamente mi interessa perché vengono applicate diverse teorie: da quella dei giochi per le scelte e decisioni, da quella cognitivista  che con le neuroscienze  è  elemento base della filosofia della mente; filosofia morale, come principi ed etica come comportamento pratico e la loro relazione morale-etica che a volte è contrastante.


Non ci piove che qualunque sistema dovrebbe essere sicuro. Ma attenzione nemmeno una centrale nucleare è sicurissima, nemmeno i dati della CIA sono perfettamente e certamente sicuri.
Si possono testare per cercare di dare sicurezze il più alto possibile, ma poi scappa prima o poi  l'evento anomalo. Non esiste il rischio zero, ci si può avvicinare il più possibile semmai.
Ed è proprio accettando il concetto di rischio ,dato dalle casistiche, che si intraprendono  ragionamenti di abbassamento del rischio, pensiamo ad esempio sui luoghi di lavoro.
Senza rischi non sarebbero mai nate le assicurazioni e nessuno si assicurerebbe.


Con automobili a guida "manuale" esistono eventi mortali? Attenzione che molti processi industriali
di automazione hanno tolto l'errore umano e hanno tolto di conseguenza posti di lavoro.
Potrebbe essere che se la casistica delle automobili automatizzate completamente, sappiano comportarsi meglio dei conducenti a guida manuale che oltre ad imperizia,potrebbero aver alcool ,droghe, medicinali che abbassano i tempi di reazione,ecc..


La macchina da sola non ha morale né etica. Qualche umano  lo ha deciso e inserito nel suo sistema dei codici. O si pensa  che i tribunali e assicurazioni convochino la macchina?
Quando dico che i livelli di responsabilità saranno decisivi, vengono indicate le responsabilità in dirigenti che hanno procure da parte della proprietà ,se è un azienda privata che vende l'automobile.
Infatti mi chiedevo quanto e se è responsabile un ex conducente che ora di fatto guarda il panorama dall'auto, cambierebbe lo statuto da responsabile del mezzo a passivo passeggero ai fini legali e anche assicurativi?
La parte giuridica è sempre in qualche modo relazionata alla morale ed etica, anche se agisce prevalentemente sugli effetti, quando avviene un danno ,un dolo.


Permettimi di rimanere basito anche a me, oltre che Ipazia.


Il ricercatore dell'archè che difende le posizioni mentaliste?


Che dimentica che la realtà è dominata dai processi capitalisti, che la giurisdizione si basa sul diritto romana della persona.


Ti dovresti chiedere invece come le domande della sociologia avanzata, siano frutto di sovvenzioni di privati, con ben altri interessi sia dall'etica, che dal mentalismo.(entrambe ridicolaggini del fare filosofia tra l'altro).


Le relazioni sono determinate dalle sovrastrutture, è semplicemente la mente che può essere hackerata.


Ma ormai anche le scienze sociali cominciano a non essere più interessanti, il futuro del controllo e del gerarchico ormai ha puntato dritto alla funzioni biologiche del mentale.




Questo è il reale, non quello segnalato dal (pur ottimo su altri fronti) Phil.

Vai avanti tu che mi vien da ridere

Phil

@green demetr

Non so se hai avuto la pazienza di leggere il mio ultimo lungo post; comunque provo a sintetizzare:
- non è la macchina a decidere, anche se così appare esteriormente, perché essa agisce secondo programmi scritti e decisi da umani (e l'apprendere delle AI mi pare ancora troppo formalizzato, troppo poco interpretante e plastico per essere paragonato ad una acerba ragione umana); per cui non si tratta di paventare che la giurisprudenza si applichi anche alle macchine in quanto "soggetti" giuridici; il piano è infatti etico molto più che giuridico

- la questione è realmente etica nel momento in cui il programmatore, o chi per lui, deve impartire ordini alla macchina in caso di situazione etica critica: l'auto, per voce di chi la progetta o chi la userà, "chiede" «cosa devo fare se c'è un ostacolo dietro una curva e secondo i miei calcoli non posso fermarmi in tempo, ma posso percorrere una traiettoria che salvaguarda il mio passeggero, uccidendo però un altro umano sul marciapiede?». A questo quesito etico, a differenza di ogni guidatore umano, il programmatore deve impostare adesso una risposta (la programmazione è l'a priori dell'AI), che determini il comportamento dell'auto in quell'eventualità. Si tratta di una necessità di programmazione reale e non procrastinabile, a cui seguiranno eventualmente conseguenze non solo reali, ma persino vitali.
Si può poi sperare che le auto a guida autonoma non vengano mai usate; eppure, intanto, vengono di fatto sperimentate e programmate, per cui la questione posta non mi pare irreale o fantasiosa (inoltre, come già detto, mette l'etica con le spalle al muro, per cui è filosoficamente più cogente, per me, di quella dell'archè o altre)

- l'uomo si sta "robotizzando" dall'invenzione della stampa a caratteri mobili di Gutemberg; adesso le macchine non si stanno affatto umanizzando (secondo me), ma diventa sempre più evidente che con l'aumentare della potenza tecnologica aumenta anche la radicalità delle questioni, soprattutto etiche, che vengono sollevate dalla tecnologia (aggiornamento del tema della technè già in risalto nel '900). Certamente c'è una connessione fra tecnologia e mercato; la principale è che il tempo per riflettere su queste problematiche è sempre poco perché è il mercato (fatto da uomini) a non aver pazienza (lui è al galoppo mentre la filosofia trotterella, dicevo). Se la riflessione filosofica vuole direzionare l'"agire etico" di tali dispositivi (in cui siamo sempre più immersi, fino all'abitarci dentro, v. IoT etc.), deve cercare di stare al passo con i loro stadi di prevendita, perché modifiche successive possono essere tardive o allungare ulteriormente i loro tempi di applicazione (ad altre questioni filosofiche, magari con minor impatto nelle vite umane, sono consentiti dalla prassi sociale tempi più lunghi).

paul11

@Phil


Non so se un bravo avvocato in caso di omicidio stradale che in Italia mi sembra possa diventare più penalmente perseguibile di un omicidio colposo non arrivi a quasi ad essere un omicidio preterintenzionale : proprio perché l'automobile ha compiuto scelte logiche e le compie"freddamente".
Il problema diventerebbe che il proprietario dell'automobile non è direttamente conducente, non è lui che compie manovre sullo sterzo o compie scelte, diventa spettatore in certo qual modo.
Non è più così direttamente responsabile quanto un'automobile "manuale".


Non è che le filosofie debbano per forza adattarsi alle tecnologie, se sono buone filosofie le prevengono.
Una risposta potrebbe essere data da  un netto rifiuto a creare morali-etiche fuori dall'agente umano e dentro un organo meccanico: e hanno delle buone ragioni.
Un'altra potrebbe dire che i principi paradigmatici inseriti in algoritmi potrebbero non corrispondere allo scenario reale di scelte etiche dettato dall'evento.
Ribadisco un concetto molto importante anche dal punto di vista giurisprudenziale. La macchina ha una morale ed etica comportamentale"fredda", perfettamente logica senza attenuanti. Un umano ha adrenalina. La macchina penso sia più efficiente ed efficace dell'uomo, forse produrrebbe meno incidenti e meno vittime. Ma la responsabilità passa dall'uomo alla macchina e questo crea problemi filosofici, almeno a certe filosofie. Anche se ,ribadisco, è comunque un umano che costruisce priorità gerarchiche e le implementa programmandole nell'automobile.
Lo scenario dell'automobile automatizzata è possibile solo in USA e proprio per scelta giuridica.
In USA si può fare tutto, meno quello che è esplicitamente proibito. Non so in Europa, forse ci sarebbero problemi.


Sappiamo benissimo che l'informazione impalpabile eterica  viola le privacy, le policy, continuamente. I cookie da decenni ci sono e vengono utilizzati come base dati soprattutto dai marketing, ma anche da potenziali "spie". Il problema è l'uso che si fa dell'informazione. Quando firmiamo la policy di privacy ,non esenta da responsabilità coloro o colui agiscono sui nostri dati. Gli abbiamo solo dato la possibilità di procedere un iter che conviene anche a noi.
Ci sono infinite violazioni, come le telefonate ricevute dai call center per propagande: senza una nostra preventiva accettazione è violazione della privacy. Quasi nessuno denuncia il fatto, per non impegolarsi per così poco in problematiche giuridiche che costerebbero forse di più. Quindi vengono accettate silentemente aperte violazioni al diritto.


Comunque mi interessa la problematica perché filosoficamente continua il primato dell'economia sulla morale e la parte giuridica ,più che filosofica, sta a guardare. Il problema sono le legislazioni, non  le sentenze dei tribunali che faranno giurisprudenza.
Prima vengono immessi sul mercato dispositivi a regola d'arte accettati come standard.
Poi quando emergono problemi allora forse, ma sempre in ritardo, le legislazioni intervengono.
In mancanza di quadri normativi specifici i giudici devono attaccarsi alla legislazione vigente o ad altre sentenze simili passate già in giudicato e formante il corpus giurisprudenziale.


Ribadisco il problema filosofico morale c'entra fino ad un certo punto. Sono le pratiche che non vogliono spesso definire quadri legislativi chiari di riferimento.

green demetr

#86
Citazione di: Phil il 17 Marzo 2020, 18:24:35 PM
@green demetr

Non so se hai avuto la pazienza di leggere il mio ultimo lungo post; comunque provo a sintetizzare:
- non è la macchina a decidere, anche se così appare esteriormente, perché essa agisce secondo programmi scritti e decisi da umani (e l'apprendere delle AI mi pare ancora troppo formalizzato, troppo poco interpretante e plastico per essere paragonato ad una acerba ragione umana); per cui non si tratta di paventare che la giurisprudenza si applichi anche alle macchine in quanto "soggetti" giuridici; il piano è infatti etico molto più che giuridico

- la questione è realmente etica nel momento in cui il programmatore, o chi per lui, deve impartire ordini alla macchina in caso di situazione etica critica: l'auto, per voce di chi la progetta o chi la userà, "chiede" «cosa devo fare se c'è un ostacolo dietro una curva e secondo i miei calcoli non posso fermarmi in tempo, ma posso percorrere una traiettoria che salvaguarda il mio passeggero, uccidendo però un altro umano sul marciapiede?». A questo quesito etico, a differenza di ogni guidatore umano, il programmatore deve impostare adesso una risposta (la programmazione è l'a priori dell'AI), che determini il comportamento dell'auto in quell'eventualità. Si tratta di una necessità di programmazione reale e non procrastinabile, a cui seguiranno eventualmente conseguenze non solo reali, ma persino vitali.
Si può poi sperare che le auto a guida autonoma non vengano mai usate; eppure, intanto, vengono di fatto sperimentate e programmate, per cui la questione posta non mi pare irreale o fantasiosa (inoltre, come già detto, mette l'etica con le spalle al muro, per cui è filosoficamente più cogente, per me, di quella dell'archè o altre)

- l'uomo si sta "robotizzando" dall'invenzione della stampa a caratteri mobili di Gutemberg; adesso le macchine non si stanno affatto umanizzando (secondo me), ma diventa sempre più evidente che con l'aumentare della potenza tecnologica aumenta anche la radicalità delle questioni, soprattutto etiche, che vengono sollevate dalla tecnologia (aggiornamento del tema della technè già in risalto nel '900). Certamente c'è una connessione fra tecnologia e mercato; la principale è che il tempo per riflettere su queste problematiche è sempre poco perché è il mercato (fatto da uomini) a non aver pazienza (lui è al galoppo mentre la filosofia trotterella, dicevo). Se la riflessione filosofica vuole direzionare l'"agire etico" di tali dispositivi (in cui siamo sempre più immersi, fino all'abitarci dentro, v. IoT etc.), deve cercare di stare al passo con i loro stadi di prevendita, perché modifiche successive possono essere tardive o allungare ulteriormente i loro tempi di applicazione (ad altre questioni filosofiche, magari con minor impatto nelle vite umane, sono consentiti dalla prassi sociale tempi più lunghi).


Si ma questi quesiti etici, sono già stati affrontati ti ripeto.


Il giorno in cui tutte le auto saranno programmate nella ricezione della direzione dell'altra, sarà possibile attuare la macchina autoguidata, che sulle autostrade, ossia dove non è possibile il passaggio umano, darà un gran sollievo a chi deve ogni volta fare per esempio roma milano. Per ora no, al programmatore non è possibile sostituirsi alla scelta del guidatore.


e comunque sono obbligati a lasciare spazio al guidatore di intervenire.


Questo per dire, che la dimensione del robot che decide per noi è impossibile, fin quando siamo noi a deciderlo.
E noi viviamo in un sistema giuridico che si riferisce alle persone.


E' dunque una falsa problematica. Rientra nel catastrofismo che ormai è entrato appieno nel vocabolario della filosofia e che nel forum non abbiamo mai affrontato.
E' in sintesi una forma di controllo dell'ideologia.(sempre lì arriviamo)


Non dico che formalmente la questione non sia interessante, ma io ci vedo di più il lato manipolatorio.


E comunque appunto dipende dalla politica che uno decide di attuare. Non è che siccome vi è un comitato scientifico, quand'anco coadiuvato da altri staff (e di fatti solitamente è così) che non vi sia una politica che lo finanzia.






Sul rapporto fra filosofia e tecnologia o meglio fra filosofia e dispositivi, la questione si fa seria.


La filosofia non è forse anch'essa un dispositivo?


E' qui che a mio parere non ci siamo ancora capiti. E' ovvio che la filosofia è il dispositivo servo della tecnologia.(sempre secondo l'esempio le case automobiliste hanno chiesto anche ad un gruppo di consulenti laureati in filosofia. per quello che ne so siccome il filosofo non sa che dire, nelle università si sta aumentando la richiesta di adattamento alla situazioni, in cui di dovesse essere a quel tavolo, e per ora la filosofia è ancora a quel tavolo.Deve semplicemente inventarsi le sue storielle, seguendo l'umore, se sono intelligenti, del capo, penso che la bioetica sarà sempre più richiesta).


Alla politica non interessa la velocità del dispositivo gli interessa solo che funzioni.


Sono tutti falsi problemi dunque. Prima la filosofia si riappropri della sua dimensione originaria e poi si ricominci a chiedere della sua natura di dispotivo.


Altrimenti rimarrà così a lungo.

Vai avanti tu che mi vien da ridere

paul11

@green
Non cambia il mio personale modo di vedere la filosofia
Devo fingere che non c'è un coronavirus, che non c'è stata una Cernobyl, che non ci sono incidenti aerei, treni, automobili, eccetera ,eccetera? Devo fingere che non ci sono in vendita migliaia di dispositivi regolarmente sul mercato che possono spiarci?
Non sono contrario alla tecnologia, sono contrario alla tecnica in termini filosofico culturali.
Ed è inutile pensare che la cultura dominante fermi l'automazione.
Sono i vostri criteri di morale ed etica che dovrebbero forse essere meglio impiantati in una filosofia.
O  non vogliamo morali, ma facciamo i moralisti; accettiamo le etiche comportamentali ma poi diciamo implicitamente che c'è un bene e un male?
Allora con quale criterio si giudica la tecnica e la tecnologia?
Vogliono essere semplici considerazioni e riflessioni, non critiche .


Quando si parla di sovrastruttura, lo ribadisco per l'ennesima volta, è la cultura e anche la filosofia compartecipe e responsabile, di scelte e anche di omissioni. Siamo dentro una tradizione occidentale e oltre ai dispositivi meccanici vi sono dispositivi culturali.
Mi interessa capire anche le contraddizioni e dove queste ci porteranno: io vivo il mio tempo e anche se non abbiamo creato il coronavirus siamo reclusi agli "arresti domiciliari" per altrui responsabilità. Subiamo. E questo entra nel discorso filosfico. E' talmente lampante questa epidemia ,non voluta, non cercata, ma subita grazie ai globtrotter globalisti. Manager in ventiquattrore che delocalizzano e poi impestano. "Cornuti e 'mazziati" si diceva.


Ad esempio ,si diceva che il tecnico programmatore non ha colpe.
Così come gli scienziati non hanno colpe.
Così come i globtrotter spediti per contratto nei quattro angoli del globo dai loro datori di lavoro.


Ci accorgiamo che nessuno è responsabile? E questo è forse giusto? In un mondo che fa nebbia continuamente per nascondere i responsabili? Personalmente avverto sempre più  la sparizione del termine "responsabilità", basta vedere i politici globali occidentali che prendono decisioni sempre in ritardo pur sapendo che la pandemia è scientificamente spiegata dagli andamenti logaritmici: la politica è un colpo al cerchio e uno alla botte,ovvero sacrifichiamo morti senza fermare del tutto l'economia e senza far arrabbiare il popolo creando costrizioni, e mantenendo i livelli di spesa sanitaria straordinari dentro le compatibilità di bilancio. Noi ci siamo dentro tutti: nessuno escluso.
Ci vogliamo chiedere cosa significhi oggi nella globalizzazione e tecnologia AI cosa sono i livelli di responsabilità etici, morali, giuridici.?
Lo sappiamo che finito il coronavirus l'economia globale e in particolare italiana sarà con un cappio al collo, perché questa economia  specula anche sui morti come avvoltoii?

Ipazia

Citazione di: baylham il 17 Marzo 2020, 10:48:11 AM
Citazione di: Ipazia il 17 Marzo 2020, 08:50:59 AM

Le situazioni in cui si deve decidere chi sacrificare non possono essere fatalisticamente accettate come leggi di natura, qualora non lo siano...

Ma l'etica è proprio questo, decidere chi e che cosa sacrificare.

Sulla base di leggi naturali, non di artifici umani, nei quali l'etica deve trovare soluzioni che non sacrifichino nessuno, a partire dal bene assoluto incontrovertibile che è la vita umana, poi le altre forme di vita, le aspettative umane, il benessere, etc.

Sui valori di rango inferiore alla vita possiamo anche accettare algoritmi, se questi ovviano a peggiori comportamenti umani di giudizio, ma programmare la morte proprio non ci sta. Ed è il motivo per cui si dismetteranno le centrali nucleari e per cui si mettono al bando le sostanze riconosciute cancerogene.

Anche nel caso della locomozione la soluzione etica è l'uso di intelligenza artificiale per rendere più sicuro il mezzo, anche a prova di tossico, ubriaco o suicida, ma non certo programmandolo per uccidere.  Il mezzo di locomozione a guida automatica è possibile solo in contesti in cui non conviva con utenti "deboli".

Ogni soluzione che preveda un danno agli umani è non-etica, essendo che nessun umano, neppure un assassino, è disposto a recitare la parte della vittima.

È proprio tale asimmetria a stabilire il confine tra etica e non-etica.
pacata posse omnia mente tueri (Lucrezio)
simplex sigillum veri

baylham

Quando è in gioco la propria e l'altrui vita c'è il massimo dell'espressione morale, sorge il problema, il dilemma, che si accompagna al rischio, all'incertezza della scelta.
Essere in gioco significa proprio che qualcuno o qualcosa deve essere sacrificato, c'è un sacrificio, altrimenti non ci sarebbe alcun problema, alcuna morale.

L'ecologismo insegna che l'automobile, la sua produzione e uso, costituisce già a monte un problema morale in termini di risorse e inquinamento, ancora prima del problema degli incidenti, i quali sono già accettati, scontati moralmente. Basta pensare alla relazione negativa tra gravità probabile dell'incidente, i morti e feriti, e la velocità del veicolo, i cui limiti di velocità individuali e collettivi, legali, sono oscillanti e contrattati moralmente e politicamente.

Quindi se non c'è il conflitto tra valori, tra beni, non nasce il problema, non c'è la morale.

Discussioni simili (5)