Chat GPT: che sia l'inizio della fine?

Aperto da Aspirante Filosofo58, 10 Maggio 2023, 08:29:52 AM

Discussione precedente - Discussione successiva

iano

#30
Citazione di: Phil il 26 Luglio 2023, 11:12:45 AMPer me, anche che la tecnologia sia «parte di un soggetto» è una trappola linguistica, come quando si dice «lo sport è parte di me» o «il mio amato/a è parte di me»: in realtà loro sono parte rilevante della nostra routine esistenziale, dei nostri vissuti abituali, etc. non di noi in quanto soggetti, almeno in senso "forte", come identificazione ontologica. Anche quando, sopraggiunta la loro mancanza, si afferma «ho perso una parte di me», si sta continuando a parlare in modo metaforico, non ontologico (come spessissimo accade anche in filosofia, suscitando le "migliori" storpiature semantiche, che creano ipersoggetti, soggetti trascendentali e Leviatani con rispettive alienazioni in culti e contro-culti, come insegnato dai più antichi politeismi). La tecnologia, in quanto insieme di processi ed oggetti (in tutti i sensi) esterni, è parte di una «nuova ontologia», più "estesa", fatta anche, appunto, di oggetti digitali, programmazione per "oggetti" (dove l'oggetto non è più empirico), etc. e non è, secondo me, parte del soggetto, almeno finché (medicina invasiva a parte) non si parla di transumanesimo (e postumano), con la tecnologia che in quel caso diventa ontologicamente parte del soggetto, senza metafore e poesie, ma con penetrazione "carnale".
Il fumatore potrà sostenere che il suo accendino-portafortuna fa parte di lui, così come l'adolescente affermerà che lo smartphone fa parte di lui, ma sono "parti" così accessorie (ontologicamente), che non denotano quei soggetti in quanti tali, ma sono solo connotazioni contingenti (senza nulla togliere al forte legame psicologico, affettivo, etc. che un soggetto può instaurare con determinati oggetti). L'AI, anche in questo, non è "essenzialmente" nulla di nuovo, pur essendo sicuramente nuovi i problemi che pone, essendo nuova la sua capacità artificiale di simulare conversazioni sensate, produrre immagini ed oggetti digitali, etc.

Se riguardiamo il soggetto come unità funzionale, questa include certamente ciò che percepiamo come soggetto, col vantaggio inoltre di possederne una definizione operativa.
Possiamo veder allora l'aggiunta tecnologica come qualcosa che modifica la funzionalità, ma mantiene il soggetto.
Parlare di aggiunta però non ci aiuta a comprendere le cause del progresso tecnologico, laddove un aggiunta tecnologica di norma potenzia le nostre funzionalità, senza modificarle nella sostanza.
Quindi la tecnologia è da vedere più che come nuova parte, come evoluzione di una nostra parte.
Questa evoluzione ha molto a che fare con un incremento della coscienza.
Maggior coscienza ho di me, di quali siano le mie funzionalità, meglio posso esplicitarle, portandole fuori di me, ma non perchè escono fuori dal mio perimetro non sono più parte di me.
Dal punto di vista linguistico trovo fuorviante dire che ''la tecnologia ci solleva dalle nostre fatiche'', da cui poi il corollario che ''sollevandoci dalle nostre fatiche ci solleva dalle nostre funzioni e alla fine quindi ci solleva del tutto'' sostituendoci come soggetto.
Tutte queste storture linguistiche saranno inevitabili finché non si vada oltre la pura percezione del soggetto, e non se ne dia una definizione operativa, per cui si potrà sempre verificare cosa sia soggetto oppure no.
Allargheremo in tal modo la platea dei soggetti, ma non credo questo dovrebbe essere un problema, anzi.
La stessa umanità potrà riguardarsi come un soggetto, in quanto unità funzionale, e all'umanità secondo me si addice più l'AI come parte, che non al singolo uomo.
E' in effetti un supersoggetto quello che si prende carico dei dati di tutti i soggetti, agendo di conseguenza.
Eienstein: ''Dio non gioca a dadi''
Bohr: '' Non sei tu Albert, a dover dire a Dio cosa deve fare''
Iano: ''Perchè mai Dio dovrebbe essere interessato ai nostri giochi?''

Phil

Citazione di: niko il 26 Luglio 2023, 11:59:00 AMIo credo che questa possibilita' da parte delle macchine di SIMULARE la vita ci portera' a un futuro piu' o meno distopico, futuro che magari non vedranno nemmeno i nostri figli, ma forse i nostri nipoti, in cui gli umani dovranno riconoscere eticita' e diritti alle macchine perche' la simulazione telematica e bio- tecnologica della vita sara' cosi' perfetta da non poter piu' stabilire, in un dato contesto, chi sia l'umano e chi la macchina
Non so in futuro, ma per ora le macchine non simulano «la vita», ma solo alcuni aspetti relazionali e parcellizzati: comunicazione senza mittente, immagine senza autore, etc. considerando «autore», «mittente», etc. come "agenti" umani (con tutto ciò che tale denotazione comporta). Se un giorno si realizzerà il sogno bagnato di alcuni scienziati di creare un androide non distinguibile, almeno a prima vista, da un umano, resterà comunque facile, per motivi biologici (oltre che per le "risposte colte e pacate", prendendo in prestito la tua battuta), riuscire a distinguerlo al bisogno, ossia con una rapida analisi della sua fisicità, dal classico ago sul dito ad altri espedienti fisiologici meno invasivi, ma altrettanto efficaci (stringere un dito e vedere se arrossisce o simili). Tuttavia, per ora preferisco, con tutto il rispetto per il gusto di fare profezie, di lasciare la "fantascienza di Cassandra" (con un'AI che ha addirittura volontà, ambizioni, etc.) al suo posto, nella sconfinata dimensione dei mondo possibili.

P.s.
Citazione di: niko il 26 Luglio 2023, 11:59:00 AMnon solo si capira' intellettivamente, ma si dovra' proprio anche implementare eticamente, la verita' "eterna" secondo me soggiacente che una differenza assoluta tra vivente ed oggetto inorganico non esiste e non e' mai esistita.
«Implementare eticamente» l'assenza di «differenza assoluta» fra vivente ed oggetto inorganico, o ci porterebbe dove non proprio tutti vorrebbero arrivare (tu compreso, per quel che penso di aver capito leggendoti), oppure ci (ri)porterebbe a quella "differenza relativa" che fonda l'etica dalla notte dei tempi e ora si accresce di ecologismo (rimettendo così sulla testa all'Uomo la coroncina di "custode del Giardino"; coroncina palesemente "relativa", a causa della non assolutezza della suddetta differenza... ma non diciamoglielo, altrimenti ci rimane male e si deprime diventando "nichilista").

niko

#32
Prima cosa,

* io credo che una vita futuribile si svolgerebbe in spazi futuribili, in cui i test che immaggini tu adesso per riconoscere un androide, potrebbero non essere possibili da eseguire come test.

Per fare un esempio facile, immaggina un ambiente virtuale, come un videogioco, o anche un semplice scambio di lettere o messaggi tra due soggetti che per un certo tempo non si incontrano fisicamente e usano queste lettere come unico loro mezzo di interazione: noi uomini di oggi passiamo gia' un sacco di tempo davanti ai videogiochi o ai software di messaggistica, figurati i nostri nipoti, quanto potrebbero passare.

La simulazione della vita, spesso non e' biotecnologica ma telematica: ora, tu non puoi fare il "test del pollice per sgamare gli androidi" con uno con cui ti stai massaggiando in rete, o almeno non puoi farlo per un po', cosi' come potresti non poterlo fare efficacemente in un videogioco, in cui sia la tua proiezione virtuale nel videogioco, il personaggio che manovri tu, sia tutti gli altri personaggi che incontri, sarebbero tutte proiezioni  virtuali e create da una macchina, la quale pero' potrebbe benissimo anche avere il potere di rendere gli esseri e i personaggi fisicamente inesistenti e puramente creati e gestiti da essa stessa come macchina all'interno del gioco (le "comparse"), in tutto e per tutto identici a quelli gestiti da altri giocatori connessi ("gli attori"): in una situazione del genere, se fai  "il test del pollice" o qualcosa di simile al fine di sgamare gli "androidi" della situazione, ovvero le comparse, la macchina ti ingannerebbe facendoti sembrare tutti "umani" e nessuno "androide", in altre parole tutti "attori" e nessuna "comparsa", se fosse programmata per farlo; e il punto e' che, nel farlo, essa ti starebbe ingannando con mezzi puramente telematici, non bio-tecnologici, dato che si tratterebbe pur sempre di un gioco e di una simulazione. In pratica il suo aggiungere ogni tanto personaggi realistici non connessi e non manovrati da umani a quelli connessi e manovrati da umani, sarebbe nient'altro che una "simulazione nella simulazione".

Capisci il punto? Noi crediamo di poter facilmente distinguere gli androidi dai viventi perche' facciamo una vita "primitiva", rispetto a quella che faranno i nostri figli e nipoti.

Loro saranno sempre piu' implicati in ambienti virtuali e in comunicazioni a distanza, in cui non li pitranno distinguere, o magari li potranno distinguere una volta su mille, e solo quando sara' troppo tardi rispetto a una qualche interazione dalle conseguenze pratiche ed esistenziali irreversibili ormai gia' avuta con loro, o peggio, con un altro essere umano a buone ragioni scambiato per un "androide" nel contesto, quasi sempre virtuale, in cui lo si e' incontrato.

L'etica non entra in gioco solo quando e' implicata la violenza fisica o l'omicidio, (situazioni che comportano la modifica violenta dei corpi) ma anche quando e' implicato il rispetto dei sentimenti propri e altrui in una relazione di amicizia o di amore, o lo scambio di segreti importanti per coloro che li detengono e la decisione di se condividerli o no, banalmente spesso codici per accedere a denaro, e mille altre cose e situazioni che potrebbero avvenire con poco o nullo coinvolgimento corporeo, soprattutto inizialmente.

La simulazione della vita cosi' perfetta da essere indistinguibile potrebbe comparire molto prima di quanto pensiamo, ed essere molto meno "fantascientifica" di quanto pensiamo, favorita da contesti in cui l'oggetto e il mezzo dell' "inganno" sarebbe virtuale e telematico, e non propriamente bio-tecnologico, contesti in cui ci troveremo a vivere sempre di piu'.

* secondo punto,

Noi NON possiamo provare esteriormente e agli altri il "nostro senso interno", la sensazione in se' che ci da' la vita e la conseguente certezza intangibile che abbiano di essere vivi: noi accediamo in modo immediato a questa certezza per noi stessi, ma la deduciamo per quanto riguarda gli altri in un modo esteriore e pratico, che in linea teorica potrebbe benissimo essere simulato da una macchina, e allo stesso modo gli altri si accertano della realta' della nostra vita mediante output comportamentali e sensoriali che noi mandiamo loro, e che potrebbero benissimo, in linea di principio essere simulati da una macchina.

Conseguenza: il senso interno della vita non puo' fondare l'etica o il diritto, noi saremo obbligati a concedere il beneficio del dubbio a tutto cio' che "potrebbe essere vivo" oltre una certa soglia di dimostrazione che esso da' di esserlo, e a trattarlo proprio come se fosse vivo, quantomeno perche', a parti invertite, noi vorremmo sempre che un altro soggetto in una identica situazione, umano o di intelligenza artificiale che sia, facesse altrettanto con noi.

Come non vorrei incontrare qualcuno che mi uccidesse come un cane per strada perche'

"potrei essere un androide"

Situazione estrema e fantascientifica, cosi', allo stesso modo, in maniera meno tragica ma non meno reale,  non vorrei mai incontrare qualcuno che mi mancasse di rispetto e mi facesse soffrire psicologicamente in qualche modo in una situazione di inizio di una storia di amore, o anche solo di sesso, a distanza e iniziata per messaggistica, o anche solo in un videogioco su cui passo qualche ora per rilassarmi, perche'

" potrei essere un androide".

Questi sono i problemi realistici che pone l'intelligenza artificiale.



Ci hanno detto che potevamo scegliere tra la pace e il climatizzatore, non abbiamo ottenuto nessuno dei due.

Phil

Citazione di: niko il 27 Luglio 2023, 12:04:28 PMPer fare un esempio facile, immaggina un ambiente virtuale, come un videogioco, o anche un semplice scambio di lettere o messaggi tra due soggetti che per un certo tempo non si incontrano fisicamente e usano queste lettere come unico loro mezzo di interazione: noi uomini di oggi passiamo gia' un sacco di tempo davanti ai videogiochi o ai software di messaggistica, figurati i nostri nipoti, quanto potrebbero passare.

La simulazione della vita, spesso non e' biotecnologica ma telematica: ora, tu non puoi fare il "test del pollice per sgamare gli androidi" con uno con cui ti stai massaggiando in rete, o almeno non puoi farlo per un po', cosi' come potresti non poterlo fare efficacemente in un videogioco
[...]
L'etica non entra in gioco solo quando e' implicata la violenza fisica o l'omicidio, (situazioni che comportano la modifica violenta dei corpi) ma anche quando e' implicato il rispetto dei sentimenti propri e altrui in una relazione di amicizia o di amore, o lo scambio di segreti importanti per coloro che li detengono e la decisione di se condividerli o no, banalmente spesso codici per accedere a denaro, e mille altre cose e situazioni che potrebbero avvenire con poco o nullo coinvolgimento corporeo, soprattutto inizialmente.
Ho proposto l'improvvisato "test del dito" perché avevi parlato di decidere di vite umane (da distinguere da "impostori" androidi); se lo scenario è invece un videogioco di massa o un forum, l'importanza dell'identificazione cambia drasticamente (anche perché, magari sbaglio, bot-giocatori e bot-interlocutori credo già esistano e non hanno peso nelle sentenze di vita o di morte umana). Già oggi ci sono contesti in cui ricorrere all'impronta digitale è utile, ma per fortuna per scrivere su Logos non ci è stata chiesta è potrebbero essere tutti bot tranne te. Scherzi a parte, quando la scelta sarà importante, non ludica, la fisiologia umana difficilmente non potrà essere garante (non amo usare il futuro e fare profezie, ma qui lo faccio per seguire il tuo tendere al futuro), per manifeste questioni materiali, della possibilità di distinguere il sintetico-artificiale dal biologico.
Nei contesti più seri, la questione dell'autenticazione dell'identità umana è già affrontata (e molto agevolata) proprio grazie alla tecnologia, evitando che un umano si spacci troppo facilmente per un altro umano e tutelare l'identità dell'individuo (identità digitali, questioni monetarie, corsi online, etc.) sarà sempre (più) una priorità anche politica. Questo, di riflesso, comporterà inevitabilmente anche un ostacolo per (ipotetici) androidi dei loschi intenti (ma qui restiamo ancora nei mondi possibili, quindi qualunque discorso lascia il tempo che trova).
Per quanto riguarda le incertezze "etiche" delle relazioni:
Citazione di: niko il 27 Luglio 2023, 12:04:28 PMCome non vorrei incontrare qualcuno che mi uccidesse come un cane per strada perche'

"potrei essere un androide"

Situazione estrema e fantascientifica, cosi', allo stesso modo, in maniera meno tragica ma non meno reale,  non vorrei mai incontrare qualcuno che mi mancasse di rispetto e mi facesse soffrire psicologicamente in qualche modo in una situazione di inizio di una storia di amore, o anche solo di sesso, a distanza e iniziata per messaggistica, o anche solo in un videogioco su cui passo qualche ora per rilassarmi, perche'

" potrei essere un androide".

Questi sono i problemi realistici che pone l'intelligenza artificiale.
Non mi sembrano problemi etici, ma individualmente esistenziali o, ancor meno aulicamente, semplicemente cognitivi: una volta acclarato che, per questioni di vita e di morte, un'analisi biologica dà (e, suppongo, darà) responsi inequivocabili (dubito un giorno qualcuno "verrà ucciso come un cane perché sembra un androide"), per le altre questioni relazionali, se non verifichiamo adeguatamente che l'interlocutore sia umano, e ce ne innamoriamo o ci sentiamo colpiti dalle sue offese, non è questione di androidi infingardi, ma di umani ingenui e dalla "miccia emotiva corta" (due aspetti su cui conviene lavorare, se non si è disposti ad esplodere in continuazione). Detto diversamente: se si sa (e già oggi è ben noto) che le conversazioni possono essere simulate, le foto possono essere simulate, i video possono essere simulati, etc. fidarsi sull'onda di un'emozione (attrattiva o repulsiva) che una potenziale simulazione non sia tale, senza aver prove non simulabili in merito, è una leggerezza comportamentale, non una questione di etica. Obblighi di lavoro (o simili) a parte, non siamo costretti a chattare o videochiamare chi è lontano, anche se lo conosciamo; se scagliamo di farlo, è bene informarci su ciò che può accadere e cercare le giuste contromisure; così come non siamo costretti ad usare i social, ma conviene sapere che se lo facciamo possono hackerarci il profilo (e che qualcuno può far finta che sia stato così, invece non è vero; v. sopra). Anche perché va ricordato che dietro la simulazione, c'è sempre qualcuno che ha un motivo per metterla in scena, ed è sempre un umano (lasciando stare gli androidi dotati di volontà, di cui non si ha per ora minima traccia). Il cyber-bullismo, ad esempio, è sensato, nel suo essere deleterio, solo se si è certi che almeno il bullo esista e, soprattutto, le sue minacce siano reali; altrimenti si torna al problema della miccia e della "sveglia tecnologica" che deve suonare (specialmente fra i più giovani). Lo stesso dicasi per "troll da forum" e altri comportamenti automatizzabili e "bottizzabili": quando la conversazione non è più divertente e non è più nemmeno un esercizio di argomentazione o di pazienza, sta all'umano tagliare il dialogo; con chi è dall'altra parte non siamo certo in debito di tempo, umano o androide che sia. Ad esempio, se tu sia un forumista, ChatGPT, una scimmia che batte tasti a caso, Carlo Sini, o altro, nella nostra interlocuzione tale informazione non ha (per me) alcun valore: fintanto che mi dai spunti per riflettere e per chiarirmi (soprattutto in senso, appunto, riflessivo), faccio tranquillamente continuare la conversazione, senza congetturare chi o cosa tua sia veramente. So che può suonare male, ma non c'è etica nel mio dialogare con te: non è un dialogo sulla tua o mia vita, su ciò che ci "dobbiamo" l'un l'altro in quanto soggetti etici, etc. Prova del nove: se anche avessi il sospetto che tu sia un androide, non avrei scritto nulla di differente (e forse anche se ne avessi la certezza). Questo mi dà il diritto di offenderti o simili? Resta il fatto che ciò non è accaduto (e si ritorna al modo di gestire la miccia in una conversazione, etc.); anzi, forse se fossi qualcuno con tendenze offensive, vorrei ancor di più accertarmi che tu sia umano, prima di offenderti.
In fondo, come detto in precedenza, nella simulazione ciò che conta sono il messaggio (sensato, si spera) e il destinatario; e in alcuni ambiti incentrati sui feedback, una simulazione più estesa del previsto, secondo me, non è necessariamente un dramma (giochi online, forum, etc,). Per quanto riguarda l'etica, "gioco di società" tipico degli umani, nel suo nocciolo duro, credo si presti poco, come detto, a simulazioni i cui agenti che non siano verificabili nella loro umanità (nei suoi aspetti morbidi, offese o love story a distanza, può essere un utile terreno di allenamento per l'autocomprensione dei propri automatismi, prima che degli automatismi del bot o dell'umano che si ha di fronte).

Ipazia

#34
Anche l'etica è simulabile attraverso l'omologazione, ma essendo fondata su physis la simulazione è facilmente sgamabile scavando causalità e motivazioni. La fatica di essere "complottisti". Cum grano salis.

Sulle modalità concordo con phil. Se si scambiano idee, non necessariamente si finisce nel telegioco di ruolo, ma per non finirci bisogna attivare ben bene i propri neuroni e fiutare la falsità delle situazioni. Su questo l'I.A. nella sua duplicità di intelligenza e idiozia, alza evolutivamente il livello di gestione dell'intelligenza verso l'idiozia umane.
pacata posse omnia mente tueri (Lucrezio)
simplex sigillum veri

Phil

Citazione di: Ipazia il 28 Luglio 2023, 06:48:54 AMAnche l'etica è simulabile attraverso l'omologazione
Rapida nota di passaggio (sperando di non deviare il topic verso i massimi sistemi meta-fisici): l'etica non è simulabile tramite l'omologazione, poiché l'etica dell'omologato è comunque un'etica; salvo non riconoscerlo come soggetto etico (il che richiederebbe un'etica decisamente poco tollerante, per quanto non certo impossibile da formulare ed infatti ha già avuto il suo ruolo nella storia, recente e non, in Europa e non).
A dirla tutta, l'etica, o meglio, ogni etica mira solitamente proprio all'omologazione: il discorso unico, omo-logos, in cui tutti concordano su cosa è bene e cosa è male e, magari, si comportano tutti allo stesso modo seguendo il bene (u-topia, ma l'obiettivo solitamente è quello e, secondo me, conviene esserne coscienti, soprattutto nel confronto "verticale" con le altre etiche).

niko

#36
Citazione di: Phil il 27 Luglio 2023, 22:10:57 PMHo proposto l'improvvisato "test del dito" perché avevi parlato di decidere di vite umane (da distinguere da "impostori" androidi); se lo scenario è invece un videogioco di massa o un forum, l'importanza dell'identificazione cambia drasticamente (anche perché, magari sbaglio, bot-giocatori e bot-interlocutori credo già esistano e non hanno peso nelle sentenze di vita o di morte umana). Già oggi ci sono contesti in cui ricorrere all'impronta digitale è utile, ma per fortuna per scrivere su Logos non ci è stata chiesta è potrebbero essere tutti bot tranne te. Scherzi a parte, quando la scelta sarà importante, non ludica, la fisiologia umana difficilmente non potrà essere garante (non amo usare il futuro e fare profezie, ma qui lo faccio per seguire il tuo tendere al futuro), per manifeste questioni materiali, della possibilità di distinguere il sintetico-artificiale dal biologico.
Nei contesti più seri, la questione dell'autenticazione dell'identità umana è già affrontata (e molto agevolata) proprio grazie alla tecnologia, evitando che un umano si spacci troppo facilmente per un altro umano e tutelare l'identità dell'individuo (identità digitali, questioni monetarie, corsi online, etc.) sarà sempre (più) una priorità anche politica. Questo, di riflesso, comporterà inevitabilmente anche un ostacolo per (ipotetici) androidi dei loschi intenti (ma qui restiamo ancora nei mondi possibili, quindi qualunque discorso lascia il tempo che trova).
Per quanto riguarda le incertezze "etiche" delle relazioni:Non mi sembrano problemi etici, ma individualmente esistenziali o, ancor meno aulicamente, semplicemente cognitivi: una volta acclarato che, per questioni di vita e di morte, un'analisi biologica dà (e, suppongo, darà) responsi inequivocabili (dubito un giorno qualcuno "verrà ucciso come un cane perché sembra un androide"), per le altre questioni relazionali, se non verifichiamo adeguatamente che l'interlocutore sia umano, e ce ne innamoriamo o ci sentiamo colpiti dalle sue offese, non è questione di androidi infingardi, ma di umani ingenui e dalla "miccia emotiva corta" (due aspetti su cui conviene lavorare, se non si è disposti ad esplodere in continuazione). Detto diversamente: se si sa (e già oggi è ben noto) che le conversazioni possono essere simulate, le foto possono essere simulate, i video possono essere simulati, etc. fidarsi sull'onda di un'emozione (attrattiva o repulsiva) che una potenziale simulazione non sia tale, senza aver prove non simulabili in merito, è una leggerezza comportamentale, non una questione di etica. Obblighi di lavoro (o simili) a parte, non siamo costretti a chattare o videochiamare chi è lontano, anche se lo conosciamo; se scagliamo di farlo, è bene informarci su ciò che può accadere e cercare le giuste contromisure; così come non siamo costretti ad usare i social, ma conviene sapere che se lo facciamo possono hackerarci il profilo (e che qualcuno può far finta che sia stato così, invece non è vero; v. sopra). Anche perché va ricordato che dietro la simulazione, c'è sempre qualcuno che ha un motivo per metterla in scena, ed è sempre un umano (lasciando stare gli androidi dotati di volontà, di cui non si ha per ora minima traccia). Il cyber-bullismo, ad esempio, è sensato, nel suo essere deleterio, solo se si è certi che almeno il bullo esista e, soprattutto, le sue minacce siano reali; altrimenti si torna al problema della miccia e della "sveglia tecnologica" che deve suonare (specialmente fra i più giovani). Lo stesso dicasi per "troll da forum" e altri comportamenti automatizzabili e "bottizzabili": quando la conversazione non è più divertente e non è più nemmeno un esercizio di argomentazione o di pazienza, sta all'umano tagliare il dialogo; con chi è dall'altra parte non siamo certo in debito di tempo, umano o androide che sia. Ad esempio, se tu sia un forumista, ChatGPT, una scimmia che batte tasti a caso, Carlo Sini, o altro, nella nostra interlocuzione tale informazione non ha (per me) alcun valore: fintanto che mi dai spunti per riflettere e per chiarirmi (soprattutto in senso, appunto, riflessivo), faccio tranquillamente continuare la conversazione, senza congetturare chi o cosa tua sia veramente. So che può suonare male, ma non c'è etica nel mio dialogare con te: non è un dialogo sulla tua o mia vita, su ciò che ci "dobbiamo" l'un l'altro in quanto soggetti etici, etc. Prova del nove: se anche avessi il sospetto che tu sia un androide, non avrei scritto nulla di differente (e forse anche se ne avessi la certezza). Questo mi dà il diritto di offenderti o simili? Resta il fatto che ciò non è accaduto (e si ritorna al modo di gestire la miccia in una conversazione, etc.); anzi, forse se fossi qualcuno con tendenze offensive, vorrei ancor di più accertarmi che tu sia umano, prima di offenderti.
In fondo, come detto in precedenza, nella simulazione ciò che conta sono il messaggio (sensato, si spera) e il destinatario; e in alcuni ambiti incentrati sui feedback, una simulazione più estesa del previsto, secondo me, non è necessariamente un dramma (giochi online, forum, etc,). Per quanto riguarda l'etica, "gioco di società" tipico degli umani, nel suo nocciolo duro, credo si presti poco, come detto, a simulazioni i cui agenti che non siano verificabili nella loro umanità (nei suoi aspetti morbidi, offese o love story a distanza, può essere un utile terreno di allenamento per l'autocomprensione dei propri automatismi, prima che degli automatismi del bot o dell'umano che si ha di fronte).


Io credo che la conversazione sia sempre intrinsecamente etica.

C'e' eticita' nella comunicazione a distanza insita in una prassi tecnica millenaria come la scrittura, figuriamoci se non c'e' eticita' nel dialogare con chat gpt.

E soprattutto credo che noi costruiamo macchine e protesi bio-tecnologiche in generale, (e intendo tutto, anche l'aratro legato ai buoi cinquemila anni fa), al fine di fruire delle loro prestazioni superiori a quelle degli umani in certi campi, (il bue tante cose non le sa fare, ma in certi contesti specifici esso ara il campo meglio dell'uomo, per questo qualcuno si e' preso la briga di allevarlo e addestrarlo, e di costruire il giogo, e l'aratro, e il carro).

Se costruiamo macchine intelligenti e dialoganti, e' perche' consideriamo in linea di principio le LORO prestazioni, ovviamente solo in alcuni ambiti e settori, non pari, ma SUPERIORI a quelle degli umani.

Vogliamo intrattenerci con loro e non con degli umani. E apprendere da loro e non da degli umani.

Il che giustifica lo sforzo di costruirle.

Come il giogo per il bue.

Se avessi pensato di potermi arare altrettanto bene il campo da solo, quel giogo non lo avrei costruito, e quel bue non lo avrei allevato.

Ma se io voglio godere delle superiori capacita' di intrattenimento, dialogo, informazione, di una coscienza artificiale, devo trattarla come una coscienza (almeno originariamente) viva.

Altrimenti devierei dallo scopo implicito o esicito per cui l'ho costruita o per cui la uso, e, per non essere ingannato dalla "maschera" della vita simulata che io stesso ho creato, ingannerei me stesso in un altro senso, ovvero nel senso del rapporto teleologico tra fini e mezzi che mi portano a costruire o a utilizzare un dispositivo.

E tutto questo a differenza del bue. Che e' una coscienza, ma viene trattato cone un oggetto.

Se la simulazione artificiale della vita e' un "inganno" , nel momento in cui io, umano, costruisco volontariamente un simulatore, sono nella condizione in cui voglio essere ingannato.

Se non avessi voluto essere ingannato, non avrei costruito quella "coscienza' nella forma e con l'interfaccia di una coscienza.

Qui l'accesso alla fruizione, e finanche la teleologia della costruzione originaria e della fruizione, prevede l'eticita' della fruizione. E la prevede

"Che lo si voglia o no",

nel senso che lo si e' gia' voluto in passato in modo relativamente irreversibile, scegliendo di costruire certi dispositivi e di utilizzarli

Se io leggo Platone, in questo atto e in questo fatto non e' implicato solo il mio senso etico, ma anche quello di Platone. Anche se lui e' morto, o comunque distante, e non puo' adattarsi a me che sono vivo e lo leggo in maniera dinamica o "intelligente", come si adatterebbe una persona viva e compresente con cui parlassi.

Figurariamoci il mio senso etico e quello di chi ha programmato chat gpt, come sono entrambi implicati e presenti nel l'atto e nel fatto che io uso chat gpt.

Forse la principale differenza, e' che, nel caso "mostri" come chat gpt, di enorme complessita' e necessitanti di un lavoro di gruppo di tantissime persone per essere programmati, (nonche' tanto piu' nel caso di software in grado di apprendere e interagire con l'utente in base a quanto appreso) non si puo' piu' definire o indicare una singola volonta' umana che determina tutto il testo che il software produrra', nessuno lo sa come funzionera' quel software nel dettaglio di un singolo botta e risposta con un utente casuale che faccia una domanda casuale in un momento casuale, nemmeno chi l'ha programmato (o meglio, nemmeno uno dei tanti, che l'hanno programmato).

Mentre le opere di Platone le ha scritte Platone, ed egli si e' preso la responsabilita' di

"dire sempre la stessa cosa"

a coloro che lo avrebbero interrogato attraverso i secoli leggendo le sue opere, sapendo esattamente che cosa avrebbe detto parola per parola, sia pure ignorando quasi del tutto in quali per lui inimmagginabili contesti storici e geografici le sue parole sarebbero giunte.

In chat gpt, l'elemento "imprevedibile" nel comportamento del software, va epistemicamente considerato come un elemento "casule".

Ovviamente c'e' una causa o un insieme di cause se chat gpt risponde in un modo piuttosto che in un altro a una domanda, ma nell'ignoranza umanamente insondabile di quell'insieme di cause, e' come se rispondesse in parte "intelligentemente", alla domanda che riceve, in parte anche un po' "a caso".

E' quell' "a caso" che c'è lo fa apparire come se fosse "vivo", nel suo interagire con noi, aime' nel bene e nel male molto piu' vivo di Platone.

La nostra volonta' e' un caso, e' figlia del caso, la volonta' di tutti gli altri viventi che ci circondano pure, e' un caso; chat gpt non avra' la volonta' in senso forte, ma certo ha una marcata componente inponderabile, e quindi epistemicamente casuale, nelle risposte che da'.

Per questo puo' simulare di avere una volonta' significativa per noi e nella sua interazione con noi molto meglio del defunto Platone, che pure una umana volonta' che lo ha guidato a scrivere quello che ha scritto davvero ce l'aveva.


Ci hanno detto che potevamo scegliere tra la pace e il climatizzatore, non abbiamo ottenuto nessuno dei due.

Phil

Citazione di: niko il 28 Luglio 2023, 12:02:28 PMIo credo che la conversazione sia sempre intrinsecamente etica.

C'e' eticita' nella comunicazione a distanza insita in una prassi tecnica millenaria come la scrittura, figuriamoci se non c'e' eticita' nel dialogare con chat gpt.
Dipende molto da come intendi l'etica e la conversazione: è un rapporto etico conversazionale dare input ad un programma che produce output? Non è una domanda retorica, chiedo per comprendere; se mi dici che per te il rapporto etico c'è, mi va bene e non c'è nulla da "falsificare".

Citazione di: niko il 28 Luglio 2023, 12:02:28 PMMa se io voglio godere delle superiori capacita' di intrattenimento, dialogo, informazione, di una coscienza artificiale, devo trattarla come una coscienza (almeno originariamente) viva.
Su cosa si fonda quel «devo»? Perché devo trattare come «(almeno originariamente) viva» un'intelligenza artificiale (non la chiamerei affatto «coscienza») pur sapendo che è, appunto, artificiale e non viva? Perché devo fingere (inutilmente, ai fini della fruizione) che stia chattando con una forma di vita? Perché devo fingere che un motore di ricerca sia un bibliotecario o un navigatore sia un compagno di viaggio che sa la strada?

Citazione di: niko il 28 Luglio 2023, 12:02:28 PMSe la simulazione artificiale della vita e' un "inganno" , nel momento in cui io, umano, costruisco volontariamente un simulatore, sono nella condizione in cui voglio essere ingannato.

Se non avessi voluto essere ingannato, non avrei costruito quella "coscienza' nella forma e con l'interfaccia di una coscienza.
Non credo, infelici metafore a parte, che ChatGPT o l'AI ci siano proposte per essere credute come "forme di vita" (e si ritorna alla "leggerezza cognitiva" dell'utente). Se sono stati progettati esplicitamente per simulare, bisogna pur dare un senso a tale simulazione, che è come quando un prestigiatore ci dice «ora ti faccio vedere un trucco», e non «ora faccio qualcosa di magico». La differenza fra trucco e magia è quella fra simulazione della vita e fantomatica "produzione di forme di vita alternativa". Se crei un pupazzo con le tue mani, puoi anche affermare in pubblico che esso sia un essere vivente, ma non puoi convincere te stesso realmente di ciò, né puoi ritenerlo un soggetto etico come fosse un tuo simile (o sbaglio?).

Citazione di: niko il 28 Luglio 2023, 12:02:28 PMQui l'accesso alla fruizione, e finanche la teleologia della costruzione originaria e della fruizione, prevede l'eticita' della fruizione. E la prevede

"Che lo si voglia o no",

nel senso che lo si e' gia' voluto in passato in modo relativamente irreversibile, scegliendo di costruire certi dispositivi e di utilizzarli
Non colgo la prescrizione dell'eticità nel disporre di uno strumento dichiaratamente artificiale e volto alla simulazione. Come tu stesso osservi in seguito, ChatGPT non è un messaggio di un mittente, soprattutto alla luce del fatto che le sue risposte esulano dal controllo e prevedibilità dei suoi stessi creatori; siamo ben oltre la disseminazione semantica, l'invio di senso e l'autonomia del testo di cui parlano i postmoderni. L'unico tratto "umano" (o meglio, umanizzato dagli umani) di ChatGPT è la lingua con cui traduce le sue operazioni binarie. Possiamo accettare la sua simulazione e stare al gioco, ma non è impossibile (anzi...) mantenere coscienza (umana) del gioco, in quanto tale, a cui si sta giocando e, soprattutto, della non-umanità (e non eticità) di alcuni giocatori coinvolti (sarebbe un'etica a senso unico nei confronti di uno "pseudo-agente etico interattivo", ma non indulgerei troppo in "fanta-etica").

niko

#38
Citazione di: Phil il 28 Luglio 2023, 13:31:54 PMDipende molto da come intendi l'etica e la conversazione: è un rapporto etico conversazionale dare input ad un programma che produce output? Non è una domanda retorica, chiedo per comprendere; se mi dici che per te il rapporto etico c'è, mi va bene e non c'è nulla da "falsificare".
Su cosa si fonda quel «devo»? Perché devo trattare come «(almeno originariamente) viva» un'intelligenza artificiale (non la chiamerei affatto «coscienza») pur sapendo che è, appunto, artificiale e non viva? Perché devo fingere (inutilmente, ai fini della fruizione) che stia chattando con una forma di vita? Perché devo fingere che un motore di ricerca sia un bibliotecario o un navigatore sia un compagno di viaggio che sa la strada?
Non credo, infelici metafore a parte, che ChatGPT o l'AI ci siano proposte per essere credute come "forme di vita" (e si ritorna alla "leggerezza cognitiva" dell'utente). Se sono stati progettati esplicitamente per simulare, bisogna pur dare un senso a tale simulazione, che è come quando un prestigiatore ci dice «ora ti faccio vedere un trucco», e non «ora faccio qualcosa di magico». La differenza fra trucco e magia è quella fra simulazione della vita e fantomatica "produzione di forme di vita alternativa". Se crei un pupazzo con le tue mani, puoi anche affermare in pubblico che esso sia un essere vivente, ma non puoi convincere te stesso realmente di ciò, né puoi ritenerlo un soggetto etico come fosse un tuo simile (o sbaglio?).
Non colgo la prescrizione dell'eticità nel disporre di uno strumento dichiaratamente artificiale e volto alla simulazione. Come tu stesso osservi in seguito, ChatGPT non è un messaggio di un mittente, soprattutto alla luce del fatto che le sue risposte esulano dal controllo e prevedibilità dei suoi stessi creatori; siamo ben oltre la disseminazione semantica, l'invio di senso e l'autonomia del testo di cui parlano i postmoderni. L'unico tratto "umano" (o meglio, umanizzato dagli umani) di ChatGPT è la lingua con cui traduce le sue operazioni binarie. Possiamo accettare la sua simulazione e stare al gioco, ma non è impossibile (anzi...) mantenere coscienza (umana) del gioco, in quanto tale, a cui si sta giocando e, soprattutto, della non-umanità (e non eticità) di alcuni giocatori coinvolti (sarebbe un'etica a senso unico nei confronti di uno "pseudo-agente etico interattivo", ma non indulgerei troppo in "fanta-etica").


E' come se tu mi dicessi che, se costruisco un martello, poi e' una mia debolezza cognitiva se lo uso come un martello.

Forse avrei dimostrato di essere piu' intelligente se me lo fossi dato in fronte o lo avessi usato come ferma porte, ma e' cosi' che va' il mondo, di solito i martelli si usano come martelli.

Se io costruisco una macchina per apprendere e dialogare, poi ci devo dialogare e devo apprendere da essa.

Non esiste un modo predefinito standard per dialogare con un umano e un altro per dialogare con una macchina.

Esiste solo un modo per dialogare tra "umani" in senso lato, tra liberi esseri.

Io voglio sempre qualcosa quando dialogo con qualcuno.

E parto dal presupposto che questo qualcuno voglia qualcosa da me.

E' una domanda di amore, o se vogliamo di senso.

Per questo il dialogo non e' ricalcare un numero finito di diramazioni possibili standard ma corrisponde in modo sostanzialmente imprevedibile con il suo situazionale farsi.

La macchina simula la sua volonta' con la complessita', ovvero, come ti ho detto con una complessita' cosi' insondabile che si traduce in casualita'.

La casualita' e il libero arbitrio sono gemelli, perche' io avverto di essere libero quando non esiste una causa che mi determini in assoluto, o quando questa causa esiste ma la ignoro.

Il dado che tiro e' "libero" di fare 4 o 6, cosi' come io sono libero di mangiare la pasta o la pizza.

La liberta' di rispondere A o B a una data domanda.

In realta' non siamo liberi, nessuno dei due.

Se io costruisco un pupazzo, esprimo desiderio per il gioco, di cui la simulazione e' possibile elemento, e amore per almeno un certo concetto, o una certa parte, dell'umanita'.

Se mi stessero sul cavolo tutti gli esseri umani del mondo me compreso e/o se fossi una persona sempre seria e seriosa e priva di immaginazionee come quelli che sembra che hanno ingoiato una scopa, non costruire pupazzi.

Hai voglia a dire:

"il pupazzo e' un pupazzo, lo sanno tutti che e' un pupazzo".

Se io non credessi che esiste almeno la possibilita' teorica che qualcuno proietti identificazioni vitali e vitalistiche in quel pupazzo e lo scambi entro una certa misura per vivo, non lo costruirei.

Se non pensassi che c'e' impalpabilmente nel mondo una carenza esistenziale o estetica a cui quel pupazzo possa in qualche modo sopperire, facendo non solo come l'umano, ma meglio dell'umano, non lo costruire.

Magari per regalarlo a un bambino...

O per fondarci sopra una religione.




Ci hanno detto che potevamo scegliere tra la pace e il climatizzatore, non abbiamo ottenuto nessuno dei due.

Phil

Citazione di: niko il 28 Luglio 2023, 14:23:54 PME' come se tu mi dicessi che, se costruisco un martello, poi e' una mia debolezza cognitiva se lo uso come un martello.
Se costruisci un martello e affermi esplicitamente che è un martello, ma poi qualcuno lo usa come arma del delitto, non credo tu debba essere tacciato come venditore di armi. Detto fuor di metafora: sia l'AI che ChatGPT, da quel che so, non sono mai stati presentati come coscienze, forme di vita, etc. ma come chatbot, programmi, etc. se qualcuno li "eleva" a forme di coscienza o vita, il passo falso interpretativo è suo, non dell'AI né di chi la produce (se non leggo le istruzioni del frigorifero e lo uso come armadio, poi non dovrei lamentarmi con chi produce frigoriferi che le giacche ci entrano male).

Citazione di: niko il 28 Luglio 2023, 14:23:54 PMNon esiste un modo predefinito standard per dialogare con un umano e un altro per dialogare con una macchina.
Infatti con la macchina non stai dia-logando o di-alogando davvero, stai solo dando input e ricevendo output (come con una calcolatrice, scendendo molto di livello); sono input e output in forma testuale, ma non è obbligatorio farsi ingannare; anche perché, fino a prova contraria, nessuno sta cercando di farlo.

Citazione di: niko il 28 Luglio 2023, 14:23:54 PMSe io non credessi che esiste almeno la possibilita' teorica che qualcuno proietti identificazioni vitali e vitalistiche in quel pupazzo e lo scambi entro una certa misura per vivo, non lo costruirei.
Per essere coerente e stare al gioco, tuttavia, dovresti evitare allora di dire subito a tutti che è un pupazzo, e magari anche non far dire al pupazzo stesso che è tale (o no?).

Citazione di: niko il 28 Luglio 2023, 14:23:54 PMLa macchina simula la sua volonta' con la complessita', ovvero, come ti ho detto con una complessita' cosi' insondabile che si traduce in casualita'.
Nel dialogo con ChatGPT, non ho finora riscontrato traccia di volontà simulata né dissimulata; potresti chiederglielo... se poi ti fidi della risposta. Che "tramite la complessità si simuli la volontà" è un salto (il)logico che richiama ancora una volta la "leggerezza" dell'interprete: ciò che è molto complesso lo è perché ha una sua volontà? Forse è la "spiegazione" che in natura spinge(va) al panteismo o al panpsichismo, ma qui è ancor meno percorribile perché sappiamo già, anche solo dal nome (sempre senza leggere nemmeno le istruzioni per l'uso), che si tratta di artificialità (ossia linee di codice, etc.)

niko

#40
Citazione di: Phil il 28 Luglio 2023, 15:09:25 PMSe costruisci un martello e affermi esplicitamente che è un martello, ma poi qualcuno lo usa come arma del delitto, non credo tu debba essere tacciato come venditore di armi. Detto fuor di metafora: sia l'AI che ChatGPT, da quel che so, non sono mai stati presentati come coscienze, forme di vita, etc. ma come chatbot, programmi, etc. se qualcuno li "eleva" a forme di coscienza o vita, il passo falso interpretativo è suo, non dell'AI né di chi la produce (se non leggo le istruzioni del frigorifero e lo uso come armadio, poi non dovrei lamentarmi con chi produce frigoriferi che le giacche ci entrano male).
Infatti con la macchina non stai dia-logando o di-alogando davvero, stai solo dando input e ricevendo output (come con una calcolatrice, scendendo molto di livello); sono input e output in forma testuale, ma non è obbligatorio farsi ingannare; anche perché, fino a prova contraria, nessuno sta cercando di farlo.
Per essere coerente e stare al gioco, tuttavia, dovresti evitare allora di dire subito a tutti che è un pupazzo, e magari anche non far dire al pupazzo stesso che è tale (o no?).
Nel dialogo con ChatGPT, non ho finora riscontrato traccia di volontà simulata né dissimulata; potresti chiederglielo... se poi ti fidi della risposta. Che "tramite la complessità si simuli la volontà" è un salto (il)logico che richiama ancora una volta la "leggerezza" dell'interprete: ciò che è molto complesso lo è perché ha una sua volontà? Forse è la "spiegazione" che in natura spinge(va) al panteismo o al panpsichismo, ma qui è ancor meno percorribile perché sappiamo già, anche solo dal nome (sempre senza leggere nemmeno le istruzioni per l'uso), che si tratta di artificialità (ossia linee di codice, etc.)


E' troppo comodo, fare una macchina in cui il 99% dello sforzo profuso da chi l'ha fatta va nella direzione di simulare (e potenziare) l'uomo, e poi dire che essa non serve a simulare (e potenziare) l'uomo.
.
Ok, allora e' solo una wikipedia piu' intelligente e piu' facile da usare.

Ne riparleremo quando i medici da cui ci faremo curare avranno studiato su libri scritti da questa wikipedia o dai suoi successori ancora piu' potenti.

Il concetto e' che anche se non c'e' una umana possibilita' di CONOSCENZA a priori esatta riga per riga e parola per parola di tutto il testo che questo "mostro" e' in grado di produrre, c'e' pero' un'umana FEDE nel fatto che l'umanita' possa mediamente giovarsi e avvantaggiarsi di questo (in gran parte sconosciuto e non conoscibile) testo; che ne' uscira' migliore, avendolo a disposizione, di come sarebbe e resterebbe, se non lo avesse.

E' come commissionare un libro a qualcuno non sapendo cosa questo qualcuno scrivera' ma con la certezza che scrivera' qualcosa di buono e di utile.

Come un autore di cui avendo letto bei libri in passato, siamo certi che anche il prossimo che uscira', sara' bello.

La "personalita' " è la "volonta' " di questo qualcuno non sono nemmeno da dimostrare e da provare, derivano semicemente dalle speranze, pratiche, esistenziali e operative, e quindi indirettamente sempre anche etiche, che in "lui" sono riposte.

E' il transumanesimo.

Ci hanno detto che potevamo scegliere tra la pace e il climatizzatore, non abbiamo ottenuto nessuno dei due.

Phil

Citazione di: niko il 28 Luglio 2023, 16:16:58 PMLa "personalita' " è la "volonta' " di questo qualcuno non sono nemmeno da dimostrare e da provare, derivano semicemente dalle speranze, pratiche, esistenziali e operative, e quindi indirettamente sempre anche etiche, che in "lui" sono riposte.

E' il transumanesimo.
Resta cruciale, per il successo comunicativo fra umani (e non), non usare significati troppo "personalizzati": un sito a cui collegarsi o un programma per ottenere informazioni in forma dialogica non sono intesi solitamente come tasselli del «transumanesimo»; così come «personalità» e «volontà», per loro natura, non sono solitamente intese come infuse da «speranze, pratiche, esistenziali e operative, e quindi indirettamente sempre anche etiche». "Personalità" e "volontà" fra virgolette alte sono invece metafore, che richiedono dunque adeguata comprensione a prova di "leggerezze cognitive" (e fantomatici inganni che ne derivano).
Sin dalle sue schermate di benvenuto (con annessi moniti) ChatGPT è introdotta e spiegata in modo chiaro e onesto (usare per credere); fermo restando che, se non si leggono le istruzioni, le giacche staranno sempre "scomode" nel frigorifero.

Phil

Stando a un recente studio, per quanto ancora in discussione, sembra che anche ChatGPT abbia le sue curve di apprendimento e il suo miglioramento non sia lineare o "solo questione di tempo" come si potrebbe pensare (fonte).

niko

#43
Citazione di: Phil il 28 Luglio 2023, 17:06:33 PMResta cruciale, per il successo comunicativo fra umani (e non), non usare significati troppo "personalizzati": un sito a cui collegarsi o un programma per ottenere informazioni in forma dialogica non sono intesi solitamente come tasselli del «transumanesimo»; così come «personalità» e «volontà», per loro natura, non sono solitamente intese come infuse da «speranze, pratiche, esistenziali e operative, e quindi indirettamente sempre anche etiche». "Personalità" e "volontà" fra virgolette alte sono invece metafore, che richiedono dunque adeguata comprensione a prova di "leggerezze cognitive" (e fantomatici inganni che ne derivano).
Sin dalle sue schermate di benvenuto (con annessi moniti) ChatGPT è introdotta e spiegata in modo chiaro e onesto (usare per credere); fermo restando che, se non si leggono le istruzioni, le giacche staranno sempre "scomode" nel frigorifero.


Se mi dici che chat gpt non c'entra niente con il transumanesimo, mi dispiace ma non sei preparato sul concetto di transumanesimo, a prescindere dall'opinione, a questo punto, mi dispiace dirlo, non informata, che ne potresti avere.

In chat gpt riponiamo complessivamente, (come umanita') speranze pratiche, eudaimonistiche, cognitive e finanche estetiche, visto che essa si propone esplicitamente la finalita' di produrre testi belli, oltreche' utili.

Sono queste speranze, sostanzialmente speranze di automiglioramento, di tipo transumano, a portarci ad accettare, tendenzialmente acriticamente, la convenzione su cui chat gpt si fonda, per averne in cambio un vantaggio, di qualche tipo.

E questa convenzione prevede la simulazione, e il gioco del dialogo, della "personalita' " attribuita all'uno e all'altro, dei dialoganti.

Ma qui c'e' tanta gente convinta non solo della centralita', ma pure della solitudine, esistenziale cosmica dell'uomo in quanto homo sapiens.

Convinta che tale solitudine non sara' mai scalfita.

Perche' empirica.

Perche' ovvia.

Perche' fondata sulla filosofia dell'ovvio, e dei ristretti orizzonti.

E, in solitudine, non si puo' dialogare.

Peccato pero' che l'uomo esista da sempre sempre e solo oltre, tale malintesa e provincialotta solitudine.


Ci hanno detto che potevamo scegliere tra la pace e il climatizzatore, non abbiamo ottenuto nessuno dei due.

Phil

#44
Citazione di: niko il 29 Luglio 2023, 01:24:54 AMSe mi dici che chat gpt non c'entra niente con il transumanesimo, mi dispiace ma non sei preparato sul concetto di transumanesimo, a prescindere dall'opinione, a questo punto, mi dispiace dirlo, non informata, che ne potresti avere.

In chat gpt riponiamo complessivamente, (come umanita') speranze pratiche, eudaimonistiche, cognitive e finanche estetiche, visto che essa si propone esplicitamente la finalita' di produrre testi belli, oltreche' utili.
Correggimi pure se sbaglio, ma il transumanesimo non è tale perché chiede alla tecnologia di produrre qualcosa di "bello" o di facilitare i lavori umani, altrimenti anche una stampante a colori o la domotica sarebbero feticci transumanisti. Il transumanesimo è tale se viene meno la "distanza ontologica" fra uomo e tecnologia, non se la tecnologia si fa semplicemente più "potente", restando oggetto artificiale ben distinto separato dal soggetto umano, ossia non (ancora) transumano. Non mi pare sia meramente questione di riporre speranze nel machine learning, ma piuttosto di ibridare l'umano con il tecnologico, dove per «ibridare» si intendono nanotecnologie, chip sottopelle, supporti esterni per la coscienza, etc. e magari anche innovazioni sociali, ma non fare domande a un chatbot particolarmente dotato (che non mi risulti abbia «esplicitamente la finalita' di produrre testi belli»). Il «trans» sta nel transito verso una nuova forma di "essere umano", non semplicemente nell'essere spettatore di produzioni semantiche (gli output di ChatGPT) o nell'aver maggior comfort nelle proprie attività.
Forse ho solo un approccio poco "divulgativo" al transumanesimo; nel dubbio, questa è la pagina, sicuramente divulgativa, di wikipedia.

P.s.
Aggiungo anche il link al manifesto dei transumanisti italiani: http://www.transumanisti.it/1.asp?idPagina=3

Discussioni simili (5)