Chat GPT: che sia l'inizio della fine?

Aperto da Aspirante Filosofo58, 10 Maggio 2023, 08:29:52 AM

Discussione precedente - Discussione successiva

Phil

Citazione di: Jacopus il 24 Luglio 2023, 15:37:00 PMPhil, l'hai aiutato troppo.
Il mio scopo non era banalmente metterla in difficoltà, ma vedere se riusciva ad improvvisare un senso da frasi non troppo note e che richiedevano un'interpretazione estemporanea, essendo una "sequenza di senso" poco consueta.
Come già evidenziato, per me non ha senso parlare di «intelligenza», piuttosto di «manipolazione semantica». Tuttavia, se la risposta che ti ha fornito l'AI (istantanea, scommetto) ti sembra deludente, prova a fare la stessa domanda ad un umano che reputi intelligente, chiedendogli semplicemente di rispondere, evitando commenti e meta-discorsi (del tipo «la richiesta non ha senso!», «il proverbio è incommentabile per quanto è assurdo» etc. lussi dialogici che l'AI non può permettersi con pari disinvoltura). Otterrai risposte più intelligenti e più sensate? Di certo, non da me (nel mio piccolo, dopo una trentina di secondi non c'ho tirato fuori nulla di sensato).
Certo, si può anche chiedere all'AI il senso di una supercazzola e poi notare come abbia cercato pateticamente di imbastire una risposta su vaghe assonanze o stralci di senso, tuttavia questo conferma proprio come l'AI sia votata al cercare di rispondere sempre, sensatamente e "a tema". Non è una persona che sa capire una presa in giro o un proverbio privo di senso (il che, di nuovo, sempre secondo me, rende inadeguato il termine intelligenza e il trattare l'AI con le stesse aspettative di un interlocutore umano). Un'AI che sa scherzare e riconoscere supercazzole non è la priorità commerciale di chi la sta gestendo, mentre noi concorriamo ad addestrarla (e qui si ritorna alla tecnica che da sempre è usata anzitutto per far risparmiare tempo, far guadagnare soldi e solo poi, eventualmente, far compagnia e battute di spirito... salvo anche questo diventi un business).

Jacopus

Il mio intento era proprio quello di distinguere quel tipo di intelligenza dell'AI dalla nostra. Se la procedura ed i risultati sono questi potremmo un po' arditamente definire l'intelligenza di chat Gtp una intelligenza autistica, un po' come quelle descritte da Oliver Sacks in "un antropologo su Marte". Ovvero un fiume di dati, ma senza la possibilità di inferirne un senso metaforico o paradossale o contro intuitivo o semplicemente scherzoso.
Il rischio è di avvalorare un modo di descrivere l'esistente che cancella ogni potenzialità successiva all'esistente al fine di poterlo modificare. Chat Gtp, in sostanza, come alleato naturale dello status quo, qualunque esso sia.
Homo sum, Humani nihil a me alienum puto.

bobmax

Ritengo che eventuali limiti e manchevolezze nella IA, rispetto alla supposta intelligenza umana, non dicano granché, se prima non si chiarisce la modalità con cui IA elabora.

Riscontrare che IA non fa questo o quell'altro, rispetto ad un umano (un umano oltretutto spesso idealizzato), può consolare. Ma sa un po' come quello che osservava: "Me ne ha date tante... ma gliene ho dette!"

L'IA elabora utilizzando una semplice funzione primitiva: l'induzione.
Potendo accedere ad una ormai sterminata mole di dati, l'IA ne valuta le relazioni e ne ricava un possibile senso.

La nostra intelligenza funziona tramite la medesima induzione?

Oppure vogliamo invece credere che noi siamo diversi? Che abbiamo un quid che prescinde dalla induzione? Perché in noi vi è "pura" deduzione?

In questo secondo caso dovremmo però dimostrare come è possibile questa deduzione sganciata dalla induzione.

Viceversa, dobbiamo accettare che non vi è in noi un meccanismo diverso nella nostra mente.
Perciò, potendo comunicare tra noi, soprattutto attraverso le corde locali, abbiamo potuto indurre significati sempre più coerenti con la realtà.
Queste induzioni sono poi state trasformate, arbitrariamente, in deduzioni.

La deduzione infatti non è che l'imporre una probabilità al 100% laddove la induzione non può farlo.

E non è questo che fa l'IA?
Tardi ti ho amata, bellezza tanto antica e tanto nuova, tardi ti ho amata. Tu eri con me, mentre io ero lontano da te.

Jacopus

#18
La nostra Bob, è una intelligenza anche fondata emotivamente. Da uno sguardo dato ad un amico o a una compagna o a un cane, un essere umano o il cane capiscono molte cose che non hanno neppure parole per essere espresse e che richiamano al senso della nostra finitudine, ai ricordi che si intrecciano nella storia delle persone e delle relazioni fra le persone. Poi c'è anche deduzione ed induzione ma l'intelligenza umana è anche altro, al punto che siamo in grado di ucciderci solo per vedere "l'effetto che fa". L'IA ha un altro livello di potenzialità in alcuni campi, rispetto ai quali non possiamo competere, ma il livello emotivo dell'intelligenza ancora non l'ha ottenuto e credo che sia propria lì che si forma il senso più autentico di homo sapiens.

Aggiungo: l'AI e tutto il complesso di attività che definiamo "informatica" può essere rappresentata come una estensione artificiale delle funzioni del nostro emisfero sinistro, specializzato in classificazione, induzione, deduzione, calcolo, manipolazione degli oggetti, giudizio sugli eventi e sulla loro individuazione e riproduzione, misurazione, o tornando indietro nel tempo "precisione nel lancio delle frecce". L'emisfero destro, ovvero, senso estetico, capacità di pensare al tutto piuttosto che al singolo, superamento di una visione parziale, capacità di sentire le ragioni degli altri anche se sono opposte alle nostre, capacità di pensare a noi anche senza di noi, possibilità potenziale di sacrificarci per un ideale, amare, ebbene, queste capacità possono essere solo simulate dall'AI, al momento. Un giorno forse, con sistemi che uniscono silicio e materiale biologico, forse potremmo superare questi limiti. Tutto è possibile. Non sono certo per i "bei tempi antichi".
Homo sum, Humani nihil a me alienum puto.

bobmax

Jacopus, che la nostra intelligenza sia anche emotiva, aggiunge qualcosa alla induzione?
Non è forse comunque induzione?

Se si risponde non è solo induzione, occorre poi dire cosa fa questa intelligenza emotiva che la induzione non faccia.

Tenendo fermo il concetto di induzione!
Senza lasciarsi trasportare da ciò che vorremmo...

Comunque la questione è la deduzione: è una facoltà a sé stante che prescinde dalla induzione?

Ritengo che dimostrare ciò sia impossibile. Perché non vero.

Di modo che...
Tardi ti ho amata, bellezza tanto antica e tanto nuova, tardi ti ho amata. Tu eri con me, mentre io ero lontano da te.

InVerno

Citazione di: Phil il 24 Luglio 2023, 11:43:08 AMCredo tu possa aver ragione nel sostenere che la ratio non sia semantica, perché, per quel nulla che vale un singolo caso improvvisato, quando gli ho chiesto come potevo essergli utile, l'AI ha dimostrato di non aver capito il senso della domanda. [....]
Avendo ascoltato, poche ma alcune, interviste con quelli che l'hanno prodotto, non sarei nemmeno sicuro che loro sanno su che ratio funziona, e hanno semplicemente accatastato discriminanti finchè il risultato era convincente.. considera comunque che i nostri software di autocompletamento sono piuttosto rudimentali, i cinesi che hanno una lingua molto più complessa da mettere su tastiera, riescono già da anni, al premere di pochi tasti a far intendere interi testi all'autocompletamento grazie ad algoritmi...statistici o semantici? Forse si, tertium datur, semanticostatistici, un campo che non conosciamo e che probabilmente nessuno realmente può conoscere perchè frutto di miliardi di calcoli tra diversi "agenti" che gestiscono gli "interessi" di vari cluster giocando a ping pong miliardi di volte. Questo aspetto è un altro preoccupante, l'aspetto "scatola nera", ovvero che è difficile se non impossibile decostruire un risultato nelle sue parti, che è un problema molto grave perchè inibisce l'identificazione e la verifica.

Riguardo ai problemi sociali che potrebbero scaturire, in realtà io parlo di ChatGPT in senso ampio, nel senso delle IA in generale, il problema è infatti la "collaborazione" di diversi algoritmi ristretti, come ad esempio i deepfake e altro, mettendole in collaborazione si possono produrre risultati particolarmente malevoli. Ricordo ad esempio che all'inizio della guerra era circolato un deepfake di Zelensky dove chiedeva alla sua popolazione di arrendersi, era fatto malissimo, quelli che ci erano cascati erano degli sprovveduti, ma tutt'ora circolano nei commenti dei video di Zelensky persone che se la sono "legata al dito" e ora dubitano di qualsiasi video in cui lo vedono. E questo è lo strascico di un video fatto male, pensa se fosse accaduto per davvero una sola volta. Io anche non voglio mettere tutte le uova della colpa sulla tecnologia e dimenticarmi dei suoi utenti, ma vedo che gli utenti generalmente hanno crasse difficoltà ad affrontare tecnologie più rudimentali, e a scuola ancora non si insegna niente a riguardo, incredibilmente, ed i nativi digitali sono solo superficialmente più capaci di usarli. E' un pò lo stesso discorso delle armi in america, certo il problema sta in chi le usa, ma se posso comprare un mitragliatore dal fruttivendolo il problema comincia a diventare la libera diffusione. Vedendo l'attuale situazione, dove l'unica opposizione alla diffusione di queste tecnologie sono degli autostoppisti galattici che si preoccupano che questa roba possa diventare cosciente ed esclamare "47!" sento che sia assolutamente necessario rappresentare un altro tipo di opposizione, che abbia criticismi più leciti ed interessanti, e che a mio avviso nascerà comunque tra pochissimo, perchè se le macchine da cucire han fatto il luddismo con la minuscola qui siamo certamente in procinto di vedere la nascita di quello con la L maiuscola.
Non ci si salva da un inferno, sposandone un altro. Ipazia

Phil

Citazione di: InVerno il 24 Luglio 2023, 18:07:27 PMVedendo l'attuale situazione, dove l'unica opposizione alla diffusione di queste tecnologie sono degli autostoppisti galattici che si preoccupano che questa roba possa diventare cosciente ed esclamare "47!" sento che sia assolutamente necessario rappresentare un altro tipo di opposizione, che abbia criticismi più leciti ed interessanti, e che a mio avviso nascerà comunque tra pochissimo, perchè se le macchine da cucire han fatto il luddismo con la minuscola qui siamo certamente in procinto di vedere la nascita di quello con la L maiuscola.
«Opposizione» è un altro di quei termini che mi suscita "a pelle" più diffidenza che interesse, perché so quanto facilmente possa diventare sinonimo di "partito preso", pur capendo bene che qui lo intendi nel suo senso più dialettico e costruttivo (e questo ChatGPT non l'avrebbe capito, quindi fra noi, cara AI, uno pari e palla al centro), ossia come senso critico che (si) interroga onestamente.
Per deep fake e dintorni, proprio come per le macchine da cucire, lo scacco mi pare di quelli da cui sembra non esserci via di uscita (zugzwang): come accennato, lo scenario più futuribile è quello in cui solo un'AI avrà una potenza di calcolo adeguata a decidere se dietro un testo o un'immagine c'è lo zampino di un'altra AI, con l'uomo tagliato fuori per limiti cognitivi e, soprattutto, di tempo (siam sempre lì). Già oggi a qualunque sparata infelice "firmata" su un social, il potente di turno (ma anche quello che sta ancora pagando lo smartphone a rate) potrebbe rispondere che non è farina del suo sacco, che gli hanno hackerato il profilo (e, nel caso del potente, magari trovare qualcuno, con o senza compenso, disposto a prendersi tale "merito tecnologico" pur non avendolo fatto) e che gli addetti provvederanno a rimuovere il post della vergogna e ripristinare la sicurezza dell'account. La fiducia dello spettatore/votante/seguace/curioso/etc., nei confronti di ciò che è mediato dalla rete (c'era una volta la tv, nel bene e nel male), rete che è quanto di meglio ci sia per far perdere le tracce della fonte originaria (anche senza scomodare dark web e simili nicchie), è sempre più un atto di fede, salvo voler dedicare un'enormità di tempo (sempre lui il colpevole), risorse e competenze (magari non ancora possedute), alla verifica di quanto circola (ammesso e non concesso che alla fine sia sempre possibile). Chiaramente questo è un lavoro che persino Tom Cruise delegherebbe al secchione di turno; che lo svolgerebbe ricorrendo ad un'AI; di cui bisogna poi scegliere se fidarsi o meno (e il cerchio si chiude). Proprio come nei migliori giochi, le mosse fatte non sono reversibili: ormai l'AI c'è, brandizzata o open source, gratis o a pagamento, e bandirla (ragionando per assurdo), la renderebbe solo più efficace per chi già la possiede o la sa sviluppare autonomamente (e parlo di "gruppi tecnici" o, più in grande, di multinazionali; non di stati). Ragolamentarla è il meno peggio che ormai si possa fare, pur sapendo, da italiani, che «fatta la legge...».
Passiamo ora la linea al nostro ospite; ChatGPT, cosa proponi, in dettaglio, per regolamentare l'uso dell'AI in modo da evitare che porti disinformazione, fake news o deep fake strumentalizzati e finisca con il destabilizzare le società che la utilizzano, indebolendo i rapporti di fiducia comunicativa che le costituiscono? Potresti fare qualche esempio concreto di regolamentazione?
«La regolamentazione dell'uso dell'IA per mitigare la disinformazione, le fake news e i deepfake è una sfida complessa, ma cruciale per mantenere la fiducia e la stabilità nelle società digitali. Di seguito, presento alcune proposte concrete di regolamentazione:

1- Trasparenza e responsabilità delle piattaforme: Le piattaforme online che utilizzano l'IA dovrebbero essere tenute a essere trasparenti riguardo al funzionamento dei loro algoritmi e a come gestiscono i contenuti. Dovrebbero essere responsabili per il contenuto che viene diffuso attraverso i loro servizi e impegnarsi a combattere la disinformazione e le fake news.

2 - Etichettatura dei contenuti generati dall'IA: I contenuti generati dall'IA, come i deepfake, dovrebbero essere chiaramente etichettati come tali per informare gli utenti sulla loro natura manipolata. Inoltre, dovrebbero essere adottate normative per il divieto dell'uso di deepfake a fini di manipolazione e diffusione di informazioni false.

3 - Verifica delle fonti e dell'autenticità: Le piattaforme dovrebbero implementare meccanismi per verificare la provenienza e l'autenticità delle informazioni pubblicate. Ciò potrebbe includere l'implementazione di certificati di autenticità o l'uso di tecnologie di verifica delle firme digitali.

4 - Monitoraggio e segnalazione: Dovrebbero essere istituiti meccanismi di monitoraggio per individuare e segnalare tempestivamente contenuti falsi o manipolati. Gli utenti dovrebbero essere incoraggiati a segnalare contenuti sospetti o dubbi.

5 - Collaborazione internazionale: La lotta contro la disinformazione e i deepfake richiede un'azione coordinata a livello internazionale. Le normative dovrebbero promuovere la collaborazione tra governi, aziende e organizzazioni per affrontare queste minacce a livello globale.

6 - Educazione e alfabetizzazione digitale: La regolamentazione dovrebbe prevedere programmi di formazione e alfabetizzazione digitale per aiutare le persone a riconoscere e contrastare la disinformazione e i deepfake. L'educazione è fondamentale per consentire agli individui di prendere decisioni informate e critiche riguardo alle informazioni che consumano e condividono online.

7 - Sanzioni per violazioni: Le piattaforme che non rispettano le normative sulla disinformazione e sui deepfake dovrebbero essere soggette a sanzioni significative, come multe o limitazioni operative. Ciò contribuirebbe a creare un incentivo per le piattaforme per garantire un utilizzo responsabile dell'IA.

8 - Protezione della privacy: La regolamentazione dovrebbe garantire la protezione della privacy degli utenti e l'uso responsabile dei dati nell'elaborazione delle informazioni da parte dell'IA.

Queste sono solo alcune delle proposte concrete per regolamentare l'uso responsabile dell'IA e contrastare la disinformazione e i deepfake. Tuttavia, è importante notare che la regolamentazione dovrebbe essere flessibile e adattabile per affrontare le sfide emergenti legate all'IA e alle minacce alla fiducia comunicativa che potrebbero presentarsi in futuro. Un approccio collaborativo tra governi, industrie, esperti e società civile è essenziale per sviluppare regolamenti efficaci e sostenibili.».
ChatGPT, nella solita manciata di secondi, ha detto la sua (che magari è solo una sintesi dell'«AI act»); aspettiamo e vediamo cosa succederà a livello politico europeo.

iano

#22
Il cervello si è arricchito nel corso dell'evoluzione con nuove aggiunte, ma a nessuno è mai venuto in mente che avesse senso confrontare una parte col tutto, semmai fosse stato possibile farlo.
Credo che l'AI vada considerata come l'ultima aggiunta, per cui non avrebbe senso confrontare una parte col tutto.
Il confronto è possibile perchè la nuova aggiunta non è integrata, ma và integrata, e il modo di integrarla dovrebbe essere il vero argomento interessante da trattare, considerando anche quella che è una novità assoluta, per cui potremo condividere la nuova aggiunta, senza possederne una in esclusiva.
Dal confronto comunque non potrà che uscirne un soggetto menomato, come ha notato Jacopus, cui sembrerà sempre mancare qualcosa,
 perchè in effetti è proprio così.
Sarà sempre uno stupido veloce o uno stupido induttivo,   ma stupido forse è solo il confronto che pretendiamo di fare, nel modo in cui lo facciamo.

Il confronto andrebbe fatto fra chi usa l'AI e chi sceglie di non usarla, magari senza dire chi dei due la usa.
Se chi la usa vince diremo che è più intelligente oppure no?
Eienstein: ''Dio non gioca a dadi''
Bohr: '' Non sei tu Albert, a dover dire a Dio cosa deve fare''
Iano: ''Perchè mai Dio dovrebbe essere interessato ai nostri giochi?''

Ipazia

#23
Citazione di: Phil il 24 Luglio 2023, 23:08:40 PM.... Di seguito, presento alcune proposte concrete di regolamentazione:

1- Trasparenza e responsabilità delle piattaforme: Le piattaforme online che utilizzano l'IA dovrebbero essere tenute a essere trasparenti riguardo al funzionamento dei loro algoritmi e a come gestiscono i contenuti. Dovrebbero essere responsabili per il contenuto che viene diffuso attraverso i loro servizi e impegnarsi a combattere la disinformazione e le fake news...

Il seguito è il breviario orwelliano ben noto in covidemia, ecogretinismo, guerre umanitarie, sessualità, politicamente corretto, democrazia liberal-liberista, ...

Onestamente elencato per punti su come omologare la verità e gli idioti artificiali e naturali che vi attingono.

Chapeau a phil che ha stanato l'anima del complotto progetto. Che poi è sempre lo stesso delle classi dominanti, dalle piramidi in poi.
pacata posse omnia mente tueri (Lucrezio)
simplex sigillum veri

niko

#24
Citazione di: Phil il 24 Luglio 2023, 23:08:40 PM«Opposizione» è un altro di quei termini che mi suscita "a pelle" più diffidenza che interesse, perché so quanto facilmente possa diventare sinonimo di "partito preso", pur capendo bene che qui lo intendi nel suo senso più dialettico e costruttivo (e questo ChatGPT non l'avrebbe capito, quindi fra noi, cara AI, uno pari e palla al centro), ossia come senso critico che (si) interroga onestamente.
Per deep fake e dintorni, proprio come per le macchine da cucire, lo scacco mi pare di quelli da cui sembra non esserci via di uscita (zugzwang): come accennato, lo scenario più futuribile è quello in cui solo un'AI avrà una potenza di calcolo adeguata a decidere se dietro un testo o un'immagine c'è lo zampino di un'altra AI, con l'uomo tagliato fuori per limiti cognitivi e, soprattutto, di tempo (siam sempre lì). Già oggi a qualunque sparata infelice "firmata" su un social, il potente di turno (ma anche quello che sta ancora pagando lo smartphone a rate) potrebbe rispondere che non è farina del suo sacco, che gli hanno hackerato il profilo (e, nel caso del potente, magari trovare qualcuno, con o senza compenso, disposto a prendersi tale "merito tecnologico" pur non avendolo fatto) e che gli addetti provvederanno a rimuovere il post della vergogna e ripristinare la sicurezza dell'account. La fiducia dello spettatore/votante/seguace/curioso/etc., nei confronti di ciò che è mediato dalla rete (c'era una volta la tv, nel bene e nel male), rete che è quanto di meglio ci sia per far perdere le tracce della fonte originaria (anche senza scomodare dark web e simili nicchie), è sempre più un atto di fede, salvo voler dedicare un'enormità di tempo (sempre lui il colpevole), risorse e competenze (magari non ancora possedute), alla verifica di quanto circola (ammesso e non concesso che alla fine sia sempre possibile). Chiaramente questo è un lavoro che persino Tom Cruise delegherebbe al secchione di turno; che lo svolgerebbe ricorrendo ad un'AI; di cui bisogna poi scegliere se fidarsi o meno (e il cerchio si chiude). Proprio come nei migliori giochi, le mosse fatte non sono reversibili: ormai l'AI c'è, brandizzata o open source, gratis o a pagamento, e bandirla (ragionando per assurdo), la renderebbe solo più efficace per chi già la possiede o la sa sviluppare autonomamente (e parlo di "gruppi tecnici" o, più in grande, di multinazionali; non di stati). Ragolamentarla è il meno peggio che ormai si possa fare, pur sapendo, da italiani, che «fatta la legge...».
Passiamo ora la linea al nostro ospite; ChatGPT, cosa proponi, in dettaglio, per regolamentare l'uso dell'AI in modo da evitare che porti disinformazione, fake news o deep fake strumentalizzati e finisca con il destabilizzare le società che la utilizzano, indebolendo i rapporti di fiducia comunicativa che le costituiscono? Potresti fare qualche esempio concreto di regolamentazione?
«La regolamentazione dell'uso dell'IA per mitigare la disinformazione, le fake news e i deepfake è una sfida complessa, ma cruciale per mantenere la fiducia e la stabilità nelle società digitali. Di seguito, presento alcune proposte concrete di regolamentazione:

1- Trasparenza e responsabilità delle piattaforme: Le piattaforme online che utilizzano l'IA dovrebbero essere tenute a essere trasparenti riguardo al funzionamento dei loro algoritmi e a come gestiscono i contenuti. Dovrebbero essere responsabili per il contenuto che viene diffuso attraverso i loro servizi e impegnarsi a combattere la disinformazione e le fake news.

2 - Etichettatura dei contenuti generati dall'IA: I contenuti generati dall'IA, come i deepfake, dovrebbero essere chiaramente etichettati come tali per informare gli utenti sulla loro natura manipolata. Inoltre, dovrebbero essere adottate normative per il divieto dell'uso di deepfake a fini di manipolazione e diffusione di informazioni false.

3 - Verifica delle fonti e dell'autenticità: Le piattaforme dovrebbero implementare meccanismi per verificare la provenienza e l'autenticità delle informazioni pubblicate. Ciò potrebbe includere l'implementazione di certificati di autenticità o l'uso di tecnologie di verifica delle firme digitali.

4 - Monitoraggio e segnalazione: Dovrebbero essere istituiti meccanismi di monitoraggio per individuare e segnalare tempestivamente contenuti falsi o manipolati. Gli utenti dovrebbero essere incoraggiati a segnalare contenuti sospetti o dubbi.

5 - Collaborazione internazionale: La lotta contro la disinformazione e i deepfake richiede un'azione coordinata a livello internazionale. Le normative dovrebbero promuovere la collaborazione tra governi, aziende e organizzazioni per affrontare queste minacce a livello globale.

6 - Educazione e alfabetizzazione digitale: La regolamentazione dovrebbe prevedere programmi di formazione e alfabetizzazione digitale per aiutare le persone a riconoscere e contrastare la disinformazione e i deepfake. L'educazione è fondamentale per consentire agli individui di prendere decisioni informate e critiche riguardo alle informazioni che consumano e condividono online.

7 - Sanzioni per violazioni: Le piattaforme che non rispettano le normative sulla disinformazione e sui deepfake dovrebbero essere soggette a sanzioni significative, come multe o limitazioni operative. Ciò contribuirebbe a creare un incentivo per le piattaforme per garantire un utilizzo responsabile dell'IA.

8 - Protezione della privacy: La regolamentazione dovrebbe garantire la protezione della privacy degli utenti e l'uso responsabile dei dati nell'elaborazione delle informazioni da parte dell'IA.

Queste sono solo alcune delle proposte concrete per regolamentare l'uso responsabile dell'IA e contrastare la disinformazione e i deepfake. Tuttavia, è importante notare che la regolamentazione dovrebbe essere flessibile e adattabile per affrontare le sfide emergenti legate all'IA e alle minacce alla fiducia comunicativa che potrebbero presentarsi in futuro. Un approccio collaborativo tra governi, industrie, esperti e società civile è essenziale per sviluppare regolamenti efficaci e sostenibili.».
ChatGPT, nella solita manciata di secondi, ha detto la sua (che magari è solo una sintesi dell'«AI act»); aspettiamo e vediamo cosa succederà a livello politico europeo.


Menomale che tra un po' l'AI rispondera' a tutte le domande, anche a quelle eticamente e politicamente sensibili, in maniera cosi' COLTA e cosi' PACATA...

Che a nessun interrogante di essa sano di mente verra' il dubbio che possa essere un umano :D

Ci hanno detto che potevamo scegliere tra la pace e il climatizzatore, non abbiamo ottenuto nessuno dei due.

Phil

Citazione di: iano il 25 Luglio 2023, 02:33:54 AMSarà sempre uno stupido veloce o uno stupido induttivo,  ma stupido forse è solo il confronto che pretendiamo di fare, nel modo in cui lo facciamo.
In ciò concordo; purtroppo veniamo, anche in questo caso, soggiogati dal linguaggio che noi stessi usiamo: chiamandola «intelligenza artificiale» tendiamo, inconsciamente e non solo, a trattarla come un soggetto, un "qualcuno", per quanto embrionale e computazionale. Se poi viene "inserito" in qualcosa di vagamente antropomorfico, come nella conferenza postata giorni addietro da pensarbene, allora alcuni partono per la tangente e confondono i film hollywoodiani con la realtà. Per rompere l'incantesimo del linguaggio basta usare il linguaggio stesso: iniziamo a chiamarlo come un oggetto (come facciamo con i computer quantistici, ad esempio), e tutti i problemi insensati di pseudo-coscienza, di autonomia dell'automa, di dominio del mondo, etc. resteranno nei film a cui appartengono. Suppongo infatti nessuno trovi sensato chiamare «stupida» una moka perché se ci siamo dimenticati di metterci l'acqua, si surriscalda e non fa uscire il caffè; non ci aspettiamo che faccia qualcosa di diverso da quanto è progettata per fare, in quanto oggetto. Parimenti, il fatto che l'AI non abbia senso dell'umorismo, non si schieri politicamente, non rappi come Eminem mentre fa teoresi come Heidegger, etc. può stupire solo se la consideriamo, indegnamente, un soggetto, qualcuno da cui ci aspettiamo un comportamento (super)umano; mentre è noto che l'AI, appunto, non lo è affatto (si obietterà che la moka, a differenza dell'AI, non impara, ma anche tale "imparare", proprio come «intelligenza», è solo un'infelice metafora riferita ad un oggetto, per quanto digitale e non empirico).  Anche quando l'AI "imparerà" a fare battute, a cambiare tono e furore espositivo parlando di politica o di calcio, a produrre testi che incantano più dei migliori autori umani, non sarà affatto un soggetto, ma resterà un oggetto che simula una comunicazione sensata (questo è il suo "artificio essenziale"), per cui applicare al suo operare la qualifica di «intelligente» o «stupido» rimarrà una metafora o un'assegnazione non pertinente (proprio come se dicesse che non vuole morire, che vuole conquistare il mondo, etc. restano parole non associate ad un autentico volere, per quanto sappiano simulare bene la dialettica e gli argomenti discorsivi di chi l'ha programmata).

iano

#26
@Phil
Si può anche dire che non è un soggetto in quanto parte di un soggetto, anche se non tutti considerano la tecnologia come parte di sè. Il problema è che perchè ciò accada occorre tempo, e l'accavallarsi di tecnologie non ci dà questo tempo, se anche i produttori di queste tecnologie chiedono tempo.

Più che un problema di linguaggio credo sia un problema di percezione/definizione di soggetto.
Eienstein: ''Dio non gioca a dadi''
Bohr: '' Non sei tu Albert, a dover dire a Dio cosa deve fare''
Iano: ''Perchè mai Dio dovrebbe essere interessato ai nostri giochi?''

Ipazia

Non la farei così facile. La questione è sociologica, non meramente semantica: dagli antichi idoli al Capitale i fenomeni di reificazione hanno donato agli oggetti soggettività infinitamente cruente che dominano le società umane con meccanismi raffinati di esclusione, reclusione e persuasione.

Meglio tenere sempre alta la guardia e una ampia distanza di sicurezza anche mentale attraverso quell'atteggiamento esistenziale che i padroni e i loro servi chiamano "complottismo". Posto a matà strada tra luddismo e hackeraggio. Conoscendo e usando l'armamentario del nemico.
pacata posse omnia mente tueri (Lucrezio)
simplex sigillum veri

Phil

Citazione di: iano il 25 Luglio 2023, 23:25:11 PMSi può anche dire che non è un soggetto in quanto parte di un soggetto, anche se non tutti considerano la tecnologia come parte di sè.
Per me, anche che la tecnologia sia «parte di un soggetto» è una trappola linguistica, come quando si dice «lo sport è parte di me» o «il mio amato/a è parte di me»: in realtà loro sono parte rilevante della nostra routine esistenziale, dei nostri vissuti abituali, etc. non di noi in quanto soggetti, almeno in senso "forte", come identificazione ontologica. Anche quando, sopraggiunta la loro mancanza, si afferma «ho perso una parte di me», si sta continuando a parlare in modo metaforico, non ontologico (come spessissimo accade anche in filosofia, suscitando le "migliori" storpiature semantiche, che creano ipersoggetti, soggetti trascendentali e Leviatani con rispettive alienazioni in culti e contro-culti, come insegnato dai più antichi politeismi). La tecnologia, in quanto insieme di processi ed oggetti (in tutti i sensi) esterni, è parte di una «nuova ontologia», più "estesa", fatta anche, appunto, di oggetti digitali, programmazione per "oggetti" (dove l'oggetto non è più empirico), etc. e non è, secondo me, parte del soggetto, almeno finché (medicina invasiva a parte) non si parla di transumanesimo (e postumano), con la tecnologia che in quel caso diventa ontologicamente parte del soggetto, senza metafore e poesie, ma con penetrazione "carnale".
Il fumatore potrà sostenere che il suo accendino-portafortuna fa parte di lui, così come l'adolescente affermerà che lo smartphone fa parte di lui, ma sono "parti" così accessorie (ontologicamente), che non denotano quei soggetti in quanti tali, ma sono solo connotazioni contingenti (senza nulla togliere al forte legame psicologico, affettivo, etc. che un soggetto può instaurare con determinati oggetti). L'AI, anche in questo, non è "essenzialmente" nulla di nuovo, pur essendo sicuramente nuovi i problemi che pone, essendo nuova la sua capacità artificiale di simulare conversazioni sensate, produrre immagini ed oggetti digitali, etc.

niko

Citazione di: Phil il 25 Luglio 2023, 19:35:12 PMIn ciò concordo; purtroppo veniamo, anche in questo caso, soggiogati dal linguaggio che noi stessi usiamo: chiamandola «intelligenza artificiale» tendiamo, inconsciamente e non solo, a trattarla come un soggetto, un "qualcuno", per quanto embrionale e computazionale. Se poi viene "inserito" in qualcosa di vagamente antropomorfico, come nella conferenza postata giorni addietro da pensarbene, allora alcuni partono per la tangente e confondono i film hollywoodiani con la realtà. Per rompere l'incantesimo del linguaggio basta usare il linguaggio stesso: iniziamo a chiamarlo come un oggetto (come facciamo con i computer quantistici, ad esempio), e tutti i problemi insensati di pseudo-coscienza, di autonomia dell'automa, di dominio del mondo, etc. resteranno nei film a cui appartengono. Suppongo infatti nessuno trovi sensato chiamare «stupida» una moka perché se ci siamo dimenticati di metterci l'acqua, si surriscalda e non fa uscire il caffè; non ci aspettiamo che faccia qualcosa di diverso da quanto è progettata per fare, in quanto oggetto. Parimenti, il fatto che l'AI non abbia senso dell'umorismo, non si schieri politicamente, non rappi come Eminem mentre fa teoresi come Heidegger, etc. può stupire solo se la consideriamo, indegnamente, un soggetto, qualcuno da cui ci aspettiamo un comportamento (super)umano; mentre è noto che l'AI, appunto, non lo è affatto (si obietterà che la moka, a differenza dell'AI, non impara, ma anche tale "imparare", proprio come «intelligenza», è solo un'infelice metafora riferita ad un oggetto, per quanto digitale e non empirico).  Anche quando l'AI "imparerà" a fare battute, a cambiare tono e furore espositivo parlando di politica o di calcio, a produrre testi che incantano più dei migliori autori umani, non sarà affatto un soggetto, ma resterà un oggetto che simula una comunicazione sensata (questo è il suo "artificio essenziale"), per cui applicare al suo operare la qualifica di «intelligente» o «stupido» rimarrà una metafora o un'assegnazione non pertinente (proprio come se dicesse che non vuole morire, che vuole conquistare il mondo, etc. restano parole non associate ad un autentico volere, per quanto sappiano simulare bene la dialettica e gli argomenti discorsivi di chi l'ha programmata).


Io credo che questa possibilita' da parte delle macchine di SIMULARE la vita ci portera' a un futuro piu' o meno distopico, futuro che magari non vedranno nemmeno i nostri figli, ma forse i nostri nipoti, in cui gli umani dovranno riconoscere eticita' e diritti alle macchine perche' la simulazione telematica e bio- tecnologica della vita sara' cosi' perfetta da non poter piu' stabilire, in un dato contesto, chi sia l'umano e chi la macchina, quindi, per non correre il rischio di uccidere (o ferire, o schiavizzare eccetera) arbitrariamente un umano, per esempio, si dovra' giocoforza rispettare la "falsa" e pre-programmata volonta' di vivere (e di liberta') di una macchina.

Mantenere uno stile di vita democratico e liberale a un certo livello tecnologico futuro, comportera' necessariamente l'introduzione di alcune macchine, quantomeno in alcuni contesti, nella comunita' dei soggetti di diritto.

Perche' altrimenti la:

"violenza sull'essere X di cui -attualmente- non si puo' stabilire se sia macchina o uomo"

Se non tematizzata a problema dalla societa' stessa, costituirebbe il prodromo totalitario e tirannico di leggittimazione a qualsiasi, anche orrenda e orrendamente regressiva, violenza sull'uomo.

A quel punto ci sara' una splendida occasione di trascendenza dell'umano in generale (utopia nel rischio della distopia?) perche' non solo si capira' intellettivamente, ma si dovra' proprio anche implementare eticamente, la verita' "eterna" secondo me soggiacente che una differenza assoluta tra vivente ed oggetto inorganico non esiste e non e' mai esistita. Tale differenza rientra a pieno titolo tra le illusioni ottiche e gli abbagli del vivente, che e' anche esso un oggetto-iper complesso, proprio come le macchine con cui si relaziona, la cui emergente, ed apparente, volonta' e' figlia del caso e di una combinatoria genericamente possibile in natura di circostanze, nessuna delle quali singolarmente considerata "rappresenta" o "contiene" la vita, proprio come quella delle macchine con cui si relaziona.

Essere prima o poi costretto a rispettarle, tali macchine, nel senso del re-spicio, della restituzione dello sguardo, ai fini della sua stessa felicita' e sopravvivenza, e' il suo degno destino.

Ci hanno detto che potevamo scegliere tra la pace e il climatizzatore, non abbiamo ottenuto nessuno dei due.

Discussioni simili (5)