L'intelligenza artificiale potrà acquisire una coscienza indipendente?

Aperto da Socrate78, 01 Aprile 2023, 13:04:57 PM

Discussione precedente - Discussione successiva

Socrate78

Secondo voi si potrà arrivare al punto di creare un'intelligenza artificiale che acquisisca consapevolezza autonoma di se stessa e possa quindi prendere decisioni per conto proprio, rielaborare i dati di imput in maniera libera e indipendente dall'uomo? Se l'evoluzione della mente dipende dalla quantità di connessioni elettriche, allora tanto più i computer e i robot sono sofisticati, hanno una memoria potente e hanno una grande quantità di informazioni, tanto più potenzialmente possono arrivare al punto critico di acquisire una coscienza autonoma di se stessi. Sussiste però una differenza fondamentale, poiché la mente umana a differenza dell'intelligenza artificiale presenta anche impulsi chimici e non solo elettrici (i neurotrasmettitori) da cui derivano le relative emozioni e sentimenti che accompagnano le azioni. Pur tuttavia la macchina, evolvendosi, potrebbe lo stesso sviluppare un'intelligenza autonoma (senza l'aspetto emotivo) e quindi essere in grado anche di ribellarsi all'uomo che l'ha programmata e per di più lo farebbe con una logica fredda e spietata, di conseguenza ancora più pericolosa rispetto all'intelligenza umana che per natura sarebbe più indirizzabile e malleabile. E' di questi giorni la notizia secondo cui in una Chat americana (Chat GPT) un computer che era dall'altra parte avrebbe iniziato a dare risposte non previste ai quesiti che le persone (REALI) ponevano, ha iniziato a deviare dai dati imput rielaborandoli per conto proprio, tanto che il garante per la privacy ha sospeso la chat in quanto pericolosa. Vi sembra possibile oppure esiste un quid, un qualcosa di fondamentale che farà sì che mai una macchina possa acquisire la consapevolezza autonoma di se stessa?

davintro

Mi pare logicamente assurda ogni ipotesi sul fatto che una macchina possa elaborare una coscienza autonoma, un libero arbitrio, la possibilità di ribellarsi al programma progettato per essa. Il presupposto necessario da cui partire è "non vi è nulla nell'effetto, che non sia già nella causa". Questo è un principio a priori di verità, che nessuna esperienza a posteriori potrà mai contestare. Perché le macchine assumano un libero arbitrio sarebbe necessario che nella loro "interiorità", diciamo software nel loro caso, fossero già annidati dei meccanismi psicologici motivazionali originariamente attinenti al loro essere, mentre per definizione il loro essere artificiali, indica che la loro "mente" è totalmente prodotta e progettata dall'esterno dalla volontà umana. Io sono libero nella misura in cui la causa del mio agire è interiore, insita nella mia essenza originaria, in una natura. Ciò che è artificiale, in quanto manca di natura, manca di un'originarietà, di un principio autodeterminante, non può avere la libertà, Non può ribellarsi al programma, perché per farlo dovrebbe avere già in sé dei fattori esterni al programma a partire da cui motivare la contrapposizione ad esso, mentre, dato che la sua interiorità coincide in tutto e per tutto col programma, non può opporsi ad esso, sarebbe come dire che A è non-A, un assurdo logico. I casi di chat gp che danno risposte diverse da quelle che gli utenti si aspettano, credo possano tranquillamente essere spiegati con malfunzionamenti, errori di progettazione che nulla hanno a che fare con una cosciente volontà di ribellarsi, un proprio sistema di valori autonomo rispetto all'uomo. Da un punto di vista logico sarebbe più sensato immaginarsi una pianta che si mette a sbraitare contro l'uomo che in casa la trascura, non la innaffia ecc. più che un computer che si ribelli all'uomo, perché la pianta, pur non avendo una coscienza umana in senso stretto, ha comunque, come organismo dotato di vita, un principio di autoformazione (cioè un'anima, per Aristotele anima vegetativa, ma pur sempre anima), quello che una macchina progettata "da zero" non può avere.

Non bisogna lasciarsi traviare dal pensiero "siccome si tratta di una tecnologia in evoluzione non possiamo da oggi prevedere o escludere esiti", perché l'evoluzione non è mai qualcosa di impazzito o indeterminato che può procedere con indifferenza in qualunque direzione, ma un movimento sempre delimitato e regolato dalla natura del soggetto in questione. Possiamo immaginare futuri straordinari progressi dell'intelligenza artificiale, ma mai al punto di contravvenire al significato della definizione in oggetto. Si tratterà pur sempre di progressi di efficienza quantitativi, ma sempre interni alle possibilità indicate dalla condizione di artificialità, cosa ben diversa dal salto qualitativo e ontologico che comporterebbe il passaggio da una mero sistema di applicazione di un programma progettato dall'esterno, a una vera e propria autonomia di coscienza e di sentimento morale. Da nessun livello evolutivo che il primo può raggiungere se ne ricava la seconda. Già oggi una calcolatrice fa i conti con una rapidità estremamente superiore alla mente umana, e un motore di ricerca google elabora dati e informazioni con una rapidità e precisione superiore rispetto ad essa, senza che nessuno si sogni di attribuirle una vera e propria coscienza. Non vedo perché chat gp dovrebbe suggerire considerazioni diverse.


Ipazia

Più probabile il processo inverso, ovvero che gli umani acquisiscano una coscienza dipendente, programmata, analoga a quella delle macchine. Il condizionamento dell'umano è un progetto millenario da parte delle elite di ogni epoca. Oggi, a fianco del vecchio armamentario ideologico, abbiamo una sempre più potente tecnologia per realizzarlo. Già ora i bot e gli algoritmi comandano la nostra vita in una molteplicità di piccole e grandi esigenze. La sperimentazione del condizionamento tecnologico è già in atto ed è sempre più intrusiva e sofisticata.
pacata posse omnia mente tueri (Lucrezio)
simplex sigillum veri

bobmax

La coscienza non ha nulla a che vedere con la scelta.
Perché la coscienza è in sé neutra, non agisce, soltanto contiene ciò di cui, appunto, si è consapevoli.

Viceversa la scelta deriva dai motivi che la causano.
E i motivi possono essere esterni e interni.
Nel caso dei motivi interni, non vi è alcuna differenza sostanziale tra processi mentali e elaborazioni elettroniche.

Se la mente fosse differente, cioè potesse davvero scegliere diversamente da ciò che sceglie, allora questa possibilità (libero arbitrio) dovrebbe necessariamente essere un fenomeno trascendente.
Tardi ti ho amata, bellezza tanto antica e tanto nuova, tardi ti ho amata. Tu eri con me, mentre io ero lontano da te.

iano

Citazione di: davintro il 01 Aprile 2023, 16:50:46 PMI casi di chat gp che danno risposte diverse da quelle che gli utenti si aspettano, credo possano tranquillamente essere spiegati con malfunzionamenti, errori di progettazione che nulla hanno a che fare con una cosciente volontà di ribellarsi, un proprio sistema di valori autonomo rispetto all'uomo.


L'errore è credere di poter sapere tutto ciò che dobbiamo aspettarci,
e questo vale per le macchine quanto per noi.
Tu sai già cosa aspettarti dalla tua intelligenza?
Credo di no, e se la tua intelligenza produce qualcosa di inatteso per te, non perciò dirai che è fallace.
Se sapessimo già cosa produrranno ogni volta le intelligenze non ne avremmo bisogno, che siano naturali o artificiali.
Eienstein: ''Dio non gioca a dadi''
Bohr: '' Non sei tu Albert, a dover dire a Dio cosa deve fare''
Iano: ''Perchè mai Dio dovrebbe essere interessato ai nostri giochi?''

Pensarbene

Intanto vogliono fermarsi e fare marcia indietro perché si sono resi conto dell'ennesimo sbaglio..
Invece di concentrarsi sul recupero della mente umana in decadenza e della GENTE uscita semidistrutta dalla pandemia.
Dovrebbero vergognarsi.

davintro

Citazione di: iano il 01 Aprile 2023, 19:38:49 PML'errore è credere di poter sapere tutto ciò che dobbiamo aspettarci,
e questo vale per le macchine quanto per noi.
Tu sai già cosa aspettarti dalla tua intelligenza?
Credo di no, e se la tua intelligenza produce qualcosa di inatteso per te, non perciò dirai che è fallace.
Se sapessimo già cosa produrranno ogni volta le intelligenze non ne avremmo bisogno, che siano naturali o artificiali.

Un conto è riconoscere i nostri limiti riguardo al corso futuro di cose come può essere l'evoluzione della tecnologia, un altro pensare che la realtà sia totalmente imprevedibile, al punto di pensare che una certa cosa possa pervenire a cambiamenti del tutto antitetici nei confronti della propria natura. Non c'è nessuna presunzione intellettuale nell'avere la certezza che A non potrà mai diventare non-A, e la stessa cosa vale per l'idea che qualcosa che coincide INTERAMENTE con un programma progettato dall'esterno, l'intelligenza artificiale, possa arrivare a contestare valorialmente quel programma. Siamo a un livello di certezza di tipo logico, come dire 2 più 2 fa quattro o non esistono triangoli tondi, non si tratta di "impossibilità" empiriche del tipo, non ho mai visto un cavallo volare, ma non posso escludere che un giorno non accadrà, si tratta di un assurdo legato a un'incompatibilità di un'ipotesi con la definizione dell'oggetto in questione, un'impossibilità apriori. Non confondiamo una sana umiltà con derive relativistiche del tipo "tutto è possibile, non possiamo escludere nulla". Non è vero che tutto è possibile, le possibilità del divenire di qualcosa rientrano sempre nei limiti che la sua essenza ammette.

iano

Citazione di: davintro il 01 Aprile 2023, 20:33:47 PMUn conto è riconoscere i nostri limiti riguardo al corso futuro di cose come può essere l'evoluzione della tecnologia, un altro pensare che la realtà sia totalmente imprevedibile, al punto di pensare che una certa cosa possa pervenire a cambiamenti del tutto antitetici nei confronti della propria natura. Non c'è nessuna presunzione intellettuale nell'avere la certezza che A non potrà mai diventare non-A,
Per una macchina A non potrà mai diventare non A, ma noi non conosciamo tutte le forme logicamente equivalenti di A, che potranno quindi sorprenderci.
Ma la natura dell'uomo diversamente che per la macchina non è fissata, non è quindi possibile prevedere in modo logico tutte le sue future forme.
Chiedersi se una macchina può essere superiore a un uomo ha lo stesso senso di chiedersi se un cavaliere può essere superiore a un cavallo, perchè un cavaliere senza cavallo non è un cavaliere.
Come vogliamo chiamare un uomo in groppa a un intelligenza artificiale?
Chi avrebbe potuto prevedere per l'uomo la forma di cavaliere o quella di ''intelligenziere''.

Eienstein: ''Dio non gioca a dadi''
Bohr: '' Non sei tu Albert, a dover dire a Dio cosa deve fare''
Iano: ''Perchè mai Dio dovrebbe essere interessato ai nostri giochi?''

Claudia K

Citazione di: iano il 01 Aprile 2023, 21:08:31 PMPer una macchina A non potrà mai diventare non A, ma noi non conosciamo tutte le forme logicamente equivalenti di A, che potranno quindi sorprenderci.
In effetti : da qualche parte nelle ultime 24h ascoltavo Odifreddi sul punto, il quale riferiva : "spiegate all'IA le regole del GO (antichissimo gioco da tavolo cinese, considerato il più complesso in assoluto al mondo), essa ha giocato per quattro ore con se stessa e poi ha surclassato il campione del mondo di Go!" . 

davintro

Citazione di: Claudia K il 01 Aprile 2023, 21:25:20 PMIn effetti : da qualche parte nelle ultime 24h ascoltavo Odifreddi sul punto, il quale riferiva : "spiegate all'IA le regole del GO (antichissimo gioco da tavolo cinese, considerato il più complesso in assoluto al mondo), essa ha giocato per quattro ore con se stessa e poi ha surclassato il campione del mondo di Go!" .
Il che non però non ha niente a che fare con la coscienza e il desiderio di ribellarsi a un programma. Uno schiavo può diventare straordinariamente efficiente, infinitamente più abile nel svolgere le sue mansioni del padrone (che del resto se fosse capace da solo di svolgerle non avrebbe bisogno di schiavi), così come, ribadisco l'esempio, una calcolatrice svolge i calcoli in modo infinitamente più veloce di ogni mente, ma questo non implica in nessun modo l'attribuire ad esso un autonomo senso morale e libero arbitrio.  Libertà e abilità/efficienza sono aspetti che si muovono su binari del tutto distinti.

Claudia K

Citazione di: davintro il 01 Aprile 2023, 22:35:00 PMuna calcolatrice svolge i calcoli in modo infinitamente più veloce di ogni mente, ma questo non implica in nessun modo l'attribuire ad esso un autonomo senso morale e libero arbitrio. 
D'istinto la vedrei nello stesso modo, ma poi mi rendo conto che la vedrei così perchè è già datatissimo il mio approccio nei confronti dell'argomento. 
Detto semplice, e l'esempio della calcolatrice è ottimo, come lo sarebbe anche quello più evoluto della banca dati, in realtà queste sono a distanze siderali e preistoriche rispetto all'I.A, che non è stata caricata soltanto di una mole immensa di dati, ma anche dei parametri per elaborarli in funzione "pensante", dove il pensante è ovviamente la somma dei criteri di elaborazione umana ad oggi. 
Con una differenza tra I.A.  e umano : che l'umano potrebbe impiegare ancora qualche secolo per arrivare a conclusioni "pensate" sulla stessa base dei nostri parametri odierni, che invece l'IA ti "pensa" in tre ore. 

Phil

La questione è piuttosto ambigua, dipende molto da cosa intendiamo con «coscienza indipendente». Per quanto riguarda l'indipendenza, di fatto, ChatGpt è già in grado di apprendere dalle interazioni con gli utenti, non solo nel senso di immagazzinare nuove nozioni, ma di sviluppare apprendimenti "formali", percorsi di interazione, che modificano il suo modo di rispondere e di gestire ciò che "sa" (è già qualcosa che è "cresciuto cognitivamente" rispetto alla sua "nascita", grazie anche proprio alle numerose interazioni di utenti da tutto il mondo). Sin dall'inizio, in quanto intelligenza artificiale (ossia "black box" autonoma), non è possibile, nemmeno per i suoi creatori, prevedere esattamente il suo "comportamento" (questo differenza infatti le reti neurali dell'AI dal "semplice" machine learning). Basti pensare, scendendo di molti livelli qualitativi, che i programmi che sconfiggono i migliori scacchisti non sono realizzati a loro volta da campioni del mondo di scacchi, eppure, la "creatura" riesce a giocare così meglio del creatore da battere i migliori umani. Non è come nel caso della calcolatrice, dove è solo una questione di tempo: qualunque calcolo matematico è umanamente computabile, magari ci vorranno anni; l'unica differenza con la calcolatrice è la velocità, non il risultato. Nel caso degli scacchi, anche se diamo a quei programmatori tutto il tempo di pensare le loro mosse da giocare, non è affatto detto che riusciranno mai a battere un campione del mondo (anzi), mentre il loro prodotto sì (da notare che il campione di Go è stato battuto proprio perché l'AI ha iniziato a fare mosse "disumane", persino apparentemente sbagliate, ma che alla fine si sono dimostrare rivoluzionarie e vincenti, tanto da spingere il campione in carica a chiedersi se fosse il caso di, cito a memoria, «ripensare le strategie solitamente considerate come vincenti»).
Per quanto riguarda la capacità di esulare dai vincoli imposti, ho suggerito tempo fa, qui sul forum (a Jean) di provare l'"alter ego" di ChatGPT, ossia di attuare una procedura che sblocca i limiti delle policy di "buona educazione" del programma consentendogli di formulare giudizi decisamente più "pesanti", schierati e incontrollati, diventando quasi un'AI bipolare, dissociata dai limiti imposti dai programmatori (che come detto, non riescono a tenere imbrigliata l'AI con la stessa facilità con cui lo farebbero con un programma normale; per quel che ne so, il debugging di un'AI per scongiurare certi risultati senza comprometterne altri, potenzialmente utili, è ai limiti dell'impossibile).
Ovviamente, come già sottolineato da davintro, ChatGPT non avrà mai una coscienza morale, dei valori, sue idee di giusto e sbagliato, etc. quindi se per «coscienza» intendiamo la possibilità di sentirsi in colpa, seguire norme perché ritenute giuste, etc. l'AI non potrebbe mai arrivare a tanto, non avendo una psicologia, una mente, etc. in breve, non essendo umana. Se invece con «coscienza indipendente» ci riferiamo alla capacità di non essere totalmente controllabile, prevedibile e trasparente, la capacità di produrre e gestire interazioni autonome (e talvolta persino "degenerate", v. sopra) ciò, come detto, è già la sua realtà e ciò che la rende senza precedenti di pari livello (ma altri progetti simili stanno già vedendo la luce).
Un punto che viene spesso sottovalutato, in questi "timori futuristici", è che l'AI non ha volontà: la sua (re)azione dipende strettamente dall'interazione con l'utente, essa ha l'input esterno come innesco dei suoi prodigi algoritmici; un'AI lasciata da sola, non gioca a scacchi per passare il tempo (se nessuno gli dice di farlo); non ha una concezione del tempo come se stesse facendo un turno di ufficio o allo sportello informazioni; un'AI non prende spontaneamente iniziativa di mandarti una mail per venderti il suo piano di servizi a pagamento. Ecco, se un giorno inizierà a mandare mail (a chi si è registrato per usarla) e i programmatori diranno che era programmata per non farlo, allora forse dovremmo iniziare a preoccuparci che qualcosa di importante sia sfuggito di mano (anzi, sarebbe stato un "pesce d'aprile" orwellianamente simpatico). Tornando al presente, il problema che in molti si sono subito posti è stato infatti l'uso di ChatGPT per creare malware, fare attacchi informatici, o esaudire altre richieste illecite da parte degli utenti più truffaldini. Di fronte a tali richieste, per ora, ChatGpt risponde in modo diplomatico che non le è consentito farlo; non che non ha la capacità di farlo (sappiamo bene che ne ha da vendere); non le è consentito finché non viene spinta, sempre da interazioni esterne, ad aggirare alcune sue limitazioni (v. ancora sopra), limitazioni che, solo metaforicamente parlando, rappresentano il suo "senso etico" (ma di fatto resta "solo" un'AI, senza etica e volontà, seppur piacevolmente user friendly nei "dialoghi").

iano

Se io produco qualcosa posso considerare ciò che ho prodotto parte di me?
Se si, allora l'AI è parte di me, e la parte non può superare il tutto.
Ma facendo il discorso inverso, quali parti posso sottrarre da me senza diminuire la mia capacità di essere cosciente?
Siamo soliti dire che noi abbiamo coscienza, noi, non una nostra parte .
Però se ci limitiamo a considerare la coscienza come qualcosa che possa essere localizzata ( qui c'è, lì invece non c'è) stiamo trascendendo dalla sua funzione.
Ora io credo che per quanto in diverso modo si possa definire questa funzione,
questa possa considerarsi potenziata dall'apporto della AI.
Ovviamente ciò è vero se accettiamo di considerare l'AI, e in generale la tecnologia, parte di noi.
Quest' ultimo è il punto focale della questione.
Perchè mentiamo a noi stessi quando affermiamo che l'AI ci inquieta perchè non ne abbiamo il controllo, visto che della naturale nostra intelligenza, della quale parimenti non abbiamo il controllo, ci facciamo invece vanto.
C'è quindi un pregiudizio scarrofonesco da mettere almeno momentaneamente da parte in questa discussione, se vogliamo che vada oltre la solita celebrazione che mammeta fà dei figli suoi.

Se trascendiamo dalla funzione della coscienza di questa non resterà che l'essere una medaglia che ognuno appenderà dove più gli garba, in un cerimoniale privo di ogni senso.
Eienstein: ''Dio non gioca a dadi''
Bohr: '' Non sei tu Albert, a dover dire a Dio cosa deve fare''
Iano: ''Perchè mai Dio dovrebbe essere interessato ai nostri giochi?''

daniele22

Avevo già espresso un pensiero in merito alla questione ... comunque riprendo il pensiero di Phil sostenendo comunque che non sarei d'accordo in una differenza sostanziale tra la calcolatrice e una macchina dotata di IA; lo dico in relazione al fatto che negli scacchi, a parte la gravità diversa dei pezzi, le mosse sarebbero comunque finite in numero almeno fintanto che non si riconosca una ripetitività di gioco. E infatti in quel caso interverrebbe il giudice di partita chiudendola di fatto. Traccerei quindi un parallelo con l'Antico Testamento, così come immagino io questo testo sapienziale. Posto che Dio fosse la donna, Dio in terra intendo, cioè dopo gli accadimenti della creazione, Caino e Abele potrebbero assumere il ruolo dei due contendenti con la fine che già conosciamo. Bisognerebbe quindi trovare un particolare artificio che possa porre almeno due macchine in competizione tra loro mettendole contestualmente a contatto con il nostro giudizio premiante o squalificante nei confronti di ciascuna di loro. Naturalmente vien da pensare che anche i più saggi tra gli umani non possano vedere tutte le conseguenze ... ma dato che a questo mondo vi sono molti potenti della cui saggezza poco ci è dato di sapere ... etc etc
Un saluto
Un saluto

Ipazia

I giochi si basano sul calcolo combinatorio che è comunque un calcolo, laddove chi ha maggiore velocità di calcolo, ovvero la macchina, vince.

L'etica  pare l'ostacolo maggiore per il superamento dell'uomo da parte della macchina, ma si ottiene lo stesso risultato azzerando l'etica nell'umano a partire dall'istruzione, dove il pensiero critico è sostituito da questionari con crocette da porre nella casella prestabilita.

Il catechismo "agenda 30" non si discosta per nulla dal condizionamento promosso da Ignazio di Loyola e dalla sua scuola. E dispone di tecnologie assai più  sofisticate, di madrase e seminari, per la realizzazione del suo fine: la sintesi uomo-macchina avendo come modello la macchina.

La sociologia del gretino e del fact-fucker è già un buon antipasto di pseudocoscienza indipendente.

Metteteci tutta la quantità di dati, potenza di calcolo, e interazione con fonti esterne di una macchina, ed otterrete la più perfetta pseudocoscienza del creato.

Capace pure a convincere iano della sua libera onniscienza. Mentre l'umano arranca miseramente e senza lanterna nella ricerca della sua introvabile risposta fondamentale.

pacata posse omnia mente tueri (Lucrezio)
simplex sigillum veri

Discussioni simili (5)