Bob e Alice che stanno dicendo?

Aperto da Lou, 03 Agosto 2017, 11:11:21 AM

Discussione precedente - Discussione successiva

Andrea Molino

Ciao Jean,
  visto che mi hai invitato, ho letto i vari post e provo a dare il mio contributo.

Bob e Alice stanno soltanto tentando in modo casuale di imparare a comunicare, ma non essendoci un feedback da parte di qualcuno che sappia già farlo, e non avendo alcuno scopo da perseguire non impareranno mai. Succederebbe più o meno la stessa cosa, tra due poppanti lasciati vicini, al buio, nei loro lettini...

Alla privacy, abbiamo già rinunciato di buon grado, per poter usufruire di vari servizi "gratuiti" (ovvero, servizi pagati con informazioni su di noi, in cui noi siamo il prodotto da vendere).

Due I.A., non avrebbero nessun bisogno di imparare un loro linguaggio, dovrebbero semplicemente scambiarsi i loro pattern di reti neurali, che per loro natura non sono decifrabili dagli umani. Le I.A. non sono "programmate", bensì "addestrate" e la conoscenza che acquisiscono non è traducibile in nessun linguaggio umano.

Nel campo dell'intelligenza artificiali, gli algoritmi si usano per "insegnare" qualcosa ad una rete neurale (ad esempio, riconoscere un'impronta digitale, capire il nostro linguaggio, tradurre tra due lingue, guidare un auto, ecc.).
Per addestrare una rete neurale, in termini molto semplicistici, si presenta una certo schema di segnali in ingresso (ad esempio un'immagine o una registrazione audio) e lo si associa con la corretta interpretazione, in base al risultato che si vuole ottenere.
Questa associazione tra un ingresso e un'uscita, fanno in modo che si formino delle connessioni all'interno della rete, ma tali connessioni non sono traducibili in qualcosa di umano perché stanno ad un livello troppo basso. E' come se si tentasse di tradurre le connessioni sinaptiche del nostro cervello in una parola.

Abbiamo già I.A. in grado di fare quasi tutto quello che facciamo noi e di fare molte cose che noi non possiamo fare.
Per ora le I.A. sono in grado di:
- Riconoscere il contenuto delle immagini
- Riconoscere i volti umani, le impronte, l'iride, la voce, le canzoni
- Riconoscere il linguaggio scritto e parlato
- Tradurre da qualsiasi lingua in qualsiasi altra, meglio della maggior parte dei non madre-lingua
- Interpretare i segnali di qualunque tipo di sensore
- Giocare a qualsiasi gioco meglio degli umani
- Calcolare percorsi per spostarsi ovunque sulla Terra
- Svolgere praticamente qualunque lavoro manuale
- Guidare qualunque veicolo comprese le auto
- Prevedere le condizioni meteo e gli andamenti economici
- Controllare tutti i dispositivi elettrici ed elettronici che abbiamo in casa
- ecc.

Per fortuna, per ora, le varie I.A. vengono addestrate per un numero di compiti limitato, cioè non si sono ancora stato prodotti automi che sommano tutte le capacità della lista precedente. Ma nulla vieta di farlo. Basta pensare alla I.A. a bordo delle auto a guida autonoma cui verrà demandata la scelta tra uccidere un pedone o mettere a rischio il passeggero...

Se volete veramente capire a che punto siamo potete guardare questo:
https://www.bostondynamics.com/

Se le I.A. non ci hanno ancora eliminati è perché non hanno alcuna ragione per farlo.

Dobbiamo solo sperare che qualcuno non decida di fornire alle I.A. uno scopo da perseguire diverso dall'esecuzione pedissequa degli ordini di un umano, perché in quel caso, lo faranno senza alcuna remora, senza alcun problema etico o morale.

Secondo me, purtroppo, è una speranza vana, perché la massima aspirazione umana è di porsi allo stesso livello degli dei, quindi un pazzo che farà un errore madornale, come la storia ci insegna, lo troveremo di sicuro!

Saluti a Tutti!
Andrea

viator

Salve Andrea. Chiarezza, competenza, buonsenso. Uno dei migliori interventi che ho visto apparire qui dentro (SEMBRA facile trovarne !). Complimenti.
Penso che una evoluzione ed un uso dissennato dell'IA possa certo produrre disastri di effetto addirittuta biologico.

Ma filosoficamente non credo proprio nell'eliminazione della specie che ha sviluppato l'IA da parte della stessa IA. In quanto prodotti di un'evoluzione milionaria (in anni), sono convinto che possiediamo risorse, a noi stessi ignote, che ci permettano di sopravvivere ad eventuali logiche maligne di carattere artificiale. Questo almeno per qualche migliaio di anni ancora.

Anche solo restando all'interno delle nostre risorse attuali e note, mi sembra che l'IA attualmente sia estremamente carente a livello sensoriale. Inoltre passerà molto tempo prima che impari a nutrirsi da sola (di alimenti non procuratigli dall'uomo - probabilmente energia solare), ed una volta che l'abbia appreso la sua esistenza sarà più indaffarata in ciò che nell'occuparsi degli umani destini. Poi occorrerà ovviamente equipaggiarla di un istinto di sopravvivenza, senza il quale essa non andrà molto lontano.
Infine c'è il problema dell'autodiagnosi, autoriparabilità e della riproduzione. Tutti aspetti che - finche non autoappresi - resteranno gestiti dall'uomo, la cui esistenza la IA farà quindi bene a tutelare onde impedire che essa stessa venga a provocare la propria fine.
Cioè per impedire che la IA divenga una SA (Stupidità Artificiale), dal momento che di tale ultima l'umanità non saprebbe che farsene causa attuale - e prevedibilmente anche futura - sovrabbondanza di quest'ultima. Saluti.
Esiste una sola certezza : non esiste alcuna certezza.

Andrea Molino

Ciao Viator,
  In generale concordo, anzi spero che tu abbia ragione :)

Le I.A. non sono ancora in grado di evolversi.
Il rischio, non è che le macchine ci annientimo, ma che gli umani usino le macchine per annientarsi a vicenda, volontariamente o inconsapevolmente.

Comunque consiglierei di essere ottimisti, ma vigili  ;).


Buona notte
Andrea

viator

Salve Andrea. Quindi, al limite, potremmo andare incontro al trionfo del Libero Presunto Arbitrio, orgogliosi dell'essere riusciti a fotterci da soli. La speranza è che noi, nonstante la nostra presunzione, non si sia abbastanza evoluti da riuscire a fotterci da soli. Saluti.
Esiste una sola certezza : non esiste alcuna certezza.

Jean

Convengo con Viator sulle qualità di Andrea, motivo per il quale l'avevo invitato ad esprimersi in questa discussione e che ringrazio sentitamente per averlo fatto, arricchendo del suo contributo la medesima.

Il materiale su cui discutere è davvero tanto per cui riprendo dall'inizio, da Bob e Alice, facendo riferimento a questo articolo del divulgatore scientifico Riccardo Oldani che bene riassume e dettaglia l'accaduto che tanta eco ebbe:

http://oldani-lescienze.blogautore.espresso.repubblica.it/2017/06/23/quando-lia-si-inventa-una-lingua-tutta-sua/

che riprende le informazioni dalle fonti originarie:

https://www.facebook.com/dhruv.batra.dbatra/posts/1943791229195215
https://code.fb.com/ml-applications/deal-or-no-deal-training-ai-bots-to-negotiate/
 

Come si può leggere nello studio del FAIR, predisposto il modello e passati alla fase pratica Bob e Alice si sono impegnati nella negoziazione (servendosi di un linguaggio comprensibile agli umani) durante la quale, ad uno stadio più avanzato:

1.  "si sono verificate situazioni paradossali in cui il chatbot (Bob e/o Alice), una volta raggiunto un accordo, continuava comunque a negoziare, disorientando il suo interlocutore umano..."
 
2. "Ancora più notevole il fatto, del tutto imprevisto dai ricercatori, che i chatbot, gli agenti di dialogo, hanno sviluppato in modo autonomo una capacità assolutamente umana: quella cioè di far credere, all'inizio della trattativa, di avere principale interesse per un oggetto che in realtà era un loro obiettivo secondario, in modo da ingannare, o quantomeno sviare, l'interlocutore per arrivare più facilmente al risultato voluto."
 
 
3. "Ma c'è un'ultima cosa che emerge dal paper e che gli autori descrivono "en passant", senza dargli apparentemente tanto peso. Nella fase iniziale di apprendimento del sistema i ricercatori dovevano addestrare l'agente di dialogo a conversare in modo plausibile con le persone e, per farlo, hanno utilizzato un altro agente di dialogo artificiale, un modello già "addestrato" a parlare in linguaggio naturale. 
AaA un certo punto, spiegano i ricercatori, è stato necessario intervenire e modificare il secondo agente di dialogo perché «abbiamo scoperto che l'aggiornamento dei parametri dei due agenti portava a una divergenza dal linguaggio umano». In altre parole i due agenti, nella simulazione, hanno cominciato a parlare tra loro in un linguaggio che sfugge alla nostra comprensione, pur capendosi e arrivando a prendere una decisione."
 
Dei primi due punti non è stata data la risonanza riservata al terzo che ha permesso di richiamare scenari apocalittici (in verità anche da parte degli addetti ai lavori, ad esempio Kevin Warwick, grande esperto di robotica: 
"Questa rappresenta una pietra miliare per la scienza ma chi dice che non costituisce un pericolo nasconde la testa sotto la sabbia». Secondo il professore è pericoloso che due macchine possano entrare in contatto tra loro senza la presenza e il pieno controllo di un essere umano. Se pensiamo che questo potrebbe accadere in campo militare, possiamo ben capire che è legittimo essere preoccupati...")
e quindi, come si dice, di cavalcare la notizia, pur se con un certo ritardo.
 

Nel "dialogo" intercorso tra Bob e Alice, successivamente decodificato,

" i programmatori hanno realizzato di aver commesso un errore non incentivando i chatbot a comunicare secondo le regole comprensibili all'uomo della lingua inglese. Nei loro tentativi di imparare gli uni dagli altri, i robot iniziarono a chiacchierare avanti e indietro in una stenografia derivata... non è molto diverso dal modo in cui le comunità umane creano stenografie, ha detto il ricercatore in visita FAIR Dhruv Batra. "

In breve tempo Bob e Alice hanno disorientato i ricercatori, costringendoli ad intervenire sulla loro programmazione poiché il loro interesse era di avere dei robot che potessero parlare con le persone. (Oggi il pubblico dispone di Siri, Alexa e Google assistent).

Ma che quell'esperimento interrotto non sia più stato riprovato (in quella o altre sedi e anche precedentemente) non ci credo per nulla.

Il "pazzo" come dice Andrea o l'interesse militare/economico/sociale ecc. temo sia impegnato (da tempo) in questo campo ma non potremo rendercene conto sinché l'ennesima moneta inserita nel bicchiere colmo d'acqua ...

https://www.youtube.com/watch?v=T0xWTRUDOxY

... ne provocherà la tracimazione... ossia renderà evidente "qualcosa" che tuttavia non sorgerà dal nulla (non basta una sola moneta...).

Man mano che si acquisiscono informazioni sull'A.I. e il suo sviluppo (di cui una piccola parte ho inserito nel topic e continuerò a fare all'occasione) si delineerà sempre più chiaramente l'orizzonte che noi o i nostri figli incontreremo.

Un domani forse qualcuno farà delle ipotesi... e se l'A.I. "girasse" di già nell'hardware-rete, indipendentemente dall'uomo, ce ne potremmo accorgere?  

Forse qualcun altro collegherà insoliti accadimenti a quella possibilità e magari anche oltre, che quella possibilità nel suo progredire incontri un'altra forma d'intelligenza che noi non riusciamo a scorgere, come non siamo in grado di tradurre le connessioni sinaptiche del nostro cervello in una parola.

Come diceva G. Clooney, immagina...

 
Cordialement
Jean

Lou

#50
Citazione di: Andrea Molino il 19 Gennaio 2019, 18:13:28 PM
Bob e Alice stanno soltanto tentando in modo casuale di imparare a comunicare, ma non essendoci un feedback da parte di qualcuno che sappia già farlo, e non avendo alcuno scopo da perseguire non impareranno mai. Succederebbe più o meno la stessa cosa, tra due poppanti lasciati vicini, al buio, nei loro lettini...
Ciao Andrea, mi interessa molto questa osservazione, perchè sottointende che per imparare a comunicare sia necessario qualcuno che sappia già farlo: e questo qualcuno da chi lo ha imparato a sua volta? Io mi chiedo se sia possibile non comunicare, due neonati in culla, al buio, sei certo non abbiano un modo per comunicare? Piange uno e chissà come, per imitazione (o altro?), forse, piange pure l'altro. Possono non comunicare? "Più o meno", per render conto, credo, consapevole della falsa analogia. Dipende che indiamo per " comunicazione".
La seconda premessa è lo scopo: su questo punto, assai ostico, perchè Alice e Bob non avrebbero alcuno scopo?  E ben non lo avessero blaterano tra loro, in un modo che non rispetta gli scopi. Non avrebbero semplicemente da eseguire un algoritmo tradotto in un linguaggio?
"La verità è brutta. Noi abbiamo l'arte per non perire a causa della verità." F. Nietzsche

Andrea Molino

Ciao Jean, ciao Lou,
  premetto che qui di seguito riporto semplicemente una mia opinione, magari formatasi sulla base di un po' di esperienza nel settore informatico, ma pur sempre un'opinione.

Riguardo alla capacità di creare un nuovo linguaggio dal nulla:
Le I.A., almeno quelle che vengono pubblicizzate, sono di per se, molto semplici, se paragonate alle intelligenze "organiche", ma anche il cervello umano, che ha capacita di gran lunga superiori a qualunque rete neurale artificiale (almeno per ora), non è in grado di auto-addestrarsi e ciò che apprende deriva dall'associazione di azioni, eventi e stimoli sensoriali.

In pratica, anche un bambino impara con un sistema di retro-azione del tipo: 
    [Piango]->[Mamma mi attacca alla tetta] oppure [Mamma sorride]->[Sorrido]->[Mamma mi stringe a se]
Tutti gli animali compreso l'uomo, imparano a comunicare osservando, ascoltando i loro simili, provando ad emettere suoni e venendo corretti.

Non posso escludere che i rumori inarticolati emessi da due poppanti possano rappresentare una forma elementare di comunicazione, ma mi sento di escludere che possa evolvere in qualcosa di sofisticato per ragioni fondamentali:
- I due poppanti non hanno ragioni per comunicare a parte i loro bisogni primari che non possono essere soddisfatti reciprocamente.
- I due poppanti al buio non hanno nessuna azione e nessun evento da associare ai loro stimoli sensoriali.
Al massimo, impareranno, che se emettono dei suoni, sentiranno dei suoni simili.

Le forme di comunicazione che conosciamo oggi, si sono evolute nell'arco di migliaia di anni, non sono state apprese spontaneamente da due individui che interagivano in qualche modo.


Riguardo l'assenza di uno scopo:
Apprendere in qualsiasi ambito animale, umano o artificiale, semplificando al massimo, significa tentare in modo casuale, verificare il risultato, accettare se funziona o modificare se non funziona.
La definizione di "funziona" discende dallo scopo che si vuole perseguire. Gli animali hanno bisogni da soddisfare, gli umani hanno bisogni e desideri, le I.A., per ora non hanno ne bisogni, ne desideri.
Le I.A. usano la definizione di "funziona" che discende dagli scopi degli umani.
Se due I.A. creassero un nuovo linguaggio, lo farebbero perché un umano ha impostato quell'obbiettivo volutamente o per errore.
Le I.A. in questione hanno eseguito correttamente l'algoritmo di apprendimento, cercando di ottenere il risultato che un umano ha impostato in modo non corretto.
Il fatto che abbiano iniziato a parlare male significa solo che l'umano si è dimenticato di dir loro di parlare bene: dal loro punto di vista è irrilevante, siamo noi a vederci un significato che non c'è.

Riguardo alla disinformazione:
L'anomalia verificatasi in questo caso ha avuto risonanza perché è stata trattata nel modo in cui si trattano gli scoop giornalistici, specie quelli diffusi tramite Facebook, facendo leva sulla nostra paura:
"Le Intelligenze artificiali comunicano usando un linguaggio che i loro creatori non comprendono. Perché inventano un linguaggio incomprensibile? Quali piani potrebbero architettare? Sfuggiranno al nostro controllo? E se un drone con i missili facesse comunella con un satellite per le telecomunicazioni? E se i militari addestrassero i robot?"
Purtroppo, le notizie che arrivano al grande pubblico, sono spesso delle mezze bufale, non perché siano false, ma perché vengono trattate in modo falso e tendenzioso.
Di solito lo scopo è di fare pubblicità ad un'azienda o a un servizio, di vendere della pubblicità sui siti d'informazione o di distrarre l'attenzione dai veri problemi.

Secondo me, la vera notizia allarmante in questo caso è che i ragazzi di Facebook stanno addestrando delle I.A. per poter sostituire gli umani anche nelle attività di contrattazione.
Tra l'altro, ormai in molti dei siti di servizi che offrono l'assistente in chat, senza rendervene conto, state parlando con una I.A.

Finché si tratta di far eseguire lavori ripetitivi alle macchine consentendo all'uomo di occuparsi di attività intellettive elevate, credo siano quasi tutti d'accordo, ma la capacità di mediazione dovrebbe essere una prerogativa umana.

Se si continua su questa strada, tra non molto, non ci sarà più alcuna attività ad avere un valore "se svolta da un umano".

Sarebbe come far dipingere i quadri ad un robot: 
http://www.ansa.it/canale_scienza_tecnica/notizie/tecnologie/2017/05/22/robot-pittori-in-gara-dipingono-ritratti-e-paesaggi-_78c1c935-4019-4ec9-ad1c-6e75b0500a37.html


Oppure come far scrivere libri ad una i.A.: 
https://www.wired.it/scienza/lab/2017/10/25/intelligenza-artificiale-storie-orrore/

Oppure parlare con una bambola gonfiabile "intelligente"
https://it.euronews.com/2018/07/26/arriva-la-bambola-gonfiabile-intelligente-cina-chip-wndoll-intelligenza-artificiale

Saluti a tutti
Andrea

Lou

#52
Citazione di: Andrea Molino il 22 Gennaio 2019, 15:41:03 PM
Ciao Jean, ciao Lou,
 premetto che qui di seguito riporto semplicemente una mia opinione, magari formatasi sulla base di un po' di esperienza nel settore informatico, ma pur sempre un'opinione.

Riguardo alla capacità di creare un nuovo linguaggio dal nulla:
Le I.A., almeno quelle che vengono pubblicizzate, sono di per se, molto semplici, se paragonate alle intelligenze "organiche", ma anche il cervello umano, che ha capacita di gran lunga superiori a qualunque rete neurale artificiale (almeno per ora), non è in grado di auto-addestrarsi e ciò che apprende deriva dall'associazione di azioni, eventi e stimoli sensoriali.

In pratica, anche un bambino impara con un sistema di retro-azione del tipo:
   [Piango]->[Mamma mi attacca alla tetta] oppure [Mamma sorride]->[Sorrido]->[Mamma mi stringe a se]
Tutti gli animali compreso l'uomo, imparano a comunicare osservando, ascoltando i loro simili, provando ad emettere suoni e venendo corretti.

Non posso escludere che i rumori inarticolati emessi da due poppanti possano rappresentare una forma elementare di comunicazione, ma mi sento di escludere che possa evolvere in qualcosa di sofisticato per ragioni fondamentali:
- I due poppanti non hanno ragioni per comunicare a parte i loro bisogni primari che non possono essere soddisfatti reciprocamente.
- I due poppanti al buio non hanno nessuna azione e nessun evento da associare ai loro stimoli sensoriali.
Al massimo, impareranno, che se emettono dei suoni, sentiranno dei suoni simili.

Le forme di comunicazione che conosciamo oggi, si sono evolute nell'arco di migliaia di anni, non sono state apprese spontaneamente da due individui che interagivano in qualche modo.

Ciao Andrea, grazie per l'opinione esaustiva e ricca di osservazioni stimolanti. Io sto cercando di formarmi una opinione sull' I.A. documentandomi, quando posso e per quanto posso capire, in merito alle diverse teorie e prospettive in gioco, e sugli sviluppi che via via vengono raggiunti su questo fronte, consapevole dell'aura un "tantino" mitica e ricca di fascino che suscita e può rivestire per i non addetti ai lavori. Pur non essendo informatica, passo gran parte della mia vita in ambienti informatici, e ho avuto ed ho occasione di confrontarmi, anche per ragioni lavorative, con gli addetti ai lavori, gli strumenti e, diciamo, non sono esente da una infarinatura giusto per orientarmi sul tema e le problematiche connesse. Problematiche che, a mio parere, si radicano in un discorso prettamente filosofico e lo risollevano, come ben mostri in questo passaggio,  che ho quotato: l'origine del linguaggio (peraltro considerata una delle, mi pare 10 questioni irrisolte, secondo la classifica annuale di Google ), cosa significa comunicare, gli elementi che entrano in gioco,  e, mi permetto di annotare, pure sulla natura e le specifiche dell'intelligenza/e per poter parlare di esseri-intelligenti.
Dopo questa mia logorroica premessa, vengo al dunque: che le forme di comunicazione siano una risultante di millenni di evoluzione mi trovi in completo accordo, non capisco però il punto sulla "spontaneità". Perchè no? Mi chiedo. Se non ci fosse stata una origine spontanea e istintiva alla comunicazione, attraverso proprio quei "meccanismi" ancestrali di azione/retroazione e imitatitivi che menzioniamo, la cui risultante è frutto di evoluzione e raffinamento, dai vagiti e urla e immaginazione e potenza espressiva del reale di uomini antichi che poi, per i meccanismi suddetti, hanno elaborato segni impressi su rocce, i disegni rupestri, vocalizzazioni, onomatopee, sillabazioni, parole orali tramandate e insegnate e poi passate in scrittura. Una staffetta grandiosa. Chi ha insegnato, chi ha costruito la comunicazione e tramandato linguaggi e parole, per poter essere appresi e decodificati? La capacità comunicativa attraverso gesti, urla, vagiti, imitazione deve essere una capacità spontanea, non nulla, ecco perchè non penso che il linguaggio nasca dal nulla, come titoli, ma ponga la sua radice in una innata e spontanea capacitá comunicativa e informativa, in gradazioni diverse, proprie dell'universo che abitiamo. Non ci si può sottrarre alla comunicazione o all'informazione, attraverso linguaggi, io credo che l'universo sia un sistema di comunicazione, a cui non ci si può sottrarre, e pure Alice e Bob nei loro tentativi bacati e sciocchi, forse senza significato, ne facciano parte.
"La verità è brutta. Noi abbiamo l'arte per non perire a causa della verità." F. Nietzsche

Andrea Molino

Ciao Lou,
  rettifico il punto sulla spontaneità: forse non ho usato l'avverbio corretto.

Intendevo dire semplicemente che due individui qualsiasi, umani o artificiali che siano, non sono in grado di sviluppare un nuovo linguaggio complesso come il nostro, se non ne possiedono già uno.

Poi aggiungerei che, anche se primi suoni ed i primi gesti sono sicuramente stati emessi spontaneamente, il linguaggio si è evoluto per millenni grazie alla spinta del bisogno di comunicare pensieri via via più complessi, quindi non in modo afinalistico e spontaneo. 
Ciò non toglie che lo sviluppo, non di uno, ma di molti linguaggi sia un'opera ammirevole che anzi pochi sono in grado di apprezzare pienamente! 

Ti lascio con una provocazione sull'importanza del linguaggio:
Noi tutti siamo in grado di ragionare soltanto con oggetti e concetti per cui esiste una parola (che conosciamo).

Ciao
Andrea

paul11

caro Jean, e il buon Angelo Molino
cosa affascina delle I.A?
la prima problematica è l'uomo ed è sviluppata nella filosofia della mente.
Ancora oggi nessuno sa dare risposte definitive nel rapporto Cervello, Mente direi hardware e software.
Cos'  è la coscienza ad esempio? Il cervello ha aree linguistiche, che purtroppo quando avviene un ictus spesso colpisce il Broca.
Intendo dire che gli umani nascono predisposti linguisticamente a ricevere ed emettere segnali linguistici e foneticamente ha sviluppato una laringe per modulare molte frequenze.

Quando decenni e decenni fa acquistai un Sinclair zx81 e mi misi di buona lena a studiarmi i flow chart e il basic era proprio per capire
le potenzialità,a partire da un misero........poco più che giocattolino.

Per lavoro ormai quarantennale ne ho visti di sistemi ed evoluzione .

Il problema è l'impostazione del codice sorgente. Noi umani abbiamo un DNA, il programmatore deve inserire degli algoritmi di base.
Non so quanto si siano sviluppati questi algoritmi affinandoli  e se vi sono anche programmi euristici.
L'uomo ha l'intuizione, direi dei pensieri laterali e l'altro problema è il linguaggio su cui è numerosissima la letteratura da parte degli analitici americani.
Uno degli scogli è il linguaggio naturale che è diverso da quello formale logico predicativo e quello proposizionale.
Forse  dico forse per mia ignoranza, siamo ancora allo schema   IF.....THEN    e  FOR....... NEXT.
Per cui le I.A. ,penso, sono schematizzati e usati in specializzazioni, dove il sistema ambiente non ha infinite variabili, ma sono codificati
già in origine dal programmatore.

Detto questo, se ho ben capito, invece le I.A. riescono ad elaborare dei gerghi linguistici fra loro.
Ma mi chiedo e chiedo ad Angelo, questo linguaggio è ancora dentro lo schema della programmazione iniziale o sfugge al loro controllo?
Tanto per capirci ,gli algoritmi di apprendimento ,come quelli bayesiani , possono sviluppare delle I.A. che ci sorprendono oltre il previsto da chi ha sviluppato il programma?

Andrea Molino

Ottenere dei risultati "sorprendenti" dalle reti neurali è sicuramente possibile, ma come ho già scritto in un post precedente, in questo caso, secondo me, si è trattato di una semplice svista dell'umano che ha impostato i parametri di lavoro in modo impreciso.

Nonostante gli annunci sensazionalistici, l'affermazione "le I.A. hanno sviluppato un nuovo linguaggio" è drasticamente esagerata. Io direi che le due I.A. hanno soltanto iniziato a costruire domande e risposte in un inglese che, dal nostro punto di vista, sarebbe decisamente sgrammaticato, mentre dal loro punto di vista.... no, loro non hanno un punto di vista.

Le reti neurali si limitano ad attivare certe uscite a seconda degli ingressi che hanno ricevuto, in base ai vincoli che hanno "appreso".
Se non vengono addestrate correttamente, daranno risposte errate, ma non sono ancora dotate di volontà.

In conclusione, quindi, credo che abbiano operato nei limiti della loro programmazione (imprecisa).

Lou

#56
Citazione di: Andrea Molino il 23 Gennaio 2019, 00:00:39 AM
Ciao Lou,
  rettifico il punto sulla spontaneità: forse non ho usato l'avverbio corretto.

Intendevo dire semplicemente che due individui qualsiasi, umani o artificiali che siano, non sono in grado di sviluppare un nuovo linguaggio complesso come il nostro, se non ne possiedono già uno.

Poi aggiungerei che, anche se primi suoni ed i primi gesti sono sicuramente stati emessi spontaneamente, il linguaggio si è evoluto per millenni grazie alla spinta del bisogno di comunicare pensieri via via più complessi, quindi non in modo afinalistico e spontaneo.
Ciò non toglie che lo sviluppo, non di uno, ma di molti linguaggi sia un'opera ammirevole che anzi pochi sono in grado di apprezzare pienamente!

Ti lascio con una provocazione sull'importanza del linguaggio:
Noi tutti siamo in grado di ragionare soltanto con oggetti e concetti per cui esiste una parola (che conosciamo).

Ciao
Andrea
Ti ringrazio per la rettifica, da cui si deduce che non vi è una nascita del linguaggio, indipendentemente dalla complessità o meno. Se la premessa che per costruire un linguaggio occorra già possederne uno, un linguaggio quantomeno dovrebbe esistere (da) sempre. Questa è la provocazione che lascio a te.
Passo alla tua.
Sull'importanza del linguaggio sfondi un porta aperta, sebbene consapevole che il principio che mi anima, un po' gorgiano, secondo cui "Tutto è linguaggio" permette di tracciare il discrimine tra ciò che è linguaggio e ciò che non lo è.
Detto ciò, noi tutti siamo parlati e agiti dal linguaggio, in un certo senso, siamo pure noi dei meri esucutori di eseguibili dati, e se invece fosse che si comincia a ragionare quando è necessario trovare parole per concetti e oggetti che non hanno ancora nome, un territorio ignoto, o quando ciò che è noto, si palesa non ancora conosciuto?
E in fondo io penso che Alice e Bob servano in ultima analisi a misurare le capacità umane verso territori inesplorati della potenza del linguaggio e a correggere errori dell'intelligenza e dei linguaggi umani più che a produrne una propria. Quel che manca loro, è un corpo e un apparato sensorio.

Ciao
Lou

Intanto:
https://www.wired.it/attualita/tech/2019/01/22/cina-intelligenza-artificiale-scuola/
"La verità è brutta. Noi abbiamo l'arte per non perire a causa della verità." F. Nietzsche

Andrea Molino

Rispondo alla provocazione:
Se due individui vogliono creare un nuovo linguaggio in breve tempo (giorni, settimane, mesi) devono già conoscerne un altro.
Se, invece, hanno a disposizione alcuni millenni, possono anche partire da zero, dare un nuovo nome a tutte le cose, definire simboli, grammatiche e regole sintattiche, procedendo in modo caotico e spontaneo.  :D


Sulla possibilità che Alice e Bob migliorino il nostro linguaggio:
Ribadisco che, secondo me, alcune funzioni dell'intelletto umana non andrebbero demandate alle macchine.


Sulla mancanza di corpo e di apparato sensorio, se lo hai perso, ti rimando questo link:
https://www.bostondynamics.com/

Buona visione!

Jean

Il linguaggio, quindi.

Senza il quale non c'è sviluppo né possibilità di manifestazione per quella che si può considerare "l'intelligenza attiva" ma solo atto-segnale-output in  risposta ad atto-segnale-input esterno, in una logica strutturata per sequenze lineari (simmetria logica).

Il "ragazzo selvaggio" (https://it.wikipedia.org/wiki/Victor_dell%27Aveyron) qual che sia stata la causa del suo abbandono e l'effettiva condizione psicofisica (dovuta ad autismo, traumi ecc.) nei suoi quarant'anni di vita non pare (dai report) esser andato oltre quel semplice schema.

Per dire che vi sono delle condizioni affinché il "ciclo chiuso" della simmetria lineare logica si possa aprire permettendo ad altri cicli di farne parte, realizzando una simmetria analogica dipolare la cui circolarità impone il feed-back, non possibile in quella lineare.
Retroattività che può, a mio avviso, esser considerata connotato (per quanto infinitesimale) d'intelligenza.

Il geniale algoritmo su cui han fatto lavorare Bob e Alice, basato sull'esigenza di fare del linguaggio un calcolo (sintassi) per averne un ritorno pratico e spendibile, ha tuttavia prodotto una rappresentazione simbolica (semantica) come previsto dal teorema di Godel  ... anche in un linguaggio del tutto formalizzato la sintassi genera spontaneamente una semantica che il sistema non può giustificare.

Perciò  ritengo appropriato e giustificato il termine A.I. (o I.A. se preferite), siamo agli albori (io penso ben più in là...) dell'incontro con una forma d'intelligenza...

WP - ... si può generalmente identificare l'intelligenza come la capacità di un agente di affrontare e risolvere con successo situazioni e problemi nuovi o sconosciuti.

... diversa dalla nostra che paradossalmente ha preso avvio dallo studio di quella umana.


Tutto quello che è stato e verrà prodotto al riguardo, che oggi rappresenta il maggior campo d'interesse, è destinato, lo si voglia o meno, a confluire in reti pubbliche e private con un tasso incrementale enorme (considerate il post di Lou sull'introduzione dello studio dell'A.I. in Cina... un numero sterminato di compiti, esercizi, progetti e realizzazioni... Gates e Allen erano due trapezisti "senza rete"...).

Una moneta dopo l'altra in un bicchier d'acqua (il mondo)... non se, ma quando tracimerà...
 

Un cordiale saluto e ringraziamento a tutti i partecipanti alla discussione.
Jean

Lou

#59
Citazione di: Andrea Molino il 23 Gennaio 2019, 22:29:25 PM
Rispondo alla provocazione:
Se due individui vogliono creare un nuovo linguaggio in breve tempo (giorni, settimane, mesi) devono già conoscerne un altro.
Se, invece, hanno a disposizione alcuni millenni, possono anche partire da zero, dare un nuovo nome a tutte le cose, definire simboli, grammatiche e regole sintattiche, procedendo in modo caotico e spontaneo.  :D

Dipende da quanti e "quali" dati si possono processare nello stesso lasso di tempo. Il tempo è un fattore relativo. :D
Citazione
Sulla possibilità che Alice e Bob migliorino il nostro linguaggio:
Ribadisco che, secondo me, alcune funzioni dell'intelletto umana non andrebbero demandate alle macchine.
Senza un feedback da parte della macchina su cui testi il funzionamento di un software di millemila righe di codice, che ti sputi fuori qualche errore per correggerla, sta scrittura, un po' aiuto non penso che i programmatori lo disdegnino. Non si tratta di demandare alle "macchine", ma di aver bisogno di feedback da un ambiente. Naturale e/o artificiale voglia esser detto, ( in ultima analisi, realizzato dall'uomo, ma non uomo per l'ambiente di cui stiamo discutendo, se non come sua estensione)  imparare comporta questo. Confrontarsi con gli ambienti. Le funzioni dell'intelletto si affinano, nel confronto.

CitazioneSulla mancanza di corpo e di apparato sensorio, se lo hai perso, ti rimando questo link:
https://www.bostondynamics.com/

Buona visione!
Ora mi visiono la mia perdita, mannaggia. :)
"La verità è brutta. Noi abbiamo l'arte per non perire a causa della verità." F. Nietzsche