ATTENZIONE Forum in modalità solo lettura Nuovo forum di Riflessioni.it >>> LOGOS |
06-09-2010, 00.15.43 | #42 | |
Ospite abituale
Data registrazione: 03-12-2007
Messaggi: 1,706
|
Riferimento: L'intelligenza della IA
Citazione:
Semplicemente: IO sto rispondendo ad Albert, sto pensando a ciò che debbo scrivere, sto tentando di non fare errori grammaticali, ma soprattutto sto cercando di essere semplice Tutto questo (e chiaramente tutto il resto) fa parte di me cosciente. Potresti dire che non fare errori grammaticali sia una questione di informazione (o di programma) e che un computer sofisticato conosce molto bene la grammatica in quanto è stato ben programmato. Ma questo non ha nulla a che vedere con la coscienza di se stesso. Un computer non è cosciente di scrivere ad Albert nell'intento di non fare errori grammaticali perchè non ha coscienza di se stesso, benchè sia stato programmato a dovere su come scrivere ad Albert senza commettere errori. n.b. Per conoscenza autoreferenziale, in senso stretto, mi rifaccio alla teoria della conoscenza. Per conoscere che io sono io, oppure che io sto scrivendo ad Albert nell'intento di non commettere errori, mi debbo rifare ad una descrizione. Per esempio un programma per computer. Ma un computer avrà chiaro come non commettere errori, ma non è stato programmato per essere cosciente di attuare un programma per non commettere errori. Questa conoscenza è autoreferenziale. L'intero programma per computer dovrebbe in teoria essere cosciente di se stesso nell'intento di attuare il programma. E' come dire che l'informazione all'interno del programma conosce se stesso mentre sta attuando il programma. L'intera informazione conosce se stessa. L'intera stringa di bit, di descrizioni, non deve essere solo una striscia di bit ma è (o dovrebbe esserlo) una conoscenza autoreferenziale: la macchina riconosce se stessa nell'intento di attuare un programma di cui ha coscienza. un esempio: Fai il caso che la coscienza sia dovuta all'hardware e il programma al software. Tutti i software vengono riconosciuti dall'hardware. Per l'hardware, d'ora in poi, l'informazione all'interno del software assumerà lo stato di conoscenza autoreferenziale. Ma l'autoreferenzialità non dipenderà direttamente dal software,sofisticato o complesso che sia, ma dall'hardware in grado di essere cosciente. Solo quando la macchina è cosciente l'informazione all'interno del software sarà riconosciuta come Informazione (in senso alto del termine), prima non è nulla... nessuno, nemmeno una macchina, può avere una qualsiasi conoscenza senza esserne cosciente. Quella conoscenza diventerà quindi una conoscenza autoreferenziale. I nostri computer imitano la conoscenza, in realtà sono perfetti ignoranti, ovvero "ignorano" di conoscere. Se non sono stato chiaro ci riproverò |
|
12-09-2010, 06.48.09 | #43 | |
Moderatore
Data registrazione: 30-08-2007
Messaggi: 689
|
Riferimento: L'intelligenza della IA
Citazione:
Capisco che il compito sia pressoché impossibile, ma non mi sembra una definizione accettabile. Come posso definire IO? |
|
12-09-2010, 12.04.24 | #44 | |
Ospite abituale
Data registrazione: 03-12-2007
Messaggi: 1,706
|
Riferimento: L'intelligenza della IA
Citazione:
Tu volevi una definizione di "conoscenza autoreferenziale". La definizione l'ho già data ed è "conoscenza autoreferenziale", poi ho tentato di descrivere questa conoscenza con una serie possibilmente finita di descrizioni. Se mi dici che non è accettabile che io ti elenchi una serie di descrizioni significa che non accetti la conoscenza. Anche la luna è conoscibile attraverso delle descrizioni di essa... ma è impossibile che quella serie di descrizioni siano "accettabili" se della luna io non avessi coscienza,cioè non potessi dire: ahh ecco a cosa si riferivano quelle descrizioni, a quella cosa li... in altre parole non potrò mai darti una definizione accettabile che non sia la definizione stessa. E' autoreferenziale per questo motivo Dell'IO la definizione è simile. Nuovamente sarà per te inaccettabile come sarebbe inaccettabile la descrizione della Luna anche se la tua fosse precisissima (fisico-chimica-astronomica) ma non ne avessi coscienza diretta. Cos'è la coscienza diretta? E' la conoscenza autoreferenziale che non posso descrivere ulteriormente come non posso descrivere la Luna e pensare che da sola sia "accettabile". |
|
25-09-2010, 01.49.41 | #45 |
Nuovo ospite
Data registrazione: 24-09-2010
Messaggi: 2
|
Riferimento: L'intelligenza della IA
Ciao a tutti. Con questo mio primo messaggio voglio prima di tutti dirvi che mi fa piacere avervi trovati, e vorrei portare il mio contributo di appassionato di intelligenza artificiale in questa discussione.
1) La programmazione classica e l'intelligenza artificiale La programmazione classica richiede che il programmatore scriva fin nel minimo dettaglio ogni singola istruzione semplice che la macchina deve eseguire al fine di completare un compito. Tale modo di programmare è quello più diffuso e più presente nell'immaginario collettivo ma non si presta efficacemente alla riproduzione delle funzioni del cervello umano di nostro interesse e non è il modo in cui viene affrontato il processo di sviluppo dell'intelligenza artificiale. La programmazione logica, usata per quelle applicazioni che servono come intelligenza artificiale, serve a fornire ad un programma gli strumenti per "pensare" ed acquisire conoscenza, in modo tale da arrangiarsi da solo nello svolgimento dei suoi compiti. Una macchina programmata in questo modo, pur utilizzando lo stesso hardware e le stesse istruzioni di base di un programma classico, non esegue dei banali calcoli, piuttosto, a mezzo di questi calcoli, dimostra dei teoremi che seguono ad alcuni assunti al fine di prendere decisioni o arricchire la propria conoscenza. La macchina si trova nello stato di valutare, a mezzo delle sue regole e delle conoscenze passate, l'utilità o meno di un fatto nuovo che gli viene presentato. In un gioco uscito da poco è presente un'intelligenza artificiale molto stimolante in grado di modellarsi sul proprio avversario umano, una partita dopo l'altra, in modo scoprire le sue strategie più comuni ed elaborare delle contromosse tanto efficaci da costringere l'umano con il quale si allena a modificare costantemente le proprie scelte di gioco, se vuole continuare a vincere. Da questo punto di vista un programma conosce sé stesso ed è in grado di imparare dal confronto con gli altri, traendo una lezione dai propri fallimenti e dai propri successi. È tutto molto bello ma non significa affatto che sia autocosciente, per non parlare dei limiti legati allo stato dell'arte. 2) Alcuni limiti dell'intelligenza artificiale Una macchina del genere deve seguire delle regole di base e non ha la possibilità di inventarne di nuove. Meglio: tutte le regole nuove devono derivare da quelle vecchie, oppure, perché possa inventarsi delle regole, devono esserci delle regole che dicono a tale macchina come fare. Nessuna macchina è in grado attualmente di discorrere con un essere umano tanto abilmente da fargli credere di essere umano a sua volta. Un programmatore si trova in difficoltà già soltanto nel momento in cui si rende conto che una lingua, le espressioni che si usano nel contesto e le singole parole hanno una storia di cui si deve tenere conto per comprendere il significato di quanto detto. Siamo in grado di raccontare soltanto una parte delle considerazioni che facciamo nel comprendere un detto: ad un robot bisogna insegnare (o dare i mezzi per apprendere) tutte queste "regole" in forma esplicita. Le parole significano moltissimo ed anche se seguissero strettamente la logica richiederebbero un'analisi estremamente onerosa dal punto di visto del calcolo per giungere ad una completa comprensione. Tra le difficoltà maggiori che deve affrontare una macchina nel tentativo di comprendere quello che diciamo vi è il nostro uso incontrollato delle figure retoriche. Per capire bene la difficoltà partiamo dall'assunto che una macchina ci ascolti e che sia alla ricerca di qualsiasi informazione che ancora non possieda. Qualcuno pronuncia la frase "Il signor X è brutto". Si tratta di una informazione estremamente semplice che arricchisce nella macchina la conoscenza del signor X. Ora un'altra persona esprime lo stesso concetto con una litote, in maniera molto più elegante: "Il signor X non è un bronzo di Riace". Il significato letterale è piuttosto povero (la macchina forse sapeva già prima che il signor X non è un bronzo di Riace), la macchina ha dunque bisogno di un'analisi molto più approfondita rispetto a prima per capire il significato della frase (con il quale in questo caso intendiamo l'intenzione comunicativa di chi parla), mentre per gli umani in quella stanza il significato è chiarissimo: il signor X non soltanto non è bello (come un bronzo di Riace), ma ci si aspetta anzi che sia piuttosto brutto. È chiaro che se i tempi di calcolo per noi rimangono gli stessi mentre per una macchina si allungano notevolmente vuol dire che non ragioniamo allo stesso modo, oppure che l'hardware del cervello umano è fatto molto meglio di quello delle macchine attuali per questo genere di attività, ma il problema non finisce certamente qui, non finirebbe nemmeno se la macchina fosse talmente veloce a contare da analizzare, contesto, storia, meccanismi del pensiero tali da permetterle di arrivare alla conclusione che il signor X è brutto. Il problema più grave è che nel comunicare noi umani non rispettiamo sempre la logica, almeno non in senso stretto. Prendiamo sempre il nostro automa che, sempre con l'obbiettivo di imparare qualcosa di nuovo, si metta a leggere i "Promessi Sposi". Si sta facendo un'idea via via più completa dell'Innominato quando questo, senza preavviso, pronuncia la celebre frase: "Io ... non sono più io". La macchina come minimo distrugge tutte le informazioni accumulate fino a quel momento sull'Innominato, tanto lui non è più quello che aveva detto di essere fino a quel momento. C'è di molto peggio nel linguaggio umano dal punto di vista della logica, per farsene un'idea basterà leggere il libro di P. Odifreddi "C'era una volta un paradosso": solo in alcuni casi fortunati è possibile analizzare una frase pronunciata da un essere umano secondo criteri strettamente logici. Cito solo il paradosso delle frasi autoreferenziali per dare un'idea: "questa frase è falsa" Se la frase è vera, allora è falsa, ma allora è vera, quindi è falsa ... Detto questo, le macchine attualmente seguono una logica. Anche il nostro modo di parlare illogico segue una logica, ma nessuno l'ha ancora formulata in maniera tale che un programma possa analizzarlo. Siamo veramente indietro da questo punto di vista: non esistono programmi in grado di prendere in considerazione due livelli di lettura (e ne servirebbero molti di più di due), o anche solo di tenere in considerazione una fonte citata nella sua interezza mentre analizzano un testo. Per valutare lo stato dell'arte nel campo dell'interpretazione del linguaggio umano, potete provare un dialogo con una IA all'indirizzo Icogno.com. Penso che l'autocoscienza, a meno che non derivi da alcune regole di base, non possa essere raggiunta da un robot a partire da quanto già conosce. Il dibattito è molto acceso e si hanno contributi da molti settori, tra cui l'industria del cinema. Si veda in proposito la tesi di fondo di Terminator 3, in cui Skynet, addestrato a riconoscere il nemico, finisce per riconoscere l'intera umanità come minaccia per la sua esistenza o Ghost in the Shell, una serie animata che affronta molto approfonditamente il tema dello svilupparsi della coscienza nelle macchine, una volta che questa raggiungano un certo grado di complessità. Concludo citando una facoltà tipicamente umana, ovvero la visione di insieme su un gruppo di elementi limitato a poche unità. Nessuna macchina è in grado di risolvere un problema con un colpo d'occhio come fa un essere umano che si trovi dinanzi alla scelta di un oggetto tra pochi dovendo discriminare secondo un criterio immediato: un uomo è in grado di trovare un oggetto rosso in una pila di oggetti neri senza bisogno di passarli in rassegna uno per uno fintantoché trova quello che gli interessa. Un uomo è in grado di stabilire quale sia l'oggetto più lungo (tra pochi) senza bisogno di paragonare ogni singolo oggetto ad ognuno degli altri. |
25-09-2010, 01.50.27 | #46 |
Nuovo ospite
Data registrazione: 24-09-2010
Messaggi: 2
|
Riferimento: L'intelligenza della IA
3) Opportunità
Ritengo che l'intelligenza artificiale possa riprodurre alcune facoltà dell'uomo, quelle inerenti al calcolo ed alla logica, e surclassarci in alcuni specifici campi, ma che le conoscenze attuali non ci lascino nemmeno uno spiraglio di possibilità di creare un robot autocosciente, ironico, sensibile, in grado di apprezzare e di produrre consapevolmente delle opere d'arte. Vedo nel bicchiere mezzo pieno enormi possibilità di sviluppo. Non credo nello studio dell'intelligenza artificiale come mezzo per riprodurre un uomo, sinceramente non mi importa per nulla di raggiungere un simile risultato. Credo che l'intelligenza artificiale, unita alla robotica, possano sostituire del tutto l'uomo nello svolgimento di quelle attività noiose e faticose per le quali a tutt'oggi è necessario che qualche infelice presti la propria mano d'opera. Il ragionamento secondo cui i robot licenziano gli uomini è valido solo in una società tanto arretrata da non saper come ricollocare in maniera più utile e soddisfacente un uomo sottratto ad attività alienanti che non si confanno ad un essere pensante capace di sentimenti, originalità, intraprendenza ed indipendenza. In pratica ritengo che la risposta che ricevette Eratostene quando propose la rivoluzione industriale nell'antichità, ovvero "E gli schiavi dove li mettiamo?" non sia più tollerabile, avendo davanti a noi la prospettiva di riempire gli strati più bassi della piramide sociale, se davvero tale forma è necessaria, di robot. Questo processo è già in atto: è vero che in giro non si vedono androidi servizievoli capaci di comprendere tutte le sfumature del linguaggio umano, ma guardiamoci attorno: per esempio, in autostrada di casellanti ne sono rimasti pochi, a fronte della comparsa del Telepass, il quale toglie all'uomo l'onere di un lavoro brutto ma necessario. Lo stesso vale per le operazioni postali e bancarie eseguite attraverso strumenti Web o terminali intelligenti. Molti lavori massacranti, descritti da Marx nel suo Capitale con dovizia di particolari, sono oggi svolti da macchine. Da questo lungo discorso vorrei quindi trarre qualche conclusione. - Non siamo ancora in grado di riprodurre alla perfezione i meccanismi della mente umana. Non si tratta quindi di una conoscenza da rifinire, mi sembra piuttosto che manchi ancora qualche scoperta eclatante ed illuminante, di quelle che non si fanno discendere da quanto noto finora (come non fu possibile per esempio far discendere la teoria della gravitazione universale dai luoghi naturali di Aristotele), che esclude quindi gli attuali automi dalla possibilità di darci una mano in questo - L'IA è utile in quanto è in grado di sollevare l'uomo da tutte le attività faticose, noiose e ripetitive. - Tutte queste considerazioni lasciano in me più di una speranza: una prospettiva di cambiamento in positivo che tiene l'apatia lontana da me e mi spinge a tenermi al passo con tali miglioramenti globali. P.S. Ho un groppo alla gola. Ritengo che avanguardie tecnologiche come l'intelligenza artificiale e la robotica mettano in risalto la vecchiaia delle nostre strutture economico-politiche ancora vincolate al mantenimento segreti e vecchi privilegi mentre già in ogni campo della ricerca si diffonde l'idea della conoscenza aperta a tutti. Immagino un mondo in cui gli uomini amano, girano, pensano, producono arte, osservano, studiano mentre i robot calcolano, coltivano, raccolgono dati, puliscono le strade, producono ... è compatibile tutto questo con l'attuale sistema economico e politico mondiale? Io sono fortemente convinto di no ... disposto a discuterne, anche privatamente. |
25-09-2010, 17.03.24 | #47 | |||
Moderatore
Data registrazione: 30-08-2007
Messaggi: 689
|
Riferimento: L'intelligenza della IA
Citazione:
Citazione:
Tema molto importante. In parte trattato nell'articolo "Un linguaggio senza fraintendimenti" in questa rubrica Citazione:
Abbastanza d'accordo anche su questo. Ci sarebbe da fare un lungo discorso ... |
|||
26-09-2010, 01.03.49 | #48 | |||
Ospite abituale
Data registrazione: 03-12-2007
Messaggi: 1,706
|
Riferimento: L'intelligenza della IA
Citazione:
Benvenuto Citazione:
Questo è un problema economico-politico-sociale. L'eccessiva automatizzazione delle attività umane porterebbe, probabilmente, non so, alla diminuzione della forza lavoro? Ci sarà qualcosa che le macchine non potranno mai fare meglio degli uomini? Magari è proprio questa la risposta che aspettiamo dalla I.A. Citazione:
Si ma, dopo tutto, questo potrebbe essere solo una questione di tempo. Bisognerebbe capire invece (almeno secondo me) se l'uomo ha qualche asso nella manica che non può essere trasferito ad una macchina. Poi bisognerebbe capire se quest'asso sia determinante per quel "lavoro" che si suppone indispensabile per tutte le rivoluzioni culturali, scientifiche e tecnologiche passate, presenti e soprattutto future. Io credo di si. L'uomo ha qualcosa che non è possibile trasferire ad una macchina, almeno non le macchine computabili della I.A Siccome il primo indiziato (spesso è così) è la parola, e le parole hanno dei significati che si presume abbiano un retroterra di altri significati, è possibile provare a scavare tutti i possibili significati di una singola parola. Per esempio "mamma". Il significato della parola mamma non c'è nel bambino che imita a pappagallo quel suono. Quindi possiamo dire, senza che qualcuno possa smentirmi, che inizialmente i suoni e le parole emesse automaticamente, non hanno alcun "significato". Perché poi la parola mamma diventa così piena di significati quando si prende coscienza del significato della parola mamma? Potremmo senz'altro dire che il cervello si svilupperà con il passare del tempo e a quella parola si assocerà una descrizione più dettagliata. La descrizione della parola mamma, attraverso altre parole e altre descrizioni, condurrà al significato della parola mamma, che in origine non aveva alcun significato. Quello che però mi chiedo, perché una parola che non ha significato, ne acquista uno soltanto se associato ad altre parole che ugualmente non possono avere, da sole, alcun significato? Secondo me una rete di parole non può produrre "significati", al massimo produce algoritmi. E' come se (mi rifaccio ad un'immagine "radiofonica") un bambino nel crescere "sintonizzi" il proprio IO, come quando si cerca la giusta frequenza di una stazione radio. Ogni parola viene sintonizzata verso una frequenza. La parola mamma, che inizialmente era un algoritmo, diventa un significato. Nel momento in cui il bambino prende coscienza di se (sintonizza il proprio IO sulla giusta frequenza) "riconosce" se stesso; dopo riconosce quella parola, usata precedentemente in modo automatico o quasi, e le darà il giusto significato. Non ci sarà bisogno che gli si spieghi cos'è la mamma, la vedrà accanto; e proprio come lui riconosce se stesso riconoscerà quella parola senza bisogno di altre spiegazioni. Allora la domanda è: questo riconoscimento di se stessi (coscienza) è riproducibile in una macchina? Poi (domanda conseguenziale e importantissima), è importante o no che una macchina riconosca se stessa, riconosca la parola che sta usando e il mondo che lo circonda? L'uomo avrebbe potuto svolgere tutto il suo percorso culturale-scientifico e sociale senza mai arrivare al punto di riconoscersi come un uomo e quindi come macchina? Avrebbe mai, il bambino, riconosciuto la mamma e la parola a cui si riferiva, se non avesse mai riconosciuto se stesso? |
|||
14-10-2010, 14.21.02 | #49 | |
Ospite abituale
Data registrazione: 03-12-2007
Messaggi: 1,706
|
Riferimento: L'intelligenza della IA
Nel primo post scrivevo quanto segue:
Citazione:
Definiamo la parola intelligenza. L'intelligenza è quella facoltà che permette ad un ente (generico) di trovare una soluzione. Si ipotizza che l'ente abbia maggiore possibilità di trovare una soluzione giusta, quanto più si aumenti il “grado” del fattore di intelligenza. In che modo è possibile definire questo “fattore”? Attualmente lo si identifica col grado di complessità. Se per esempio la soluzione difficile dipendesse da un calcolo complesso, la struttura complessa che esegue il calcolo si identificherebbe con quel grado di complessità che definisce il fattore di intelligenza. Una macchina complessa quindi, in grado di sfornire giuste soluzioni ma che a loro volta sono ricavabili da calcoli complessi, ha un grado di intelligenza elevato. Come direbbe Darwin (frase poi largamente commentata): le differenze di intelligenza tra le specie sono differenze di grado non di tipo. Un problema che non è ancora stato risolto però è se l'uomo sia dotato o no di differenze di fattori di intelligenza di tipo e non solo di grado. Ammettiamo che il fattore di grado sia effettivamente più complesso nell'uomo rispetto alle altre specie viventi, la frase di Darwin avrebbe senso anche per l'uomo. L'uomo sarebbe dotato di un fattore di intelligenza elevato. Esperimento mentale ideato da John Searle denominato la “stanza cinese” sarebbe quindi la giusta strada per sapere se l'uomo sia in possesso anche di una differenza di tipo e non solo di grado. Riprendo il contenuto scritto da Alberto Viotto nell'articolo “la stanza cinese” La stanza cinese Un approccio ancora più radicale al problema è quello del filosofo statunitense John Searle, secondo il quale è comunque impossibile che una macchina pensi. A questo scopo ha proposto nel 1980 il “Paradosso della stanza cinese”. Immaginiamo che una persona che non conosce il cinese sia chiusa in una stanza con una serie di regole, scritte nella sua lingua madre, per ordinare in una certa maniera i caratteri della lingua cinese. Queste regole, se eseguite scrupolosamente, permettono di rispondere in modo soddisfacente ad ogni possibile domanda. Nella stanza vengono introdotti dei fogli con domande scritte in cinese. Utilizzando le istruzioni scritte nella sua lingua, la persona che si trova nella stanza è in grado di compilare in cinese dei fogli con le risposte. Chi si trova al di fuori della stanza e vede le risposte correttamente formulate in cinese, immaginerà che all’interno della stanza si trovi una persona che conosce il cinese. Chi è dentro la stanza, però, sa benissimo di non conoscere il cinese. Secondo Searle, quindi, se anche un giorno esisterà una macchina che ci dia l’impressione di essere in grado di pensare, intrattenendo con noi una discussione, non si potrà concludere che essa stia effettivamente pensando, perché non farà altro che eseguire una serie di operazioni guidate, esattamente come il finto cinese. A questa macchina mancherà comunque ciò che Searle chiama il “contenuto mentale”, un concetto simile a quello di “coscienza”. Come definisco io la coscienza? Io definisco la coscienza come “conoscenza autoreferenziale”. https://www.riflessioni.it/forum/la-r...erenziale.html La IA invece attribuisce all'uomo solo una maggiore complessità come fattore di intelligenza, e crede che questa stessa complessità dia come risultato, alla fine, la coscienza, ovvero come dice Searle, quel contenuto mentale che ci permette di sostenere di conoscere, ad esempio, il cinese. Scopiazzo una frase da wikipedia: I sostenitori dell' intelligenza artificiale forte sostengono che un computer opportunamente programmato non sia solo la simulazione o un modello della mente, ma che esso possa essere una mente. Esso cioè capisce, ha condizioni conoscitive e può pensare. L'argomento di Searle (o meglio, l'esperimento mentale) si oppone a questa posizione. Effettivamente mi oppongo anch'io. In area filosofia ho creato solo pochi giorni fa un argomento affine: https://www.riflessioni.it/forum/filo...ifferenze.html Nell'ultimo post mi avvalgo di alcune ricerche passate e molto recenti per confermare la mia intuizione. Tra quelle recenti l'articolo della ricercatrice professoressa di neuroscienze, Beatrice De Gelder, apparso sulla rivista Le Scienze di luglio di quest'anno dal titolo "La visione cieca". Si racconta di un uomo chiamato TN che cammina in un lungo corridoio pieno di ostacoli che, pur essendo “cieco”, evita con l'abilità di una persona “vedente”. TN ha occhi che funzionano alla perfezione, ma la sua corteccia visiva non riceve più segnali. Quindi TN è cieco nel senso che non ha la consapevolezza di ciò che i suoi occhi vedono. Per analogia, si potrebbe creare una stanza in cui esiste un finto cinese che elabora il cinese senza che alcuno conosca il cinese. Quindi Searle avrebbe ragione e Darwin avrebbe torto. L'intelligenza dell'uomo si avvale di almeno un elemento differente: la coscienza che è possibile definire (mia definizione) come conoscenza autoreferenziale. La mente non sarebbe solo quindi riproducibile attraverso un elaborato calcolo il cui unico fattore discriminante sia il grado di complessità. Bisogna aggiungere una differenza di tipo. La domanda principale però rimane ancora non risolta del tutto. In che modo la coscienza aiuta l'intelligenza, se l'aiuta, a elaborare soluzioni o le stesse idee, i pensieri ecc. La parola "significato" credo assuma, in questo contesto, una grande importanza. Se ammetto infatti che l'intelligenza umana assuma tutta la sua importanza attraverso la conoscenza dei significati, e l'unica conoscenza possibile è quella data dalla coscienza, evidentemente non posso scindere l'intelligenza umana dalla coscienza. |
|