Il "sogno enigmistico"

Aperto da Eutidemo, 14 Luglio 2023, 12:55:21 PM

Discussione precedente - Discussione successiva

Eutidemo

PREMESSA
Come mi era già accaduto in un'altra occasione, questa notte, molto probabilmente suggestionato da qualcosa che avevo letto, ho fatto un specie di "(semi)sogno enigmistico", sebbene in uno stato precipuamente "ipnagogico"; stamattina, appena sveglio, ho controllato su INTERNET, per vedere se il mio "(semi)sogno enigmistico" corrispondeva ad un enigma reale.
E, in effetti, ho trovato alcuni enigmi molto simili, anche se molto più complicati di quello che il mio cervello aveva elaborato un po' in sogno è un po' nel dormiveglia; in effetti, il mio "(semi)sogno enigmistico", in confronto, mi è sembrato talmente facile da risolvere, che non sapevo se inserirlo nel settore "VARIE" o in quello "PERCORSI ED ESPERIENZE" (l'amministratore, se crede, ne potrà variare la collocazione).
Comunque, da sveglio, l'ho rielaborato e e riorganizzato in modo meno confuso e un po' più complicato di come lo avevo (semi)sognato!
Se a qualcuno interessasse risolverlo, eccolo qui.
***
.
IL SOGNO ENIGMISTICO
Un prigioniero si trova rinchiuso in una cella con tre porte  ciascuna delle quali  è controllata da un CHATBOT:
- PORTA A
- PORTA B
- PORTA C
***
Al riguardo il prigioniero viene informato di quanto segue:
.
1)
Su ognuna delle tre porte ci sono due pulsanti:
a)
Uno "bianco", premendo il quale può parlare con il CHATBOT, ma gli può fare un'unica e sola domanda, di qualunque genere, ma non del carattere che appresso dirò.
b)
Uno "nero" premendo il quale:
- se corrisponde all'unica porta "giusta", che è una sola, può farla spalancare, e correre libero fuori;
- se, invece, corrisponde ad una delle altre due porte, che sono quelle "sbagliate", resterà fulminato all'istante.
.
2)
Il prigioniero, premendo il pulsante "bianco" di ciascuna porta, può interrogare, nella sequenza che preferisce, i CHATBOT delle porte A, B e C;  però, ad ognuno di essi, può fare una '"sola ed unica domanda".
.
3)
La domanda può essere di qualunque genere, ma:
- nè "di carattere ipotetico" (ad esempio: "cosa mi risponderebbe il CHATBOT della porta alla tua destra, se io gli chiedessi...");
- nè "di carattere alternativo" (ad esempio, " è vero che è così oppure che è cosà?");
- nè "di carattere irresolubile" (ad esempio, " come si quadra il cerchio?");
- nè "di carattere inverificabile" (ad esempio, "esistono gli extraterrestri"?").
Cioè, in parole povere, il prigioniero può fare solo tre domande, semplici e dirette, una per ciascuno dei tre CHATBOT, esclusivamente finalizzate a capire qual'è la porta della salvezza.
.
4)
Il prigioniero può fare le tre domande, una per ciascuno dei tre CHATBOT, entro un tempo massimo di dieci minuti in tutto, dopodichè:
- deve necessariamente premere uno dei tre pulsanti neri;
- se non lo fa viene soppresso per decapitazione.
.
5)
Per capire qual'è la porta della salvezza, il prigioniero deve sempre tenere presente che tutti e tre i CHATBOT  sono al corrente dei "programmi di risposta" degli altri due, e cioè:
a)
Un CHATBOT risponde sempre e soltanto cose vere; ma se il prigioniero preme il pulsante nero sulla sua porta, ci lascia immediatamente la pelle.
b)
Un CHATBOT risponde sempre e soltanto cose errate; ma se il prigioniero preme il pulsante nero sulla sua porta, questa si apre e lui è libero.
c)
Un CHATBOT, se interrogato dal prigioniero, gli risponde :
- sempre e soltanto la verità se sa che gli altri due darebbero risposte diverse alla domanda che gli ha fatto il prigioniero;
- sempre e soltanto falsità se sa che gli altri due darebbero risposte uguali alla domanda che gli ha fatto il prigioniero.
In ogni caso  se il prigioniero preme il pulsante nero sulla porta di tale bizzarro  CHATBOT, ci lascia immediatamente la pelle, a prescindere dal fatto che il CHATBOT abbia risposto il vero o il falso, secondo i criteri sopra indicati.
***
.
Fin qui la faccenda sembra abbastanza semplice, ma il guaio è che:
.
A)
I tre CHATBOT conoscono benissimo la lingua del prigioniero, per cui capiscono perfettamente quello che lui chiede, e, quindi, gli rispondono a tono a seconda di come sono stati programmati (vedi sopra); però gli rispondono in una lingua che lui ignora completamente!
.
B)
Il prigioniero non conosce affatto tale lingua; e, quindi, non è assolutamente in grado di capire il significato linguistico delle loro parole!
***
.
***
L'enigma consiste nella seguente alternativa:
- il prigioniero non è in grado di salvarsi perchè non capisce le risposte che riceve.
OPPURE
- il prigioniero è in grado di salvarsi facendo determinate domande (e, in tal caso, quali?)
***
P.S.
Ovviamente il prigioniero ignora quale sia la programmazione del computer che sta interrogando (cioè se sia veritiero, bugiardo ecc.)

bobmax

Chiede:
1 + 1 = 2 ?

Le risposte potranno essere due suoni diversi, corrispondenti al nostro "sì" (Suono A) e al nostro "no" (Suono B).


Il chatbot che dice sempre la verità risponderà con il sì, Suono A.
Il chatbot che dice sempre la falsità risponderà con il no, Suono B.
Il terzo chatbot, essendo le risposte degli altri due necessariamente diverse, risponderà con il sì, Suono A.

L'uscita è perciò quella con l'unico chatbot con il Suono B.

Tardi ti ho amata, bellezza tanto antica e tanto nuova, tardi ti ho amata. Tu eri con me, mentre io ero lontano da te.

Eutidemo

BRAVISSIMO BOBMAX! :)
Come avevo anticipato, l'indovinello che ho sognato non era poi particolarmente difficile (infatti volevo metterlo in "percorsi ed esperienze"), ma tu hai trovato la soluzione corretta in soli 9 minuti; ed infatti io lo avevo postato alle ore 13,16, e tu lo hai risolto alle ore 13,25!
Per cui, al posto del prigioniero, che aveva appunto soltanto  10 minuti per premere il pulsante giusto, tu ti saresti sicuramente salvato!
Io, invece, no, perchè, nel dormiveglia, ci ho messo almeno  20 minuti per trovare la soluzione giusta; per cui, al posto del prigioniero, ci avrei sicuramente lasciato la pelle!
CHAPEAU! :)
***
.
***
La mia soluzione era identica alla tua, ma solo più inutilmente prolissa.
***.
***
Il prigioniero fa la stessa domanda a tutti e tre: "E' vero che due più due fa quattro (2 + 2 = 4)?"
Ed infatti, anche non conoscendo la lingua con la quale i tre CHATBOT risponderanno, poichè la domanda comporta una risposta in logica binaria, il prigioniero, sa "con certezza" che:
- due di loro, nella loro lingua, useranno una stessa identica parola che vuol dire "sì" (ad esempio WUD);
- uno di loro, invece, il bugiardo, nella loro lingua, userà una diversa parola che vuol dire "no" (ad esempio KRAD).
***
Ed infatti:
1)
Il CHATBOT che risponde sempre e soltanto cose vere, se gli viene chiesto "E' vero che due più due fa quattro (2 + 2 = 4)?", risponderà senz'altro SI' (WUD)
2)
Il CHATBOT che risponde sempre e soltanto cose errate, se gli viene chiesto "E' vero che due più due fa quattro (2 + 2 = 4)?", risponderà senz'altro NO (KRAD)
3)
Il terzo CHATBOT, poichè risponde  sempre e soltanto la verità se sa che gli altri due darebbero risposte diverse alla domanda che gli ha fatto il prigioniero (come, appunto, in questo caso), se gli viene chiesto "E' vero che due più due fa quattro (2 + 2 = 4)?", risponderà senz'altro SI' (WUD).
***
Per cui il prigioniero, anche senza conoscere il significato linguistico di WUD e KRAD, capisce immediatamente che i due WUD devono significare per forza SI',  mentre  KRAD deve significare per forza NO; per cui preme il pulsante nero della porta il cui CHATBOT (bugiardo) gli ha risposto KRAD, ed è libero e salvo!
***
.
***
Un saluto! :)
***