Re: In fisica si può parlare di "entità" elementari ?
Scusa il ritardo, ma sono lento a scrivere e ho avuto poco
tempo libero.
Cerco di tagliare quel che posso, soprattutto su quel su cui
sono d'accordo...
>> Quel che Monod illustra nel libro e` che le proteine e il DNA
>> sono mattoni praticamente universali
>
> limitatamente alla terra, presumo.
Scusa, mi sono espresso un po' male: intendevo non che
fossero gli unici possibili, ma che si riesce a farci di
tutto, vedi dopo.
>> Per esempio,
>> supponiamo che una cellula abbia bisogno che, in presenza di
>> una certa quantita` di una data sostanza, si attivi la
>> produzione di un'altra sostanza che non ha nessuna attinenza
>> chimica diretta con la prima: c'e` sempre un modo per
>> costruire un meccanismo del genere a colpi di DNA.
>
> questa frase non credo di averla capita e non immagino cosa
> suggerisca (non ho letto Monod).
> Potresti chiarirla (al limite con un esempio anche fittizio) ?
Non ho il libro a portata di mano (anche perche' non era
mio), ma non importa. Il problema e` che probabilmente ho
esagerato, parlando di "sostanze" generiche, mentre mi par di
ricordare che gli esempi fossero sempre con proteine o
comunque con molecole di una certa dimensione, tali da poter
essere "riconosciute" da una sezione apposita di un'altra
proteina per complementarita` di forma e distribuzione di
carica elettrica. Ora purtroppo non ricordo il meccanismo in
dettaglio; mi pare che fosse circa come segue, ma non giuro
sui dettagli.
Supponiamo di voler realizzare un meccanismo all'interno di
una cellula tale che, in presenza di una certa proteina A, si
attivi la produzione di una proteina Z, dove A e Z sono due
proteine qualunque, che possono benissimo non assomigliarsi
minimamente, non reagire l'una con l'altra, eccetera: diciamo
che potrebbero essere state scelte a caso l'una
indipendentemente dall'altra.
Il DNA puo` codificare per una proteina B con le seguenti
caratteristiche:
- inibisce la sua stessa produzione (cosi' che non se ne
produca all'infinito); per far questo, una sua parte ha forma
tale da "riconoscere" una parte del DNA e attaccarcisi
bloccando la traduzione di se stessa (ecco, qui non ricordo
se il meccanismo fosse piu' complesso e richiedesse qualche
altro passaggio; ho un vaghissimo ricordo di metilazioni, ma
molto probabilmente mi sto confondendo con tutt'altro);
- un'altra parte della proteina B "riconosce" la proteina A;
- un'altra parte della proteina B attiva il gene che produce
la proteina Z (non ricordo come, forse legando un'altra
proteina che altrimenti si sarebbe legata al gene
inibendolo);
- la proteina B puo` assumere varie configurazioni spaziali
(eventualmente anche formando dimeri, tetrameri...);
- la configurazione spaziale in cui B attiva il gene di Z e`
molto instabile, nel senso che la proteina B passa una
piccola frazione del suo tempo in quella forma, ma viene
stabilizzata dal legame con A.
La tesi di Monod e` che il numero delle possibili sequenze di
amminoacidi e` talmente astronomico che una proteina B con le
caratteristiche desiderate esiste praticamente sempre. Minime
mutazioni (come la sostituzione di un amminoacido) possono
far variare la forza di adesione tra le proteine (tutti
legami sostanzialmente reversibili), influenzando gli aspetti
quantitativi del meccanismo di regolazione desiderato.
> uhm, questa (come molte altre) differenze si stanno attenuando.
> Per il momento la differenza vera è che non si è ancora
> trovato il modo che un programma attribuisca significato a
> un termine riconosciuto. Anche perché non so se esista una
> definizione scientifica dell'"avere significato".
Mi sembra una questione quantitativa, non si'-o-no. Meglio un
programma riesce a gestire un'informazione, piu' si puo` dire
che l'abbia "capita". Del resto, anche uno studente umano
capisce meglio una materia che in teoria dovrebbe aver gia`
capito facendo esercizi, quindi direi che anche per un essere
umano la comprensione e` qualcosa di sfumato.
Non ho particolari problemi ad ammettere che un programma che
gioca a scacchi riesce a capire la situazione della
scacchiera meglio di me per la maggior parte del tempo.
> progetto a CAmbridge della
> simulazione di un modello virtuale di cervello completo a
> partire dalla mappatura di tutti i neuroni)
Interessante.
> inoltre ogni sinapsi è nativamente analogica (ossia ha una
> "profondità di calcolo" difficilmente stimabile in termini
> di bit : quanti stati può assumere la concentrazione locale
> di un neurotrasmettitore, volendola assimilare a un segnale
> ? Bastano 16-32-64 bit per descrivere anche questo solo
> aspetto ?
Io ne userei 8, al piu' in scala logaritmica. :-)
Magari 16 proprio a voler strafare.
> Se viene rilasciata una vescicola di 10'000
> molecole di sostanza attiva, in uno spazio semiconfinato,
> quante diverse concentrazioni possono produrre ... teniamo
> presente che istante per istante la conc. non sarà neppure
> uniforme né mai in equilibrio. Se esiste una soglia critica
> per far partire uno spike, basteranno le molecole che
> raggiungono il recettore o no ? Insomma anche l'evento
> elementare non è poi particolarmente semplice da
> modellizzare in modo del tutto rappresentativo). E' tutta
> una serie di soglie dietro altre soglie critiche (e ci sono
> meccanismi abbastanza simili ad operatori mezzi OR, mezzi
> AND e così via).
Anche qui ci sono due livelli. Una cosa e` la precisione
richiesta per simulare esattamente il comportamento di uno
specifico neurone, altra cosa e` la precisione richiesta dal
suo funzionamento come porta logica sia pur complessa. Ho il
serio sospetto che la rete sia "robusta", cioe` che piccole
variazioni della concentrazione di un neurotrasmettitore,
della velocita` di propagazione di un impulso, eccetera,
debbano avere poca importanza sul funzionamento complessivo
della rete. E` una questione di affidabilita`. Se bastasse
una piccola variazione in una sinapsi per indurre la rete in
un errore serio, la probabilita` di errore salirebbe
esponenzialmente con il numero di neuroni e con una rete
tanto vasta la frequenza degli errori sarebbe inaccettabile.
>> Il
>> progressivo aumento del volume cerebrale nell'evoluzione
>> umana, nonostante l'alto consumo energetico dei neuroni in un
>> organismo sostanzialmente strutturato per economizzare al
>> massimo, porta a sospettare che sia molto difficile
>> realizzare un buon grado di intelligenza con reti neurali
>> molto piu' piccole della nostra.
>
> non mi azzardo a dirlo. Di nuovo, non sappiamo esattamente
> quali "spazi" la natura abbia esplorato, tantomeno sappiamo
> dire che spazi sapremo esplorare noi.
Devo darti assolutamente ragione. Se miliardi di anni non
sono bastati a far si' che le piante imparassero a sfruttare
l'azoto atmosferico, vuol dire che dall'evoluzione ci si puo`
davvero aspettare miopie di ogni genere e grado.
> ho qualche sospetto però che anche l'interazione con l'input
> debba poter essere FISICA.
In generale, a un'intelligenza capace di superare un test di
Turing servono informazioni e pure tante. Non mi sembra pero`
importante quanto siano "dirette".
>> Sono convinto che il cervello
>> abbia una topologia di rete piuttosto complessa, codificata
>> in buona parte nel DNA.
>
> questo passo è forse un po' fuorviante se letto da qualcuno
> che non abbia idea di quali aspetti siano hard-coded.
Si', certo.
> In realtà probabilmente il DNA contiene solo leggi
> evolutive, come per i frattali, che si contestualizzano solo
> in condizioni operative concrete, non hard coded ma
> ambientali, durante l'embriogenesi. Quindi non contiene
> molte informazioni "di stato", di target strutturale, ma
> appunto informazioni relativizzate, di montaggio.
Potrei dire la stessa cosa di un file compresso; potrei dire
che contiene istruzioni di montaggio che producono i dati
espansi solo nello specifico ambiente costituito dal software
di decompressione. Di un file eseguibile potrei dire che
contiene istruzioni che solo l'opportuno hardware o software
potra` usare. Potrei dire la stessa cosa di praticamente
qualunque blocco di dati. L'informazione e` sempre codificata
in funzione del sistema che la dovra` interpretare. Come
programmatore non posso che darlo per scontato.
> Semplicemente per un discorso quantitativo, l'architettura
> cerebrale può essere descritta solo con un numero di
> informazioni enormemente superiore a quelle rappresentabili
> con i tre miliardi e rotti di basi.
Certo, non sto mica dicendo che il DNA codifichi i
collegamenti di ogni singolo neurone, uno per uno; penso
pero` che codifichi una specie di diagramma a blocchi
dettagliato, con la struttura di base di ogni blocco e i suoi
collegamenti di massima con gli altri.
>> Del resto, se l'intelligenza fosse
>> solo una questione di numero di neuroni, gli elefanti
>> sarebbero molto piu' intelligenti di noi.
>
> beh, consideriamo cmq che in animali confrontabili
> evolutivamente, esiste anche una correlazione con la massa
> corporea. Non tutto l'encefalo è deputato ad attività
> ritenute "nobili" come le funzioni più elevate.
Appunto: gia` la ripartizione a priori tra aree "nobili" e
"non nobili" va al di la` del paradigma della rete omogenea
autoorganizzante. Nessun dubbio che una rete neurale possa
autoorganizzarsi, ma entro certi vincoli iniziali che mi
aspetto siano parecchio dettagliati.
>> Certo, uno puo` sempre chiedersi se la mente umana sia o no
>> entro il "limite" computazionale di Turing,
>
> appunto ... tu come la pensi ? Io non lo so :(
Non vedo prove o indizi che non lo sia. Comunque, pretenderei
prove piuttosto forti.
>> [...] convincenti per un programmatore come me che
>> sa benissimo quali potenzialita` abbia una "banale" rete
>> neurale enorme come quella del nostro cervello.
>
> e come si stima, se non ne è mai esistita una artificiale
> paragonabile ?
La questione presenta due aspetti distinti. Uno e` quello
quantitativo: che potenza di calcolo ha una rete neurale come
quella del cervello? Qui, come giustamente dici, fare stime
e` difficile; tuttavia, proprio per questo, non vedo motivo
di pensare che la potenza di calcolo di una rete del genere
sia inadeguata allo scopo. Con poche decine di migliaia di
porte logiche si puo` gia` fare un microprocessore... qui ne
abbiamo miliardi.
L'altro aspetto e` qualitativo: c'e` chi (come forse anche
l'OP) pensa che la mente umana sia qualitativamente un
gradino piu' su di qualunque macchina, cioe` che nessun
computer, non importa come fatto e come programmato, per
quanto grande e potente, potra` mai fare quel che fa la mente
umana. A favore di quest'asserzione, che varia gente sembra
dare per scontata, non vedo il piu' piccolo indizio. La
storia dell'intelligenza artificiale ci dice che e` possibile
realizzare programmi come SHRDLU che dimostrano un buon grado
di intelligenza in contesti molto limitati. IMHO la
limitatezza del contesto e` una questione puramente
quantitativa, non qualitativa; in linea di teoria un
programma piu' complesso potrebbe gestire contesti piu' ampi.
Ciao
Paolo Russo
Received on Thu Feb 09 2012 - 21:08:03 CET
This archive was generated by hypermail 2.3.0
: Sat Jan 04 2025 - 04:23:35 CET