Re: entropia e informazione

From: Soviet_Mario <SovietMario_at_CCCP.MIR>
Date: Thu, 24 Oct 2019 10:22:40 +0200

Il 23/10/19 23:57, Giorgio Pastore ha scritto:
> Il 23/10/19 23:17, Soviet_Mario ha scritto:
>> un generatore di numeri random VERO, ossia una sorgente di
>> entropia, produce informazione ?
>
> Di quale entropia parli?

non so se sia una definizione adatta, ma mi riferisco a
quella "informazionale" creata da un generatore di numeri
totalmente random : un flusso di dati non ulteriormente
comprimibile (penso con nessun algoritmo ... o cmq nessun
algoritmo può comprimere stringhe di dati di lunghezza
variabile e non nota, potenzialmente infinita, di tale sorgente)

>
> Quale definizione di informazione stai usando?

non saprei, non sapevo nemmeno ne servisse una. Qualcosa
tipo "1 generico bit", una successione generica di stati
01100101011001010 che potesse essere associata a qualsiasi
fenomeno generale

>
>
>> mi parrebbe di si, ma al contempo penserei che si tratti
>> di informazione inutile, pari al rumore bianco (che non si
>> può "comprimere" in modo lossless ma non serve ugualmente
>> a nulla)
>>
>> esiste un qualche indice qualitativo che descriva la
>> "qualità" (il pregio, diciamo) dell'informazione ?
>
>
> Finché non definisci l'informazione è un po' difficile anche
> ipotizzare una risposta.

è proprio questo l'oggetto del mio dubbio : se applicati a
informazioni "generiche" esistano indicatori oggettivi,
statistici, che consentano di valutarne la QUALITA' (la
quantità è, o almeno mi pare, ovvia : il numero di bit del
flusso di dati ridotto alla sua massima compressione e non
ulteriormente comprimibile, che penso rispecchi l'entropia
della sorgente dei dati stessa)

>
> La definizione quantitativa classica della teoria del'
> informazione associa l'informazione ad un evento che abbia
> probabilità p_i, come logaritmo dell' inverso della
> probabilità dell'evento ( I_i = -log(p_i) ). Questo dà un
> modo *quantitativo* di valutare l'informazione. Se vuoi
> considerare più "pregiata' un'informazione maggiore direi

no no il problema era proprio QUALITATIVO, se si potessero
discriminare flussi di dati in quel senso.

> che è una questione interpretativa ma non la vedo necessaria.

è un discorso che partiva molto lontano, che considerava
l'apprendimento, la differenza tra deduzione (che non
aggiunge mai vere informazioni) e l'origine dell'induzione,
che si cercava di ricondurre ad un input di qualche tipo
contenente "entropia", ma ora non lo so nemmeno riferire bene.

per qualche ragione molto oscura ho l'impressione che
l'input nel sistema elaborante, la mente (o rete neurale),
di dati totalmente random non contribuirebbe ad aumentare la
conoscenza, mentre gli input "naturali", che contengono sia
del rumore sia la footprint logica di fenomeni (quindi
aggiungono anche segnali con una certa struttura matematica
dentro al rumore) possano essere una fonte per l'induzione e
l'estensione dell'apprendimento

purtroppo non so spiegare che vagamente la cosa. L'idea
specificamente non è nemmeno mia (anche se avevo già pensato
alla cosa in altri termini e m'ero indipendentemente fatto
già l'idea che cmq un motore caotico potesse essere
necessario al pensiero, però più che pensare al discorso
della sorgente di entropia come FONTE dell'estensione delle
conoscenze mi ero più fatto attirare dal concetto di
attrattori strani, quelle entità che talvolta riescono a
emergere dal caos ed hanno una sorta di zona di stabilità
media).

è tutto estremamente nebuloso per me e non sono in grado di
formulare nemmeno domande ben precise.
Purtroppo il mio amico con cui ne parlavo non usa usenet e
talvolta mischio un po' le cose :)



>
> Giorgio


-- 
1) Resistere, resistere, resistere.
2) Se tutti pagano le tasse, le tasse le pagano tutti
Soviet_Mario - (aka Gatto_Vizzato)
Received on Thu Oct 24 2019 - 10:22:40 CEST

This archive was generated by hypermail 2.3.0 : Fri Nov 08 2024 - 05:09:58 CET