Re: [semi-OT] "media pesata ... convergiuta" ?

From: Giorgio Bibbiani <giorgio_bibbianiTOGLI_at_virgilio.it.INVALID>
Date: Wed, 9 Nov 2016 17:04:40 +0100

Soviet_Mario ha scritto:
>> Si dice "iterativamente"?
>
> mmm, mi sbaglierò sicuramente io, ma informaticamente (anche
> se di fatto alla fine ho implementato con una routine
> iterativa perché usavo banalmente il VBA il cui debugger è
> ridicolo, e notoriamente le routine ricorsive ti annodano la
> memoria) mi pare più ricorsiva come struttura : prende in
> input il valore dello stadio precedente.

Intendevo che l'*altro* algoritmo (non quello che hai
descritto in precedenza) avrebbe avuto nome iterativo.

> Cmq ripeto, mi pare sia stato dimostrato che qualsiasi
> algoritmo "nativamente" ricorsivo, si può mappare in
> iterazioni, magari annidate, lineari con l'ausilio di
> qualche variabile di controllo (che poi è solo "visibile" e
> surroga lo stato come fa lo stack in modo trasparente,
> sicché non è nemmeno detto che l'uso della memoria sia meno
> efficiente)

Si', dato un algoritmo ricorsivo esiste sempre un equivalente
algoritmo iterativo.

...
> Allora può trattarsi di due scenari
> 1) errori di misura ma non necessariamente strumentali,
> bensì che possano includere, ma non spesso, errori grossolani
> 2) rilevazioni, laddove in campioni statistici, qualcuno sia
> tentato di barare sui dati per spostare la sua valutazione e
> truffare un algoritmo

Perche' il metodo ottimale di calcolo dovrebbe essere
uguale nei 2 casi?

...
> Si : in realtà sto migliorando un valutatore automatico di
> dati "auto-certificati", e laddove prima ottimizzavo i pesi
> solo a mano, ora sto cercando di rendere più auto-pesante
> l'algoritmo. Sicché ho la necessità di rendere più solide le
> medie, "ripulendole" per quanto possibile dall'influenza
> nefasta di dati taroccati o contenenti sviste di
> compilazione etc.
> Questo candita automaticamente i dati estremali. Che, nota,
> non è detto che siano per forza taroccati o errati (se no li
> avrei semplicemente esclusi !),

Quindi sei in grado di riconoscere i dati falsificati?!

> ma diciamo che invece i dati
> mediani sembrerebbero molto probabilmente dati privi degli
> errori suddetti (sicché devono venire sovrapesati in
> automatico).

Sara' vero, ma io continuo a non aver chiaro il problema.

...
> si, la ripidità della dipendenza era proprio uno degli
> aspetti su chiedevo consiglio.

E' difficile dare un consiglio senza avere chiaro il problema.

> su questo punto spero di avere chiarito meglio il contesto :
> depurare la popolazione di dati da errori grossolani e non
> variazioni fisiologiche o dati intenzionalmente taroccati.

Come sopra, non mi e' chiaro il problema.

...
> la numerosità è piccola : meno di 40 dati.
>

> Ora non ho word aperto e quindi non lancio la macro. Ma se
> vuoi posto sia il codice che due o tre log di prova.

Il codice a me servirebbe a poco senza sapere esattamente
(cioe' con un esempio *concreto*, non con i soli dati) quale
fosse il problema...
Scusa se per il momento sono stato di poco aiuto e se mi
sono ripetuto, ma non sono capace di dare una risposta
sensata in queste condizioni; aggiungo che pero' non
sono sicuro che anche se tu esplicitassi il problema allora
esisterebbe una "soluzione", o in subordine che io allora
sarei in grado di trovarla.

Ciao
-- 
Giorgio Bibbiani
Received on Wed Nov 09 2016 - 17:04:40 CET

This archive was generated by hypermail 2.3.0 : Fri Nov 08 2024 - 05:09:56 CET