Soviet_Mario ha scritto:
>> Si dice "iterativamente"?
>
> mmm, mi sbaglierò sicuramente io, ma informaticamente (anche
> se di fatto alla fine ho implementato con una routine
> iterativa perché usavo banalmente il VBA il cui debugger è
> ridicolo, e notoriamente le routine ricorsive ti annodano la
> memoria) mi pare più ricorsiva come struttura : prende in
> input il valore dello stadio precedente.
Intendevo che l'*altro* algoritmo (non quello che hai
descritto in precedenza) avrebbe avuto nome iterativo.
> Cmq ripeto, mi pare sia stato dimostrato che qualsiasi
> algoritmo "nativamente" ricorsivo, si può mappare in
> iterazioni, magari annidate, lineari con l'ausilio di
> qualche variabile di controllo (che poi è solo "visibile" e
> surroga lo stato come fa lo stack in modo trasparente,
> sicché non è nemmeno detto che l'uso della memoria sia meno
> efficiente)
Si', dato un algoritmo ricorsivo esiste sempre un equivalente
algoritmo iterativo.
...
> Allora può trattarsi di due scenari
> 1) errori di misura ma non necessariamente strumentali,
> bensì che possano includere, ma non spesso, errori grossolani
> 2) rilevazioni, laddove in campioni statistici, qualcuno sia
> tentato di barare sui dati per spostare la sua valutazione e
> truffare un algoritmo
Perche' il metodo ottimale di calcolo dovrebbe essere
uguale nei 2 casi?
...
> Si : in realtà sto migliorando un valutatore automatico di
> dati "auto-certificati", e laddove prima ottimizzavo i pesi
> solo a mano, ora sto cercando di rendere più auto-pesante
> l'algoritmo. Sicché ho la necessità di rendere più solide le
> medie, "ripulendole" per quanto possibile dall'influenza
> nefasta di dati taroccati o contenenti sviste di
> compilazione etc.
> Questo candita automaticamente i dati estremali. Che, nota,
> non è detto che siano per forza taroccati o errati (se no li
> avrei semplicemente esclusi !),
Quindi sei in grado di riconoscere i dati falsificati?!
> ma diciamo che invece i dati
> mediani sembrerebbero molto probabilmente dati privi degli
> errori suddetti (sicché devono venire sovrapesati in
> automatico).
Sara' vero, ma io continuo a non aver chiaro il problema.
...
> si, la ripidità della dipendenza era proprio uno degli
> aspetti su chiedevo consiglio.
E' difficile dare un consiglio senza avere chiaro il problema.
> su questo punto spero di avere chiarito meglio il contesto :
> depurare la popolazione di dati da errori grossolani e non
> variazioni fisiologiche o dati intenzionalmente taroccati.
Come sopra, non mi e' chiaro il problema.
...
> la numerosità è piccola : meno di 40 dati.
>
> Ora non ho word aperto e quindi non lancio la macro. Ma se
> vuoi posto sia il codice che due o tre log di prova.
Il codice a me servirebbe a poco senza sapere esattamente
(cioe' con un esempio *concreto*, non con i soli dati) quale
fosse il problema...
Scusa se per il momento sono stato di poco aiuto e se mi
sono ripetuto, ma non sono capace di dare una risposta
sensata in queste condizioni; aggiungo che pero' non
sono sicuro che anche se tu esplicitassi il problema allora
esisterebbe una "soluzione", o in subordine che io allora
sarei in grado di trovarla.
Ciao
--
Giorgio Bibbiani
Received on Wed Nov 09 2016 - 17:04:40 CET