Il 10/11/2016 20.41, Paolo Russo ha scritto:
> [Soviet_Mario:]
>> nella risposta a ADPUF ho postato il codice, con hard-wired
>> un esempio a caso, per vedere come gira. Se hai word,
>> potrebbe girare tal quale come macro, visto che non usa
>> nessuna libreria e solo una msgbox.
>
> Preferisco il C. Ho fatto un po' di prove. E` una media un
> po' strana:
>
> media(1 2 3 4)=2.5
> media(1 2 3 4.1)=2
> media(1 2 3 3.9)=2.99562
> media(1 2 3 5)=2
> media(1 2 3 5 5)=2
> media(1 2 3 5 5 5)=4.37915
> media(1 2 3 5 6)=2.40693
> media(1 2 3 6 6)=2
mi studierò bene i casi che hai gentilmente fornito !
Comparandoli con altri.
Una cosa interessante me l'hai fatta notare subito e
compenserò : ho pesato solo lo scarto, ma senza nessun
correttivo per LA NUMEROSITA' di un dato.
L'ultimo esempio (con il dato anomalo che però è ben il 40 %
di frequenza) mi segnala una debolezza a cui non avevo
pensato. Mi sarà molto utile questo tuo beta testing
>
> Premesso che non credo che esista una funzione piu' "giusta"
> di tutte le altre, perche' a rigore tutto dipende dalle
> assunzioni che fai sull'origine degli errori, cosi' a naso
> proverei a ordinare i dati (con un sort qualunque, anche un
> bubble sort alla peggio se non ne hai uno pronto di
> libreria), a eliminarne meta' (il quarto piu' basso e il
> quarto piu' alto, o forse eventualmente la meta` che si
> discosta maggiormente dalla mediana se ti aspetti che gli
> errori non siano equamente distribuiti in alto e in basso) e
> fare la media di quel che resta. Almeno non e` ricorsivo e le
> proprieta` matematiche sono piu' intuitive. Se ti sembra
> troppo drastico,
non so, ci penserò. Per adesso vorrei mettere correttivi per
la numerosità, perché una alta frequenza di un dato ne
attenua la potenziale anomalia.
Sarebbe anche meglio cercare di valutare gli scostamenti dai
dati più vicini e non solo rispetto alla media, per valutare
l'effettivo ISOLAMENTO dei dati.
Questo mi è venuto in mente grazie al brainstorming da te
innescato :)
> potresti assegnare pesi via via minori ai
> dati piu' estremi invece di eliminarli,
questo già lo fa
> lasciando peso 1 a
> tutta la zona centrale (pesando "a trapezio", diciamo), ma
> non sono molto sicuro che ne valga la pena: mediare su piu'
> dati aumenta la precisione ma non di molto e quindi penso che
> convenga solo se ci sono ragionevoli aspettative che i dati
> aggiuntivi non siano sballati. Dipende anche da quanti dati
> hai; con solo una decina sarebbe forse un po' drastico
> buttarne via meta`.
l'ordine è 25-35 dati
ciao e grazie
>
> Ciao
> Paolo Russo
>
--
1) Resistere, resistere, resistere.
2) Se tutti pagano le tasse, le tasse le pagano tutti
Soviet_Mario - (aka Gatto_Vizzato)
---
Questa e-mail è stata controllata per individuare virus con Avast antivirus.
https://www.avast.com/antivirus
Received on Mon Nov 14 2016 - 23:55:54 CET