Re: [semi-OT] "media pesata ... convergiuta" ?

From: Soviet_Mario <SovietMario_at_CCCP.MIR>
Date: Mon, 14 Nov 2016 23:55:54 +0100

Il 10/11/2016 20.41, Paolo Russo ha scritto:
> [Soviet_Mario:]
>> nella risposta a ADPUF ho postato il codice, con hard-wired
>> un esempio a caso, per vedere come gira. Se hai word,
>> potrebbe girare tal quale come macro, visto che non usa
>> nessuna libreria e solo una msgbox.
>
> Preferisco il C. Ho fatto un po' di prove. E` una media un
> po' strana:
>
> media(1 2 3 4)=2.5
> media(1 2 3 4.1)=2
> media(1 2 3 3.9)=2.99562
> media(1 2 3 5)=2
> media(1 2 3 5 5)=2
> media(1 2 3 5 5 5)=4.37915
> media(1 2 3 5 6)=2.40693
> media(1 2 3 6 6)=2

mi studier� bene i casi che hai gentilmente fornito !
Comparandoli con altri.

Una cosa interessante me l'hai fatta notare subito e
compenser� : ho pesato solo lo scarto, ma senza nessun
correttivo per LA NUMEROSITA' di un dato.
L'ultimo esempio (con il dato anomalo che per� � ben il 40 %
di frequenza) mi segnala una debolezza a cui non avevo
pensato. Mi sar� molto utile questo tuo beta testing

>
> Premesso che non credo che esista una funzione piu' "giusta"
> di tutte le altre, perche' a rigore tutto dipende dalle
> assunzioni che fai sull'origine degli errori, cosi' a naso
> proverei a ordinare i dati (con un sort qualunque, anche un
> bubble sort alla peggio se non ne hai uno pronto di
> libreria), a eliminarne meta' (il quarto piu' basso e il
> quarto piu' alto, o forse eventualmente la meta` che si
> discosta maggiormente dalla mediana se ti aspetti che gli
> errori non siano equamente distribuiti in alto e in basso) e
> fare la media di quel che resta. Almeno non e` ricorsivo e le
> proprieta` matematiche sono piu' intuitive. Se ti sembra
> troppo drastico,

non so, ci penser�. Per adesso vorrei mettere correttivi per
la numerosit�, perch� una alta frequenza di un dato ne
attenua la potenziale anomalia.

Sarebbe anche meglio cercare di valutare gli scostamenti dai
dati pi� vicini e non solo rispetto alla media, per valutare
l'effettivo ISOLAMENTO dei dati.

Questo mi � venuto in mente grazie al brainstorming da te
innescato :)

> potresti assegnare pesi via via minori ai
> dati piu' estremi invece di eliminarli,

questo gi� lo fa

> lasciando peso 1 a
> tutta la zona centrale (pesando "a trapezio", diciamo), ma
> non sono molto sicuro che ne valga la pena: mediare su piu'
> dati aumenta la precisione ma non di molto e quindi penso che
> convenga solo se ci sono ragionevoli aspettative che i dati
> aggiuntivi non siano sballati. Dipende anche da quanti dati
> hai; con solo una decina sarebbe forse un po' drastico
> buttarne via meta`.

l'ordine � 25-35 dati
ciao e grazie

>
> Ciao
> Paolo Russo
>


-- 
1) Resistere, resistere, resistere.
2) Se tutti pagano le tasse, le tasse le pagano tutti
Soviet_Mario - (aka Gatto_Vizzato)
---
Questa e-mail � stata controllata per individuare virus con Avast antivirus.
https://www.avast.com/antivirus
Received on Mon Nov 14 2016 - 23:55:54 CET

This archive was generated by hypermail 2.3.0 : Sun Apr 13 2025 - 04:04:46 CEST