Re: [semi-OT] "media pesata ... convergiuta" ?

From: Soviet_Mario <SovietMario_at_CCCP.MIR>
Date: Wed, 09 Nov 2016 19:35:29 +0100

Il 09/11/2016 17.04, Giorgio Bibbiani ha scritto:
> Soviet_Mario ha scritto:

CUT


> ...
>> Allora può trattarsi di due scenari
>> 1) errori di misura ma non necessariamente strumentali,
>> bensì che possano includere, ma non spesso, errori grossolani
>> 2) rilevazioni, laddove in campioni statistici, qualcuno sia
>> tentato di barare sui dati per spostare la sua valutazione e
>> truffare un algoritmo
>
> Perche' il metodo ottimale di calcolo dovrebbe essere
> uguale nei 2 casi?

In realtà non so nemmeno SE, sicché a maggior ragione non
saprei PERCHE'.
Però forse è un problema leggero, perché non è tanto la
ragione dell'errore sul dato la fonte della valutazione, ma
solo la posizione del dato rispetto alla media la ragione
della suo pesatura differenziata.

Cmq se hai considerazioni, volentieri le considererei.

>
> ...
>> Si : in realtà sto migliorando un valutatore automatico di
>> dati "auto-certificati", e laddove prima ottimizzavo i pesi
>> solo a mano, ora sto cercando di rendere più auto-pesante
>> l'algoritmo. Sicché ho la necessità di rendere più solide le
>> medie, "ripulendole" per quanto possibile dall'influenza
>> nefasta di dati taroccati o contenenti sviste di
>> compilazione etc.
>> Questo candita automaticamente i dati estremali. Che, nota,
>> non è detto che siano per forza taroccati o errati (se no li
>> avrei semplicemente esclusi !),
>
> Quindi sei in grado di riconoscere i dati falsificati?!

assumo che quanto più si rendono sospetti automaticamente
debbano venire pesati meno.
Si tratta di attività omogenee fatte da più persone che
hanno una dispersione fisiologica, ma anche a colpo d'occhio
se vedi un numero solitario e tanto lontano dagli altri, o è
taroccato, o contiene un errore grossolano, con buona
probabilità

>
>> ma diciamo che invece i dati
>> mediani sembrerebbero molto probabilmente dati privi degli
>> errori suddetti (sicché devono venire sovrapesati in
>> automatico).
>
> Sara' vero, ma io continuo a non aver chiaro il problema.

beh sono rilevazioni relative alla tenuta di quaderni di
lavoro di persone diverse, valutati relativamente ad
indicatori rilevati (e autocertificati, salvo controlli
campione a posteriori). Dovrebbero avere come base di
partenza comune quel che scrivo alla lavagna, più parti
variabili (tendenti a zero) di quel che dico a voce
commentandolo diciamo. Ed eventuali aggiunte personali, non
vietate, e rare come mosche bianche.

>
> ...
>> si, la ripidità della dipendenza era proprio uno degli
>> aspetti su chiedevo consiglio.
>
> E' difficile dare un consiglio senza avere chiaro il problema.

ok. Non lo so spiegare bene, ma grazie lo stesso

>
>> su questo punto spero di avere chiarito meglio il contesto :
>> depurare la popolazione di dati da errori grossolani e non
>> variazioni fisiologiche o dati intenzionalmente taroccati.
>
> Come sopra, non mi e' chiaro il problema.
>
> ...
>> la numerosità è piccola : meno di 40 dati.
>>
>
>> Ora non ho word aperto e quindi non lancio la macro. Ma se
>> vuoi posto sia il codice che due o tre log di prova.
>
> Il codice a me servirebbe a poco senza sapere esattamente
> (cioe' con un esempio *concreto*, non con i soli dati) quale
> fosse il problema...
> Scusa se per il momento sono stato di poco aiuto e se mi
> sono ripetuto, ma non sono capace di dare una risposta
> sensata in queste condizioni; aggiungo che pero' non
> sono sicuro che anche se tu esplicitassi il problema allora
> esisterebbe una "soluzione", o in subordine che io allora
> sarei in grado di trovarla.

no figurati, mi sono spiegato evidentemente male, mi spiace
averti fatto perdere tempo semmai

>
> Ciao
>


-- 
1) Resistere, resistere, resistere.
2) Se tutti pagano le tasse, le tasse le pagano tutti
Soviet_Mario - (aka Gatto_Vizzato)
---
Questa e-mail è stata controllata per individuare virus con Avast antivirus.
https://www.avast.com/antivirus
Received on Wed Nov 09 2016 - 19:35:29 CET

This archive was generated by hypermail 2.3.0 : Fri Nov 08 2024 - 05:09:56 CET