Regressione ed errore nel calcolo delle differenze

From: deltaquattro <deltaquattro_at_gmail.com>
Date: Sat, 30 Mar 2013 04:07:12 -0700 (PDT)

Ciao,


consideriamo il problema classico della regressione: ho due variabili X ed Y misurate sperimentalmente, e voglio stimare Y in base ai valori di X. Considerando per semplicit� il caso di regressione lineare, so che

(Y_est-mu_Y)/sigma_Y = r * (X-mu_X)/sigma_X


dove mu sono le medie, sigma le deviazioni standard ed r il coefficiente di correlazione. So anche che, supposti gli errori distribuiti normalmente, l'intervallo

[Y_est-2*sqrt(1-r^2)*sigma_Y, Y_est+2*sqrt(1-r^2)*sigma_Y]

contiene il valore reale di Y il 95% delle volte. Ho tre dubbi:





1. Come sono legate sigma_Y e la precisione del mio strumento di misura? Posso ridurre sigma_Y a piacere, aumentando il numero di prove ripetute, oppure non posso mai andare sotto un certo limite, legato alla precisione dello strumento? Immagino che la risposta dipenda dallo strumento: mi sembra impossibile poter misurare una lunghezza con accuratezza superiore al millimetro, usando un metro con tacche millimetriche, anche se ripeto la prova un sacco di volte. Ma per strumenti via via piu' complessi come voltmetri, termocoppie, trasduttori di pressione, ecc., magari le cose stanno in modo diverso.



2. Oltre che dalla calibrazione dello strumento, sigma_Y dipende da errori casuali, dovuti all'operatore, come il suo tempo di risposta nello schiacciare il bottone di un cronometro, oppure alle condizioni ambientali (es. oggi fa molto caldo e il pezzo di ferro da misurare si dilata). Questi errori sono certamente riducibili facendo pi� prove ripetute. Ci sono altri tipi di errore oltre a questi?




3. Se pure la precisione della misura di Y non potesse mai superare la precisione E dello strumento di misura (che mi sembra ragionevole), penso che l'errore nelle *variazioni* di Y possa essere ridotto a piacere. In altre parole, se stimo Y per due valori diversi di X, X2 ed X1, e faccio tendere X2-X1 a 0, ovviamente Y2_est-Y1_est tende a 0 con la stessa velocit�. Anche la differenza vera Y2-Y1 tende a 0. Pertanto l'errore nella stima della *differenza* non pu� essere limitata inferiormente da E: � giusto? In quali ipotesi vale questa conclusione?





L'origine di tutta questa discussione, per chi fosse interessato, � che lavoro in un team di numerici, e calibriamo dei codici di calcolo sui risultati forniti dal team sperimentale. Io sostengo che i codici,cos� calibrati, si possano utilizzare per studiare gli effetti sui parametri dipendenti, di piccole variazioni dei parametri indipendenti, molto pi� piccole delle variazioni usate nella calibrazione dei codici. Un collega del mio team invece ritiene che anche la precisione nella stima delle variazioni sia limitata dalla precisione delle misure sperimentali da cui i codici derivano. Io sostengo che dica una sciocchezza:


1. so per certo che a variazioni nulle dei parametri indipendenti corrisponde una variazione nulla dei parametri dipendenti, a prescindere dalla calibrazione. Per parametri indipendenti includo anche le condizioni ambientali, ovviamente.


2. se cos� fosse, sto dicendo che posso "fidarmi" dei codici per calcolare "grandi" variazioni, ma non "piccole"? Ma se tutta la teoria del calcolo numerico dice esattamente il contrario! (a meno di non arrivare all'epsilon macchina, ma sulle nostre macchine questo rischio non c'� :)

Cosa ne pensate? Grazie,

ciao

deltaquattro
Received on Sat Mar 30 2013 - 12:07:12 CET

This archive was generated by hypermail 2.3.0 : Wed Feb 05 2025 - 04:23:24 CET