Il lavoro studia le distribuzioni iniziali su un parametro continuo che soddisfano a due criteri di "non informatività". Il primo suggerisce di massimizzare, per ogni osservazione X=x, una misura di divergenza fra la distribuzione iniziale e quella finale del parametro; il secondo di massimizzare la mutua informazione fra X e il parametro. Al fine di precisare e rendere operativi tali criteri si utilizza una definizione di divergenza e informazione che richieda solo la conoscenza della legge di probabilità (finitamente additiva) rilevante. Si dimostra che, sotto condizioni tipicamente soddisfatte dalle distribuzioni iniziali, se queste sono improprie e le finali proprie, la misura di divergenza è infinita. Questo risultato non sempre vale invece nel caso della mutua informazione, come mostrano alcuni esempi.
Distribuzioni iniziali improprie nell'inferenza bayesiana ed indici di divergenze e informazione
VERONESE, PIERO
1990
Abstract
Il lavoro studia le distribuzioni iniziali su un parametro continuo che soddisfano a due criteri di "non informatività". Il primo suggerisce di massimizzare, per ogni osservazione X=x, una misura di divergenza fra la distribuzione iniziale e quella finale del parametro; il secondo di massimizzare la mutua informazione fra X e il parametro. Al fine di precisare e rendere operativi tali criteri si utilizza una definizione di divergenza e informazione che richieda solo la conoscenza della legge di probabilità (finitamente additiva) rilevante. Si dimostra che, sotto condizioni tipicamente soddisfatte dalle distribuzioni iniziali, se queste sono improprie e le finali proprie, la misura di divergenza è infinita. Questo risultato non sempre vale invece nel caso della mutua informazione, come mostrano alcuni esempi.I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.