CAP VI compensazione rigorosa PDF

Title CAP VI compensazione rigorosa
Course Topografia e cartografia
Institution Università degli Studi di Catania
Pages 12
File Size 271 KB
File Type PDF
Total Downloads 29
Total Views 142

Summary

compensazione rigorosa - appliacazioni alla topografia...


Description

CAPITOLO VI

COMPENSAZIONI RIGOROSE

Capitolo VI

COMPENSAZIONI RIGOROSE

1 - Metodo delle osservazioni indirette E’ noto che alcune grandezze quali le coordinate, le quote, ecc. vengono determinate indirettamente in funzione di altre grandezze (distanze, angoli, dislivelli) che possono essere direttamente misurate sul terreno con strumentazione specifica, ovvero a loro volta ricavate indirettamente tramite ulteriori grandezze misurate (misure indirette). In tal caso è possibile scrivere delle relazioni che legano le grandezze incognite a quelle direttamente misurabili, del tipo: fi (X 1, X 2,..........., X m / Li , M i , N i , ) 0

i = 1,2,……n

(1.1)

Citiamo ad esempio le equazioni planimetriche (non lineari) che legano le coordinate X,Y con i valori delle distanze e/o degli angoli orizzontali: dij 

( X i  X j  ( Yi  Y j ) 0

 (X  X j) (X  X j )  arctg k  i   arctg i  0 (Yi  Yj ) (Yk  Y j )  

ovvero la più semplice relazione altimetrica lineare:

Q j  .Qi  ij 0

In entrambi i casi è necessario che il numero n delle relazioni (equazioni alle misure) sia maggiore del numero delle incognite (coordinate e/o quote) n>m. 0) Supposti noti i valori approssimati X1(0m) , X20 m,........., X (mm ricavabili da un gruppo (m) qualunque delle (n) misure, si pone: X 1m  X 1( 0m)  x1

(0) , X 2 m  X 2(m0 )  x2 ,………, X mm  X mm  xm

(1.2)

avendo indicato con xi le correzioni (quantità abbastanza piccole da poter ritenere trascurabili i quadrati e le potenze superiori) Introducendo le (1.2) nelle (1.1) si ha: ( 0) f i ( X (im0 )  x1 , X 2( 0m)  x2 ,..........., X mm  xm / Li, Mi, Ni , ) 0

(1.3)

Sviluppando la (1.3) in serie ed arrestando i termini a quelli lineari si ottiene:

 f i   f i   x1   x2  …    X 1  0  X 2  0 (0 ) / Li , M i , Ni , ) 0  f i (X1(0m) , X 2(m0 ),..........., X mm

 f    i  xm  X m  0

ponendo:  f  f   f  a i   i  , bi  i  , …, mi  i X X  X m  10   2 0

   0

( 0) Ti  fi ( X1( 0m) , X2 (m0 ),..........., Xmm / Li , Mi , Ni )

dove Ti indica uno o più elementi noti (che in questo caso sono misure indirette di determinate grandezze dedotte da misure dirette di altre grandezze), si ottiene il sistema lineare

a1 x1  b1 x2  c1 x3  ............  m1 xm T1 a2 x1  b2 x2  c2 x3 ..........  m2 xm T2

………………………………. an x1  bn x2  cn x3  ..........  mn xm Tn

(1.4)

che può essere scritto in forma matriciale attraverso: CX T

Si valutano le varianze dei termini noti attraverso la relazione (valida ove esiste indipendenza delle misure Li , M i , Ni ):

2



2 Ti

2

2

 f   f   fi  2  i   L2 i     M i   i   N2i   Li 0  Ni  0  M i  0

Se Li , M i , N i sono le stime delle grandezze osservate direttamente e valori che assumono in corrispondenza i termini Ti ,si ha:

Ti

i

(0 ) / Li , M i , N i ) Ti   f i ( X1(m0 ), X 2(0m) ,..........., X mm

e a1 x1  b1 x2  c1 x3  ............  m1 xm  T1  1 a 2 x  b2 x2  c1 x3  ............  m1 xm  T 1  1

(1.5)1

………………………………. an x 1  bn x 2  cn x 3  ............  mn xm  T

n

 n

si ottiene così un sistema di equazioni alle correzioni che in forma matriciale è dato da: CX  T V

Mentre il sistema delle equazioni generatrici (1.4) era iperdeterminato, il sistema generato (1.5) è indeterminato in quanto anche i  i sono delle incognite (si hanno pertanto n equazioni nelle m+n incognite). 1

Si noti che le equazioni (1.5) dette “equazioni alle misure” non possono essere uguali a zero sia perché i 0 valori Xim sono approssimati, sia perché le misure L i , M i , N i sono comunque affette da incertezza.

L’indeterminazione scompare se fra le infinite ( n m)  n m soluzioni si considerano i valori delle xi che godono delle più alta probabilità, ossia quelle soluzioni che, per il principio dei minimi quadrati, rendono minimi gli scarti: n

 p

2 i i

 min

(1.6)

i 1

Per la determinazione delle correzioni si procede in tale maniera: 2 • Si fissa un valore arbitrario  20 (a priori) e si valutano i pesi pi  02 /  T , per cui i coefficienti ed i termini noti della (1.5) saranno moltiplicati per le rispettive radici quadrate dei pesi. • Si ottiene successivamente il sistema normale unendo al sistema (1.5) le relazioni derivanti da (l.6): i

p i i 0 ; xi

pi i 0 ; x2

;……..;

p i i 0 ; xm

pari ad “m” relazioni che unite alle “n” relazioni (1.5) conducono al: “SISTEMA NORMALE” : NX=Q

(1.7)

dove:

  paa     pab  N  .........    pau  

N CPCT

 pab   pbb  .......

 pbu 

.......

 pam    pbm 

....... ....... .........   .......  pum 



   

 paT     pbT  Q   = . . . . .   puT   

 

Q TPC T

• Si risolve il sistema (1.7) e si ottengono le correzioni xi che sommate ai 0 valori approssimati X im danno le stime delle X i . 2 2 2 Qualora siano note la varianze  L , M , N , è possibile scrivere: i



2 Ti

 f  i  Li

2

i

2

i

2

  fi  2  f    L2i     Mi   i   2N i m  M i  m  N i  m

secondo la “Legge di Propagazione delle Varianze”. Essendo noti i pesi delle equazioni si procede al calcolo della stima  20 (a posteriori):

n

 p

2

i i

2 0

  i 1 n m

dove per la determinazione degli scarti i si introducono le correzioni ottenute nel sistema (1.5) Per cui si può ricavare l’incertezza delle correzioni trovate con:

2

2

 x i  0  kk

dove  kk sono gli elementi della diagonale principale della matrice inversa dei coefficienti del sistema normale (N  1 ).

La valutazione di  20 viene fatta anche se sono note le  T per stabilire la precisione delle particolari stime ottenute. Note le incertezze delle singole incognite (coordinate X i , Yi ovvero quote Qi è possibile valutare la figura geometrica denominata “ellisse di errore” (avente semiassi a,b e direzione del semiasse maggiore pari a φ) del singolo punto Pi attraverso le relazioni2: 2

i

1 1 a 2  ( 2x  2y )  ( 2y   2x )2  4 xy 2 2 1 1 b 2  ( x2  y2 )  ( 2y   x2 )2  4 xy 2 2

tan 2 

2 xy    2x 2 y

2 - Metodo delle osservazioni dirette condizionate Si consideri un insieme di punti uniti a due a due da segmenti di rette in modo da formare una serie di figure poligonali chiuse. La posizione relativa dei punti può essere definita misurando i lati e/o gli angoli di tali figure; si può vedere facilmente che, se p è il numero dei punti, per definirne la posizione relativa è sufficiente un numero s = 2p - 3 di misure di lati e/o di angoli. Infatti la misura di un solo lato definisce la posizione relativa di due punti, mentre occorrono altre due misure indipendenti per definire la posizione degli altri p - 2 vertici. Il totale di misure atte a definire completamente il sistema geometrico è quindi s = 2 (p — 2) + 1 = 2p - 3 Ogni misura di lato o di angolo che si esegue in più rispetto alle minime s indipendenti è esuberante e dà luogo ad una “condizione” a cui una parte o la totalità delle misure eseguite deve soddisfare. Nel caso altimetrico dell’esercizio n.3 per ogni linea chiusa di livellazione si può scrivere l’equazione: 2

Si noti che la presenza delle  xy (varianza-covarianza) del generico punto Pi che

implica la conoscenza delle relazioni mutue tra  x e  y di cui alle variabili casuali a due dimensioni.



i

0

se sono stati misurati n dislivelli corrispondenti agli n punti di cui si vogliono determinare le quote. Il numero minimo di misure è in tal caso n -1, e per ogni maglia chiusa è possibile scrivere una equazione di condizione. In generale considerato un sistema geometrico in cui è definibile un numero t qualsivoglia di grandezze e supposto che si siano misurate n grandezze X1, X2,...,Xn , dove il numero n è maggiore del numero s di grandezze, le cui misure sono atte a definire il sistema, sussisteranno r = n - s condizioni a cui le grandezze misurate X1, X2,….…Xn devono soddisfare, e che in generale possono esprimersi con le f i (X 1 ,X 2,..........., X n ) 0

i = 1,2,……r

(2.1)

Ad esempio la relazione angolare per un triangolo è del tipo:        0

ovvero per un poligono:



i

 (n  2) 0

In generale saranno n (numero delle grandezze misurate) > r (numero delle relazioni ovvero EQUAZIONI DI CONDIZIONE). Se supponiamo che le misure dirette delle grandezze X1, X2,..., Xn sono delle variabili casuali di tipo normale e se X1’, X2’….. Xn’ rappresentano dei valori estratti a caso dalle popolazioni di misure possibili relative ad X1, X2,..., Xn , per l’aleatorietà dei valori estratti si avrà:

f i (X '1 , X '2 ,..........., X 'n ) 'i

i = 1,2,……r

(2.2)

dove al residuo aleatorio ' i si può dare il nome di “errore di chiusura”. Consideriamo ora una grandezza A non misurata del sistema ed osserviamo che essendo n > s si possono configurare, fra le n grandezze misurate, gruppi

diversi di s grandezze indipendenti che danno “consistenza” al sistema. A è suscettibile di essere ricavata indirettamente da gruppi diversi di s misure; se le medie X 1m , X 2m ,..........X nm non soddisfano le r relazioni (2.1) avverrà che la media di A sarà definita in modo diverso a seconda del gruppo usato; se si può ammettere che a seconda del gruppo usato cambi la varianza di A , non si può ammettere che cambi la media diA E’ necessario quindi che le medie X 1m , X 2m ,..........X nm grandezze misurate direttamente soddisfino le condizioni (2.1); ciò si può ottenere correggendo ovvero “compensando” le n medie X 1m , X 2m ,..........X nm di quantità  i tali che: f i ( X 1 m  1, X 2 m  2,..........., X nm  n) 0

i = 1,2,……r

(2.3)

Si può notare subito che il problema di calcolare le n correzioni  i , è indeterminato dato che r < n; inoltre si può notare che fra le infinite maniere di determinare le correzioni  i ci può essere quella derivata dal principio di massima verisimiglianza con la quale si ottengono i valori “più plausibili” delle correzioni. Infatti in presenza delle r relazioni (2.1), il campione di n > r valori indipendenti X 1m , X 2m ,..........X nm è esuberante per la determinazione delle medie “compensate” X *1  X1m  1

,

X *2  X 2 m   2

,………,

X n* X nm   n

Supponiamo che gli scarti  i siano sufficientemente piccoli in modo da poterne trascurare i quadrati e le potenze superiori; sviluppando in serie le (2.3) si ha  f  f   f  i fi ( X1m , X 2 m ,......... .., X nm )   i   1   i  2  ....    X X X   2 m  1 m  n 

   0  n m

dove le derivate parziali sono calcolate con i valori delle stime X im poniamo:  f1   a 1   X1  m

 f 1   X 2

  a 2 m

..…..

 f 1   X n

   an m

per cui tenendo presenti le (2.2) otteniamo il sistema

a 1v 1  a 2v 2 ............  a n m  1 0 b1v 1  b 2v 2 ............  b n

m

  2 0

(2.4)

………………………………. r1v1  r2 v2  ............  rn vm   r 0

che prende nome di sistema di “equazioni di condizione delle correzioni”. La condizione che conduce alle stime più plausibili degli scarti  i risulta:



2 pi i min

dove

pi 

 20  2i

è il peso di ogni misura diretta, essendo  2i la relativa varianza. Dobbiamo trovare i valori  i che soddisfano le condizioni

a1v1  a 2v 2  ............  an xm   1 0 b1v1  b2v 2  ............  bn xm   2 0

………………………………. r1v1  r2v2  ............  rn v m   r 0

 p i

2 i

min

Si tratta di risolvere un problema di minimo condizionato ovvero di ricercare il minimo della funzione  pi i2 min fra i punti in cui sono verificate anche le r condizioni. Un metodo semplice di risolvere questo problema è quello dei moltiplicatori di Lagrange detto anche dei “correlativi”. Si può dimostrare che il minimo condizionato della funzione  pi i2 corrisponde al minimo della funzione

2 G( 1 , 2 ,..., n )  p a a K 2( b b 2  ...  bn n   2)  i i  K 1( a 1 1 2 2  .... n n   1)  1 1 2

 ......... K r( r1

1

 r 2

2

...... r n

n

 r )

dove K1, K2 ,......... , K r sono dei coefficienti indeterminati. Il minimo della funzione G ( 1 , 2,........., n ) si ha ovviamente quando G 0  1

,

G 0  2

, ………,

G 0  n

(2.5)

ovvero quando

p1 1  a 1 K1  b1 K 2  ..........  r1K r 0 p 2 2  a 2K 1  b 2K 2  ..........  r2K r 0

(2.6)

………………………….. pn n  a n K1  bn K2  ..........  rn Kr 0

Il complesso delle equazioni (2.4) e (2.6). note con il nome di equazioni correlanti, risolve il nostro problema; infatti la soluzione dipende dalle n + r equazioni nelle n + r incognite  1, 2 ,... n , K 1, K 2,...K r . Consideriamo ora il sistema (2.6), scritto nella seguente maniera p11 a 1K 1 b1K 2  ..........  r1 K r p 2 2 a 2 K1  b2 K 2  .......... r2 K r

………………………….. pn n a n K1  bn K2  ..........  rn Kr

Moltiplicando ambo i membri della prima equazione per a1 / p1 quello della seconda per a2 / p2 ……… quelli dell’ennesima per an / pn e sommando, analogamente, moltiplicando la prima per b1 / p1 , la seconda per b2 / p2 la ennesima per bn / pn ,e sommando e così via3 si ottiene un sistema lineare di r 3

E’ possibile scrivere il tutto in forma matriciale infatti la (2.4) può scriversi: AV + Δ = 0

inoltre indicata con K la matrice dei correlativi, con P quella dei pesi e con N la matrice normalizzata

(N AP  1A T ) si ottiene:

K  N  1

V P  1 AT K   P  1 AT N  1 

mentre la matrice varianza-covarianza è data da:

equazioni che contiene come incognite gli r correlativi chiamato sistema normale ai correlativi:

K2 + . ...      

 aa K  p  1   aa  K1   p 

 ar ab  K  .......... .    Kr  1  0 p  2  p  ar ab   K 2  .......... .    Kr  1  0 p   p

……………………………………  aa  ab   ar   K1    K 2  .......... .    Kr  1  0 p p      p

Calcolati i correlativi K1 , K2 ,...K r , si ricavano agevolmente dalle (2.6) le correzioni  1, 2,...n . Si può inoltre calcolare una stima della varianza dell’unità di peso

2

0 

1 n r

n

 p

2

i i

i 1

E’ quindi possibile verificare che la compensazione non solo elimina le incongruenze delle misure eseguite ma conduce ad una omogeneizzazione della precisione. Le misure compensate sono definite da distribuzioni che hanno una varianza minore delle corrispondenti misure dirette. Vi sono dei problemi di compensazione di misure che si possono risolvere utilizzando sia il metodo delle osservazioni indirette, che il metodo delle osservazioni dirette condizionate. Nei casi in cui il problema di compensazione trova soluzione in ambedue i metodi si può facilmente verificare che gli scarti delle equazioni alle misure coincidono con le correzioni fornite dalle equazioni correlanti.

U  02 ( P  1  P  1 AT N  1 AP 1...


Similar Free PDFs