Ajuste por Mínimos Cuadrados: Conceptos y Aplicaciones en Topografía

Clasificado en Matemáticas

Escrito el en español con un tamaño de 8,38 KB

Ajuste por Mínimos Cuadrados

El ajuste por mínimos cuadrados minimiza los efectos de los errores aleatorios utilizando observaciones, parámetros, residuos y constantes para establecer un modelo funcional.

Métodos Fundamentales del Ajuste por Mínimos Cuadrados

  • Igual precisión: (ô = vt * v -> ô = v12 + v22 + ...)? v12 = mínimo
  • Distinta precisión: (ô = vt * p * v)
  • Paramétrico: Se plantean tantas ecuaciones como observaciones. Pueden aparecer parámetros, observaciones, residuos y constantes. El número mínimo de parámetros coincide con el número de observaciones. Solo hay una observación por ecuación. Todas las ecuaciones son lineales. [v(0, 1); A(n, n0); x(no, 1); L(n, 1)]
  • Ecuación de condición: Tantas ecuaciones como observaciones redundantes. Deben aparecer residuos, observaciones y constantes. Las ecuaciones deben ser lineales. [B(r, n); V(n, 1); D(r, 1)]

Modelo Matemático y Estocástico

  • Matemático: Toda observación tiene errores aleatorios, son inevitables y se usa el ajuste para minimizarlos (el número mínimo de observaciones es igual a una solución única).
  • Estocástico: Evalúa las observaciones que experimentan las observaciones (estadística y probabilidad). El valor que toman las variables depende de la precisión requerida.

Conceptos

  • Peso: Valor por el que se multiplica cada observación, según su precisión, para que en el resultado importen las observaciones más precisas. Es adimensional y está relacionado con la precisión.
  • Varianza: Mide la dispersión de las observaciones. Tiene una relación inversa con la precisión (+ dispersión - precisión).
  • Covarianza: Valor que expresa la correlación entre dos o más observaciones (p = ?02 / ?2).
  • Matriz varianza-covarianza: Tiene como diagonal principal todas las varianzas de las observaciones y el resto son covarianzas. Se convierte en matriz de varianza cuando no hay correlación entre las observaciones, siendo la diagonal principal las varianzas y el resto 0.
  • Matriz de pesos: Diagonal principal formada por los pesos de las observaciones y los demás elementos son 0.
  • Matriz cofactor: Inversa de la matriz de pesos. Se obtiene dividiendo cada término de ? por la varianza de referencia.
  • Relación entre matriz de covarianza y matriz de pesos: La matriz de pesos puede ser no diagonal en caso de que haya correlación entre las diagonales (?ll = ?02 * Qll -> como Qll = Pll-1 -> ?ll = ?02 * pll-1 -> Pll = ?02 * ?ll-1).
  • Varianza de referencia a posteriori: (?02 = (vt * p * v) / r)

Ley de Propagación de Varianzas-Covarianzas

  • Caso lineal: Determinar la matriz de covarianza del vector Y que es función lineal de un vector aleatorio X. Cada matriz de covarianza se conoce. Y = xa; y(m, 1); A(m, n); x(n, 1). ?yy = E[(y - E[y]) * (y - E[y])t]. Sabemos que E[y] = AE[x], entonces: ?yy = E[(Ax - AE[x]) * (Ax - AE[x])t] = E[A(x - E[x]) * (x - E[x])t * At] = AE[(x - E[x])(x - E[x])t] * At. ?yy = A * ?xx * At
  • Caso no lineal: Es una variable aleatoria que es una función no lineal de otra variable X. Y = g(x). Hay que linealizar la función a partir del valor inicial X0: [y = G(x0) + (dG/dX)0 * (x - x0)]. Y la función lineal queda [y = G(x0) + J(x - x0)]. J (matriz jacobiana de y respecto a x calculada en X0). E[y] = E[G(x0) + J(x - x0)] = G(x0) + J(E[x] - x0); Y - E[y] = G(x0) + J(x - x0) - G(x0) - J(E[x] - x0) = J(x - E[x]); ?yy = E[J(x - E[x]) * (x - E[x])t * Jt] = JE[(x - E[x]) * (x - E[x])t]; ?yy = J * ?xx * Jt

Elipse de Error

Elipse de error estándar centrada en el origen (2 métodos)

  1. Rotación de ángulo ©: Se considera la matriz de covarianza, e igualando términos:
    1. ?x´2 = ?x2 * cos2© + 2?xy * sen© * cos© + ?y2 * sen2©
    2. ?y`2 = ?x2 * sen2© - 2?xy * sen© * cos© + ?y2 * cos2©
    3. © = (?y2 - ?x2) * sen© * cos© + ?xy(cos2© - sen2©)
    tg2© = (2?xy) / (?x2 - ?y2); eliminando ©: ?x` = ?(a + b); ?y` = ?(a - b)
  2. Diagonalización de la matriz de covarianza de los parámetros (?xx): Siendo A una matriz cuadrada (nxn), tenemos que llegar a valores de q que satisfagan la condición [Ax = @x?(A - @i) = 0; |A - @i| = 0]. Desarrollando el determinante se obtiene la ecuación característica. Estas raíces @1, @2... @n, son valores propios y formarán con el polinomio los ejes de la elipse. © lo hallaremos con la ecuación anterior. tg2© = (2?xy) / (?x2 - ?y2)

Elipse de error asociada a una cierta probabilidad

Se consideran incorrelacionados los errores aleatorios en x, y. Si son correlacionados, se transforman en incorrelacionados rotando el ángulo ©. Suponemos p = 0, la elipse de error será [(x/?x)2 + (y/?y)2 = c2]. Como x, y son variables aleatorias independientes normalmente distribuidas [u = (x´/?x´)2 + (y´/?y´)2] que sigue una distribución chi-cuadrado con 2 grados de libertad y función de densidad [f(u) = (e-u/2) / 2]. (c = altura a la que cogemos la distribución normal tridimensional). La probabilidad de que la posición dada por x, y esté en el interior de la elipse es: P[(x/?x)2 + (y/?y)2 ? c2] = P[u2 ? c2] = âoc2(e-(u/2)du) = 1 - e-c2/2 = P. (semieje mayor: ?x`` = c * ?x`) (semieje menor: ?y`` = c * ?y`).

Familia de Elipses de Error y Estándar

La ecuación que representa todas las elipses de error posibles centradas en el origen se conoce como familia de elipses de errores. [(x/?x)2 - 2P(x/?x) * (y/?y) + (y/?y)2 = (1 - p2) * c2]. Si c = 1, se obtiene la ecuación de la elipse de error estándar. El tamaño y la orientación de la elipse dependen de los parámetros ?x, ?y, ?z. Se utiliza en topografía para determinar el intervalo de confianza y obtener la posición estándar de los puntos.

Deducción de la Matriz Varianza-Covarianza

Deducir la matriz de covarianza de los residuos (ecuación de condición)

V = Q * bt * k; k = -Qe-1 = -Pe * D; Qkk = -Pe * Qdd * (-Pe)t; Qkk = Pet = Pe // Qvv = Q + Bt * Qkk * (QBt)t = QBt * Qe-1 * BQ // ?vv = ?02 * Qvv = ?02 * QBt * Qe-1 * BQ

Deducir la expresión de la matriz varianza-covarianza asociada al vector de residuos (paramétrico)

x = N-1t // Qxx = N-1 * Qtt(N-1)t = N-1N(-N-1)t = N-1 // t = At * p * L // Qtt = (At * P) * Qee(At * p)t = At * P * A = N // ?xx = ?02 * Qxx = ?02 * N-1. ?LL = ?02 * QLL; BV + d = 0; Q = QLL // d = B * L - L0 ? Qdd = B * QLL * Bt = NB // K = -NB-1

Entradas relacionadas: