English español
Search
 

Repositorio de la Universidad de Oviedo. > Producción Bibliográfica de UniOvi: RECOPILA > Tesis >

Please use this identifier to cite or link to this item: http://hdl.handle.net/10651/13880

Title: Análisis y resolución numérica de un problema inverso en geofísica medioambiental. Aplicación al caso de los sondeos eléctricos verticales
Author(s): Fernández Álvarez, José Paulino
Advisor: Fernández Martínez, Juan Luis
Menéndez Pérez, César Omar
Other authors: Explotación y Prospección de Minas, Departamento de
Issue date: 26-Jul-2004
Format extent: 233 p.
Abstract: En este trabajo se pretende analizar un problema inverso, en geofísica resistiva, bajo la modalidad denominada Sondeos Eléctricos Verticales (S.E.V). En particular se ha escogido el método Schlumberger por su extendido uso y larga tradición práctica. El método resistivo concibe el terreno como un circuito eléctrico, estrictamente disipativo, caracterizado por la distribución de las resistividades de las distintas zonas. En la versión más comúmente conocida de los S.E.V, las capas de distinta resistividad se disponen estratificadamente y, a partir de los valores de sus espesores y resistividades se pretende calcular el dato. En este método los datos se denominan resistividades aparentes debido a su carácter de promedios -a distintas profundidades- de los valores correctos de resistividades del terreno. En este trabajo el problema directo se formula estableciendo (Koefoed) la relación los parámetros del modelo y las resistividades aparentes mediante una integral de convolución en la cual la función de entrada depende de modo no lineal de los parámetros. El valor de la misma puede ser calculado usando unas relaciones de recurrencia (Pekeris). El cálculo efectivo de la resistividad aparentes se realiza utilizando un filtro aproximado discreto que procede de la discretización de la citada integral. La necesidad práctica de efectuar comparaciones entre los datos predichos y los observados y de comparar distintos tipos posibles de terrenos –contrastando sus parámetros identificativos- aconsejan, y así se explica, dotar de la estructura de espacio vectorial tanto al conjunto de datos como al de parámetros y proceder en ellos a la construcción de normas de las cuales se deriven la posibilidad de medir distancias. En este trabajo se examina la utilización de diferentes tipos de normas, su interpretación en caso de adoptar un enfoque estadístico y su uso para decidir la tipología de los errores (relativos, absolutos) y para cuantificar algunas características relevantes del modelo. Se aportan reflexiones sobre el propio concepto de problema inverso. Se parte la idea más clásica que concibe la solución en términos de la estimación de un único modelo sobre el que debe basarse la toma de decisiones. Como para cada conjunto de medidas se obtiene un modelo solución y dado que los datos están afectados de error aleatorio, las estimaciones pueden ser consideradas como una variable aleatoria que, además, se caracteriza por poseer gran dispersión. Es por tanto pertinente recurrir a los marcos estadísticos —tanto frecuentistas como bayesianos- para describir algunos aspectos del comportamiento de la solución. A la luz del primero de ellos, tendría sentido valorar sesgos, dispersiones e intervalos de confianza para cuantificar el grado de desviación de la estimación respecto de la solución no perturbada. En el segundo, las distribuciones a posteriori son el concepto matemático donde se combina la información a priori y las incertidumbres de los datos. Se plantea que el conocimiento de éstas es posible en el grado suficiente como para permitir el apoyo de la toma de decisiones. El control de las inestabilidades precisa poder vehicular la información a priori para restringir las variaciones en la solución. En este trabajo se explica la traducción de dicha información en términos matemáticos. Esto se ha hecho de dos formas diferentes: a) utilizando la estructura de espacio afín y las posibilidades de reparametrización -en particular la logarítmica- del espacio de modelos. b) Utilizando las normas (y seminormas). En este trabajo se examina la estructura de los métodos locales de optimización, los algotimos más comúnmente utilizados y se explica -en ese contexto- en qué consiste la linealización. Se observará cómo la matriz jacobiana de la aplicación diferencial de la aproximación lineal de cada etapa iterativa juega un papel esencial en el análisis de las inestabilidades citadas, lo que justificará la gran atención dedicada al análisis del problema lineal. Dicho análisis se llevará a cabo utilizando herramientas del álgebra numérica como la descomposición en valores singulares y la descomposición generalizada en valores singulares. La primera sólo maneja información referente a los datos y a la estructura del problema. La segunda, además, permite manejar también la información a priori. Se examinan las distintas tipologías de sistema lineal que pueden presentarse, ilustrándolas con ejemplos prácticos. Hay dos posibilidades de escoger la incógnita del problema: O bien el propio modelo o bien el incremento del mismo. Esta elección tiene grandes repercusiones en la forma en la que la información a priori produce estabilización. Tras haber presentado y analizado los métodos de regularización, se realiza una comparativa para diferentes casos. Los métodos locales de optimización tienen el problema de la posible convergencia a mínimos locales. La alternativa es utilizar los métodos globales de optimización. Tras realizar una breve introducción a los mismos, se analiza n en detalle dos de ellos: simulated annealing (S.A) y algoritmos genéticos (A.G). En este trabajo se han puesto a punto los programas precisos para su análisis numérico. Además de mostrar su capacidad de encontrar los mínimos locales, han demostrado la -aun más útil- propiedad de muestrear las denominadas regiones de equivalencia. Estas son, por así decirlo, el conjunto de todas las soluciones compatibles con los datos obtenidos y otras informaciones, dentro de cierta tolerancia especificada. En este trabajo se explora la posibilidad de utilizar los algoritmos genéticos para proceder a un muestreo de esta zona de acuerdo con la distribución de probabilidades a posteriori. Para ello se ha utilizado el método de simulated annealing con la función de aceptación de Gibbs-Boltzmann como fondo teórico de contraste. La caracterización del fenómeno de la equivalencia se aborda también en este trabajo. Se analiza su origen y se explican las reglas tradicionalmente enunciadas en términos algebraicos que permiten la identificación de aquellas con los resultados de la aproximación lineal. Posteriormente se realiza una comparación entre dichas zonas vía aproximación lineal o vía solución no lineal. El trabajo realizado con la información a priori permite encontrar modelos linealmente equivalentes que cumplan ciertas restricciones deseables
URI: http://hdl.handle.net/10651/13880
Identifier: https://www.educacion.gob.es/teseo/mostrarRef.do?ref=307629
http://www.minas.upm.es/fundacion/jgs/images/pdf/otros/2005/JPFernandez.pdf
Local notes: Tesis 2004-045
Appears in Collections:Tesis

Files in This Item:

There are no files associated with this item.



Exportar a Mendeley


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.

 

Base de Datos de Autoridades Biblioteca Universitaria Consultas / Sugerencias