ELEMENTOS DE MATEMÁTICA ACTUARIAL SOBRE PREVISIÓN SOCIAL Y SEGUROS DE VIDA
Cargando
ANEXOS
Aplicaciones
Bibliografía
Enlaces de Interés

Creative Commons License
Esta obra está bajo una
licencia de Creative Commons.

Home - Anexos - Métodos de interpolación y ajuste

Atrás - Siguiente

I. MÉTODOS DE INTERPOLACIÓN Y AJUSTE

I.1. INTRODUCCIÓN

Es frecuente la necesidad de buscar funciones apropiadas a partir de datos que proceden de una población en la que se ha realizado un registro de informaciones o estudio estadístico, para que cumplan determinadas condiciones que nos interesen, como que sean continuas, derivables, etc. Con este objetivo trataremos de plantear distintos procedimientos para realizar la búsqueda de estas funciones, bien buscando una función que pase exactamente por una serie de puntos (función de interpolación) o bien que esa función elegida por nosotros se adapte lo mejor posible a una serie o a una nube de puntos (función de ajuste o regresión).

La finalidad del cálculo de las funciones de interpolación se centra en la necesidad de obtener valores intermedios (INTERPOLACIÓN) o de valores fuera del intervalo para el que se dispone de datos (EXTRAPOLACIÓN).

I.2. MÉTODOS DE INTERPOLACIÓN

Un problema clásico de la matemática, se plantea al querer calcular el valor de una función en un punto cuando no se conoce la función o incluso cuando la función no existe, conociéndose únicamente una serie de puntos. La resolución aproximada del problema consiste en encontrar una función fácil de construir y de evaluar, que coincide con la función objeto del problema con los datos de que se dispone. Se dice que la función así construida interpola a la función dada con respecto a los datos. 

Se trata de determinar fundamentalmente dos cosas: 

1. Los datos  que se desea que sean comunes a la función desconocida y a la función interpoladora

2. Que tipo de función se va a utilizar como función interpoladora o función de interpolación

I.2.1. Interpolación polinómica.

Se puede plantear como ejemplo lo siguiente: Sea f una función de una variable cuyo valor se conoce en n + 1 puntos: , llamaremos:

y se desea calcular su valor aproximado para una valor cualquiera de x.

La literatura matemática clásica, utiliza una función interpoladora de tipo polinómico de grado no mayor que n, siendo n el número de puntos conocidos menos uno.

I.2.1.1. Método matricial

Así, dada una función , de la que se conocen en n+1 puntos  . Se trata de buscar un polinomio de grado n que pase por los puntos de forma que:

las condiciones impuestas determinan que los coeficientes deben verificar: 

  para i = 0,1,....., n

la existencia y unicidad del sistema depende del determinante de Vandermonde siguiente:

que desarrollándolo, obtenemos: 

si los  son distintos, se tendrá  con lo que el sistema tendrá solución única. 

Expresándolo en forma matricial: 

  e    

, por tanto, despejando

Ejemplo

Construir el polinomio interpolador que pase por los puntos:  

construyendo la matriz: 

y el vector de ordenadas:   

 se comprueba que:

siendo su inversa:

Por tanto:

  obteniéndose el polinomio interpolador: 

Ahora bien, para obtener los polinomios de interpolación existen otros métodos, como los siguientes:

- Polinomios de Lagrange

- Polinomios de Interpolación parabólica progresiva.

- Polinomios de Newton.

- Polinomios de Gauss.

I.2.1.2. Métodos de Interpolación parabólica progresiva: 

El método de Interpolación parabólica progresiva es recurrente y se basa en la idea de utilizar la interpolación introduciendo progresivamente dos, tres, cuatro puntos, etc. Esto es: 

donde:

Ejemplo:

Construir el polinomio interpolador por el método de Interpolación parabólica progresiva, que pase por los puntos:  

Se construyen los polinomios introduciendo progresivamente los puntos, de la siguiente manera:

  -  En primer lugar se calcula la recta que pasa por los puntos:

- A continuación se construye una parábola cuadrática que pase por los puntos: 

siendo:

y sustituyendo:

 

- Y finalmente la parábola cúbica que pasa por los cuatro puntos:

siendo:

 

sustituyendo: 

obteniéndose el polinomio interpolador para los cuatro puntos: 

I.2.1.3. Polinomios de Lagrange.

Se trata de construir un polinomio de grado n, que se anule en los puntos (que pase por los puntos):  salvo en uno  en el que valdrá 1. 

Dicho polinomio será de la forma:   siendo “a” un número real cualquiera.

Para  se tendrá , lo que determina el valor de “a”, por tanto: 

Así, el polinomio que buscamos será de la forma: 

y para que el polinomio interpolador de grado n, que buscamos, tome los valores y0, y1, ... , yn en los puntos x0,x1, ... , xn, es suficiente con que se verifique:

si los valores Yk proceden de una función f, en los puntos Xk, se tendrá: 

llamándose dicha expresión fórmula de Lagrange del polinomio de interpolación y a los lk polinomios de Lagrange.

Ejemplo

Construir el polinomio interpolador por el método de Lagrange, que pase por los puntos:

siendo el polinomio interpolador: 

Así mismo:

y

por tanto:

Por ello, introduciendo los datos:

 

Se obtienen finalmente el polinomio interpolador: 

I.2.1.4. Fórmula de Newton para el polinomio de interpolación

Sea  el polinomio que interpola a f(x) en los puntos , y  el polinomio que interpola a  f(x)  en . La diferencia entre ambos es un polinomio de grado no mayor que n, que se anula para , ya que en dichos puntos , y en consecuencia: 

obteniéndose:

 

dando a  x  el valor , por ser  , se tiene: 

  

como se puede llamar , construyéndose a partir de la fórmula anterior . Obtenemos, por tanto, la expresión del polinomio de interpolación siguiente: 

 

Por convenio se llama diferencia dividida a la expresión: 

siendo:

La Fórmula de Newton, por tanto, sería:

que recibe el nombre de fórmula de Newton del polinomio de interpolación.

El cálculo de las diferencias divididas se realizaría así: 

por simetría:

Por tanto, tendríamos las diferencias divididas siguientes:

Ejemplo:

 Construir el polinomio interpolador por el método de Newton, que pase por los puntos:  

 

siendo el polinomio interpolador:

que en nuestro caso será: 

Obtenemos las diferencias divididas

Por tanto, el polinomio interpolador sería: 

 

Finalmente: 

I.2.1.5. Fórmula de Gauss para el polinomio de interpolación usando diferencias finitas:

Para definir las diferencias finitas, consideramos una función f(x) de una sucesión de valores de x equidistantes entre sí, esto es: donde

siendo:

Se llama diferencia progresiva de f(x) en a: 

 

la segunda diferencia progresiva, será: 

 

en general:

que se llama diferencia progresiva de orden n 

Así, se puede construir una tabla con las diferencias progresivas de órdenes sucesivos de la forma siguiente:

El polinomio de interpolación usando diferencias finitas sería: 

que reciben el nombre de fórmulas de Newton progresivas. 

Ejemplo: 

Construir el polinomio interpolador por el método de Newton con diferencias progresivas de f(x), que pase por los puntos:siendo el polinomio interpolador:

en el problema,  siendo el  polinomio de interpolación:  

Calculando las diferencias progresivas:

sustituyendo tenemos: 

y operando se obtiene el polinomio: 

I.3. MÉTODOS DE AJUSTE

Es el conjunto de métodos que permiten ajustar los datos de forma que se puedan realizar cálculos estimativos posteriores. Lo más frecuente, es que no sea posible encontrar una función sencilla que pase por todos los puntos que representan a los datos y sea capaz de representar adecuadamente el perfil deseado. En estos casos, se recurre a los MÉTODOS DE AJUSTE , que pretenden obtener una función que cumpla los requerimientos de suavidad (continuidad y derivabilidad) y que se parezca lo más posible a los datos, aunque no pase exactamente por ellos.

Los métodos para la búsqueda de estas funciones de ajuste, se pueden clasificar en: 

. Métodos gráficos

. Métodos paramétricos.

. Métodos no paramétricos

Describimos brevemente cada uno de ellos.

Métodos gráficos:

Se basan en la descripción de la gráfica que muestre valores de una variable dependiente en función de los valores de una variable independiente, por ejemplo, las tasas o probabilidades (variable dependiente) en función de la edad, la fecha, etc. (variable independiente). 

Estas gráficas, permiten una fácil comparación entre diferentes estudios, sobre un mismo fenómeno, en distintas situaciones (países, épocas, etc.). 

Métodos paramétricos:

Los valores de la variable dependiente, como tasas o probabilidades, se especifican mediante una función, con un número de parámetros finito, que depende de la variable independiente, como la edad, fecha, etc.. 

El ajuste de dicha función a los datos, se suele realizar utilizando los métodos clásicos, si se desea que la función pase por unos puntos dados, o métodos de ajuste, si se desea aproximar una determinada función a una serie de puntos, que nos permiten, en ambos casos, estimar los parámetros.  

Métodos no-paramétricos:

No proponen ningún modelo de función para describir el comportamiento de los datos. Las tasas o probabilidades se obtienen mediante métodos de suavizado recurrentes, que utilizan los datos conocidos en edades adyacentes. 

Veamos, a continuación, algunos de los métodos de ajuste paramétricos de los datos empíricos.

I.3.1. Métodos de ajuste paramétricos

Son métodos alternativos a los métodos de interpolación. Distinguiremos entre los métodos de regresión, en los que se tratará de adaptar una función a una masa de datos empíricos (nube de puntos) y los métodos de ajuste, en los que se adaptará una función a un conjunto limitado de puntos empíricos observados o bien procedentes de funciones biométricas: , obligando a que la función represente suficientemente los datos, suavizando los puntos. Es decir, se tratará de describir la evolución de los datos con ciertas funciones, que utilicen hipótesis referentes al comportamiento de los datos.

I.3.1.1 Regresión y ajuste lineales

· Regresión lineal por el método de los mínimos cuadrados. 

Dado un conjunto de pares de puntos: Los valores de ajuste teóricos calculados, según el modelo lineal, serían:

La discrepancia o diferencia “vertical” entre los valores “y”  empíricos y los valores teóricos sería:

Y la función como suma de las diferencias o discrepancias al cuadrado sería: 

que se minimiza respecto de , para que las diferencias sean lo menores posibles, obteniéndose estimadores mínimo cuadráticos de

y

siendo:

  la covarianza muestral

 la varianza muestral de la variable independiente x

  son las medias muéstrales.

Así la recta de regresión será:

Para dar una medida de la discrepancia global entre los datos empíricos y los datos teóricos, se utiliza la varianza residual (VR), como media de las discrepancias al cuadrado:

para evitar su dependencia  de la escala de medida, se mejora utilizando una medida relativa, que sería adimensional: 

o bien:

medida que oscila entre 0 y 1, siendo mejor el ajuste cuando más se aproxime a 1 el coeficiente R2.

·  Ajuste lineal por el método de los mínimos cuadrados.

Dado un conjunto de pares de puntos: , donde a cada valor de la variable x le corresponde un solo valor de la variable y. Los valores teóricos calculados, según el modelo lineal, serían,: 

La discrepancia o diferencia “vertical” entre los valores y los valores teóricos  según el ajuste, sería:

 

Y la función como suma de las diferencias o discrepancias al cuadrado sería: 

que se minimiza respecto de, obteniéndose los estimadores:

y

siendo:

  la covarianza muestral
 la varianza muestral de la variable independiente

  son las medias muestrales.

Así la recta de regresión será:

Para dar una medida de la discrepancia global entre los datos empíricos y los datos teóricos, se utiliza la varianza residual (VR), como en el caso anterior, como media de las discrepancias al cuadrado:

De la misma forma, para evitar su dependencia  de las escalas de medida, utilizamos una medida relativa, que sería adimensional, esto es:

o bien:

medida que oscila entre 0 y 1, siendo mejor el ajuste cuando más se aproxime a 1 el valor de R2

En los métodos que estamos describiendo, nos referimos a métodos de ajuste sobre colectivos de puntos cuando para cada valor de la variable x solo exista un valor de la variable y, frente a los métodos de regresión sobre conjuntos de puntos (nubes de puntos) donde para cada valor de la variable x existen varios valores de la variable y.

I.3.1.2 Ajustes no lineales

Veamos ajustes no-lineales por el método de los mínimos cuadrados. Dependiendo de la función que se desea ajustar, tendremos:

· Función exponencial

Utilizando una función del tipo:

Que se puede linealizar utilizando logaritmos (por ejemplo logaritmos neperianos)

llamando:

,
,
,

se tiene:

que se puede tratar como un ajuste lineal por el método de los mínimos cuadrados, obteniéndose , a partir de las que se calculan:

a=ea' y b=eb'

· Función potencial

Utilizando una función del tipo:

que se linealiza mediante logaritmos neperianos:

llamando:

b'=In b

se obtiene:

que se puede tratar como un ajuste lineal por el método de los mínimos cuadrados, obteniéndose:

y

y finalmente tenemos:

a=ea'
y
b

Ejemplo:

Construir una función del tipo: , que se ajuste por el método de mínimos cuadrados a los puntos:

A partir de los datos tenemos:

 

Se obtiene: 

y

deshaciendo el cambio

siendo la función de ajuste potencial: 

· Funciones polinómicas de grado superior a la unidad.

Se trata de ajustar la función polinómica:  por el método de los mínimos cuadrados, de forma similar al ajuste de la función lineal, utilizando para mayor comodidad la notación matricial.

Siendo:

;

 

se tiene la solución matricial para los coeficientes del polinomio:

Ejemplo:

Construir una función polinómica que se ajuste por el método de mínimos cuadrados a los puntos:

      ;     

siendo la solución matricial:

 

finalmente:

siendo el polinomio de ajuste: 

I.3.1.3 Ajustes por el método de las sumas (King y Hardy)

Este procedimiento permite ajustar cierto tipo de funciones no lineales al conjunto de puntos: . Se utiliza para ello la estructura en progresión geométrica que se puede obtener al aplicar la función de ajuste a la variable  x  y sumar las variables dependientes estimadas. Es un método que se utiliza para ajustar fundamentalmente funciones biométricas y que permite combinarlo con los métodos de ajuste por mínimos cuadrados. 

Sin embargo, el procedimiento para agrupar los datos que van a participar en las sumas no es único. La elección del tipo de función a ajustar condiciona el número de agrupamientos en sumas o la utilización de métodos por mínimos cuadrados en las fases posteriores.

· Primera Ley de Makehám

Se trata de ajustar la función:

a un conjunto de datos:  en los que supondremos que los datos de la variable x están igualmente espaciados: .

El método comienza por dividir los n datos en tres grupos (al menos) de h datos consecutivos (si el número no es múltiplo de tres, se eliminarían uno o dos datos del inicio o del final). Llamaremos  a la suma de los  h  datos de la variable y del grupo i-esimo, así:

siendo para el primer grupo (i = 1):

 y para el resto de las sumas:

obteniendo las diferencias primeras de las sumas:

dividiendo las diferencias primeras:

y despejando la constante C:

siendo “h” el número de elementos de la suma y  “k”  la amplitud o distancia entre los datos.

Utilizando los datos empíricos , se calculan las sumas:

,
,
,
,
,

y finalmente:

Conocido C, se puede obtener B:

despejando:

también se puede utilizar , de tal forma:

o haciendo el promedio entre ambos, para suavizar la posible diferencia entre los dos valores  de la B.

Finalmente se calcula la tercera constante A.

También es posible calcular A y B utilizando el método de ajuste lineal por mínimos cuadrados, a partir de la expresión

obteniéndose , una vez conocido C

siendo:

la covarianza muestral
la varianza muestral de la variable independiente z
son las medias muestrales.

Ejemplo:

Dado el conjunto de datos: se desea ajustarlos con la primera ley de Makehám.

La expresión algebraica de la primera de ley de Makehám es de la forma , siendo necesario calcular los tres parámetros A, B y C que la caracterizan.

Planteando una tabla con los datos y utilizando el método de las sumas, se utilizan tres grupos de datos, con dos datos cada uno (h = 2), siendo los valores de la  x  consecutivos (k = 1). Así:

siendo:

A continuación calculamos el parámetro B, del que tendremos dos valores:

obteniéndose B como el promedio entre ambos valores

de forma similar se obtiene A del que se dispondrá de tres valores:

aceptaremos como valor de A el promedio de los tres valores obtenidos, así

la función ajustada a los datos iniciales con la primera de la ley Makehám será:

Atrás - Siguiente