Documente Academic
Documente Profesional
Documente Cultură
2. Selección de la cópula 14
2.1. Introducción al problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2. Etapas en el proceso de selección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.1. Determinación de las distribuciones marginales . . . . . . . . . . . . . . . . . 15
2.2.2. Propuesta de un conjunto inicial de familias de cópulas candidatas . . . . . . 15
2.2.3. Selección de la mejor familia a partir de las cópulas representantes . . . . . . 16
I
Índice de figuras
1. Enlaces entre leyes marginales, cópulas y distribución conjunta . . . . . . . . . . . . 2
2. Función de distribución, densidad y contorno de la cópula Normal . . . . . . . . . . 7
3. Valores simulados mediante una cópula Student . . . . . . . . . . . . . . . . . . . . . 8
4. Función de distribución, densidad y lı́neas de nivel de la cópula de Frank . . . . . . . 11
5. Función de distribución, densidad y lı́neas de nivel de la cópula de Gumbel . . . . . 12
6. Función de distribución, densidad y lı́neas de nivel de la cópula de Clayton . . . . . 13
7. Cópula HRT, Simulación de pares (u,v) . . . . . . . . . . . . . . . . . . . . . . . . . 14
8. Representación de números aleatorios de una cópula normal y una t-cópula . . . . . 24
9. Representaciones contorno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
10. Porcentaje de rupturas por fatiga en función del tiempo usando los parámetros del
modelo de Shell y 80t y 100t de carga de tráfico normal por dı́a. . . . . . . . . . . . 31
11. Porcentaje de rupturas por fatiga en función del tiempo, usando los parámetros del
modelo de AI y 80t y 100t de carga de tráfico normal por dı́a. . . . . . . . . . . . . . 31
12. Porcentaje de rupturas de fatiga en función del tiempo, usando los parámetros de la
UC - Berkeley, y el modelo 80t y 100t de carga de tráfico normal por dı́a. . . . . . . 31
13. Porcentaje de rupturas por fatiga en función del tiempo, usando los parámetros del
modelo US.Army y 80t y 100 t de carga de tráfico normal por dı́a. . . . . . . . . . . 32
14. Representación teórica de los pares (u,v) distribuidos según una cópula de Fran y de
Gumbel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
15. Representación teórica de los pares (u,v) distribuidos según una cópula de Clayton
y HRT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
16. Representación teórica de los pares (u,v) distribuidos según una cópula de Clayton
y HRT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
17. Bondad del ajuste de los pares de cópulas (Si , Sd ) y (Si , Sp ) . . . . . . . . . . . . . . 39
18. Intensidad de las tormentas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
II
Teorı́a de cópulas y aplicaciones en si-
mulación de riesgos financieros y en in-
genierı́a civil
En las ciencias actuariales, las cópulas se usan en el modelado de mortalidad y las pérdidas
dependientes. En finanzas, las cópulas se usan en asignación de activos, modelado y administración
de riesgos, calificación de créditos y tasación derivada. En estudios biomédicos, las cópulas son
usadas en el modelado de tiempos de eventos correlacionados y riesgos competitivos. En ingenierı́a,
las cópulas se usan en el control de procesos multivariados y en el modelado hidrológico. . Investi-
gaciones recientes se han centrado en una clase de cópulas llamada cópulas Arquimedianas, la cual
agrupa varias familias de modelos cópula, con propiedades analı́ticas más sencillas. Muchas distri-
buciones bivariadas conocidas pertenecen a la clase de cópulas Arquimedianas. Estas cópulas son
analı́ticamente sencillas y sus elementos tienen propiedades estocásticas que los hacen atractivos
para el tratamiento estadı́stico de los datos. Además, las cópulas Arquimedianas pueden describir
una gran diversidad de estructuras de dependencia.
Definición 1.1 Una cópula, C, es una función de distribución multivariante cuyas distribuciones
marginales se distribuyen uniformemente entre [0, 1]. En el caso bivariante, C(u, v) = p[U ≤ u, V ≤
1
Figura 1: Enlaces entre leyes marginales, cópulas y distribución conjunta
v] es una función definida en [0, 1]2 → [0, 1] que verifica las siguientes tres propiedades:
C(u, 1) = u y C(1, v) = v.
Teorema de Sklar:
Sea H una función de distribución n-dimensional con marginales F1 , ....., Fn . Entonces, existe una
cópula n-dimensional C tal que ∀X ∈ R̄n ,
Si F1 , ....., F n son todas continuas, entonces C es única, por tanto, está unı́vocamente determi-
nado en ran(F1 ) × ..... × ran(Fn )
De acuerdo con este resultado, cuando escribimos por ejemplo para el caso
2
(representado por las Fi ) del conjunto, en contra de lo que ocurre en la representación usual de
probabilidades conjuntas vı́a función de distribución. Por esta razón, las cópulas son denominadas
funciones de dependencia (Deheuvels 1978).
Si las distribuciones marginales son continuas, la cópula es única. Por tanto, a partir de las
cópulas, es posible crear distribuciones bivariantes con distribuciones marginales definidas. De esta
forma, si C es una cópula y FX y FX son dos distribuciones marginales, C(FX (x), FY (y)) es una
distribución bivariante.
De la definición del Teorema de Sklar, se deduce que las funciones de distribución marginales
univariantes pueden tener una estructura separada de la estructura de la cópula.
Definición 1.3 (Densidad de una cópula): Sabemos que, si existe, la densidad f de una función
de distribución, F , se define como:
∂F (x, y)
f (x, y) = (2)
∂x∂y
La expresión de la densidad de una cópula, simbolizada por c , es:
∂C(u, v)
c(u, v) = (3)
∂u∂v
A partir de c(u, v), la densidad f de la función de distribución F puede obtenerse como:
f (x, y) = c FX (x), FY (y) fX (x)fY (y) (4)
Definición 1.4 (Distribución condicionada de una cópula): Sea C1 (u, v) la derivada de C(u, v)
respecto de u , ∂C(u,v)
∂u = C1 (u, v)
Si la distribución conjunta de X e Y es C FX (x), FY (y) , entonces la distribución condicionada
Y /X = x es:
FY /X=x (y) = C1 FX (x), FY (y) (5)
3
Definición 1.5 (Survival cópula o cópula de supervivencia): Sea S(x) = p(X > x). La función de
supervivencia conjunta S(x, y) = p(X > x, Y > y) no es 1 − F (x, y) como podrı́a pensarse, si no:
Existen también las denominadas “medidas de asociación”, algunas tan populares como la
Tau de Kendall y el coeficiente de correlación de Spearman, que cuantifican relaciones no nece-
sariamente lineales, y que se utilizan directamente como funciones de evaluación del contraste de
independencia, siendo X e Y independientes:
H0 : FXY (x, y) = FX (x)FY (y)
H1 : FXY (x, y) 6= FX (x)FY (y
Estas medidas, se mueven entre -1 y 1. Cuando toman alguno de estos valores extremos, reflejan
respectivamente una relación de dependencia negativa o positiva “perfecta”. Conforme se aleja de
ellos, la medida es sinónimo de falta de dependencia entre las variables. En términos coloquiales,
vienen a determinar cómo se relacionan los valores “grandes”y “pequeños” de la variable aleatoria
X con los de la variable Y .
Gran parte de la importancia de estas relaciones es su utilidad para concretar la cópula más
adecuada de entre todas las pertenecientes a una misma familia paramétrica puesto que, por lo
general, es fácil calcular el valor del parámetro a partir del estimador muestral de estas medidas de
asociación mediante las expresiones (7) y (8).
4
1.2. Tipos de cópulas
Existen muchos tipos de funciones cópula y es difı́cil encontrar en la literatura una clasificación
clara de todas ellas dado que existen muy diversos criterios para hacerlo: en función de la depen-
dencia o no de parámetros, de su soporte (continuo o discreto), del tipo de relación que reflejan
(cópulas elı́pticas, cópulas de valor extremo, etc). Por ello, en vez de presentar un esquema general
que permita ubicar cada cópula de acuerdo a una jerarquı́a concreta, enumeraremos algunos de
estos criterios y citaremos algunos ejemplos asociados a las clases que resultan de su aplicación.
1. Cópulas paramétricas
Todas las cópulas que responden a una misma ecuación paramétrica definen una familia
de cópulas. En ella, el parámetro (uniparamétricas) o parámetros (multiparamétricas)
cuantifican de algún modo la relación de dependencia entre las variables que asocian.
2. Cópulas no paramétricas
De igual manera existen familias de cópulas no paramétricas que son aquellas en cuya
definición no participa ningún parámetro sino que, por su estructura empı́rica, se ajustan
de forma local a los datos.
Dentro de uno y otro grupo, gozan de popularidad la clase de las cópulas arquimedianas
caracterizada por la facilidad con que pueden ser construidas y por la gran variedad de
estructuras de dependencia que permiten reproducir.
A continuación se describirás algunos tipos de cópulas en función de la relación de dependencia
Caracterización
Se llama cópula elı́ptica a toda cópula de la forma:
Φ−1
g,1 (u)
Z Φ−1 (v)
x2 − 2ρxy + y 2
Z
1 g,2
Cρ (u, v) = p g( √ )dx · dy = Hρ (Φ−1 −1
g,1 (u), Φg,2 (v)) (9)
1 − ρ2 −∞ −∞ 1 − ρ2
5
1.4. Cópula Normal
La cópula normal es la función de dependencia asociada a la distribución normal multidimen-
sional. Sea ρ una matriz diagonal definida positiva con diag(ρ) = 1 y Θρ la distribución normal
bivariada standard y de matriz de correlación ρ. La cópula normal se define de la siguiente forma:
1 x2 + x22 − 2ρx1 x2
ϕρ (x1 , x2 ) = exp( 1 ) (12)
2(1 − ρ2 )
p
2π 1 − ρ2
Luego usamos la siguiente propiedad relativa a la densidad de una cópula:
>library (cópula)
> set.seed (1)
> norm.cop = normalCópula (0,5)
> norm.cop
6
Figura 2: Función de distribución, densidad y contorno de la cópula Normal
Con x1 = t−1 ν (u1 ). Como antes, para mostrar ésta relación utilizamos la expresión de la distri-
bución t bivariada:
Z x1 Z x2
1 y 2 + y22 − 2ρy1 y2 ν + 2
tρ,ν (x1 , x2 ) = 1+ 1 − dy1 · dy2 (16)
ν(1 − ρ2 )
p
−∞ −∞ 2π 1 − ρ2 2
Luego usamos la propiedad relativa a la densidad de una cópula:
7
Figura 3: Valores simulados mediante una cópula Student
8
1. Es convexa en [0,1].
Definición 1.6 Sea P hi el conjunto de funciones ϕ : [0, 1] → [0, ∞] que son continuas, estricta-
mente decrecientes, convexas y para los cuales ϕ(0) = ∞ y ϕ(1) = 0 . Schweizer y Sklar demuestran
que cada miembro de P hi, genera una copula C a través de la expresión:
C(u, v) = ϕ−1 ϕ(u) + ϕ(v) con 0 ≤ u, v ≤ 1. La función ϕ recibe el nombre de generador
de la cópula.
9
Z a
4 4 t
τ (a) = 1 − + 2 dt (25)
a a 0 et −1
La integral en esta expresión no tiene solución analı́tica, sin embargo, es posible usar métodos
numéricos, que pueden dar buenas aproximaciones. La τ de Kendall de la cópula de Frank toma
valores en el rango completo de concordancia. Observando los casos especiales de la cópula de
Frank, se puede comprobar que:
2. u1 = v1 ;
3. Tomamos: !
1 v2 (e−α − 1)
u2 = C −1 (v2 , u1 ; α) = − ln 1 + (26)
α v2 + (1 − v2 )eαu1
Cópula de Frank en R
10
Figura 4: Función de distribución, densidad y lı́neas de nivel de la cópula de Frank
" #
h i−2+ 2 h ia−1 h i− 1
c(u, v) = C(u, v)u−1 v −1 (− ln u)a +(− ln v)a
a a
ln ·u ln v 1+(a+1) (− ln u)a +(ln v)a
(29)
El coeficiente de correlación de Kendall, en función de su parámetro a, se define como:
1
τa = 1 − (30)
a
Simulación de la cópula de Gumbel Para simular la cópula logı́stica de Gumbel utilizamos el
método de distribuciones. En efecto se puede simular la distribución bivariada de Gumbel con el
algoritmo siguiente:
1. Simulamos tres variables aleatorias i.i.d E1 , E2 y E3 que siguen una distribución exponencial.
E
1
x1 = ln (31)
E3
y
E
2
x2 = ln (32)
E3
tomando
2. Copula de Gumbel en R
11
Se obtienen las siguientes gráficas:
3. Copula de Clayton en R
12
clayton.cop=claytonCópula ( 2 , dim = 3)
scatterplot3d( rcópula ( clayton.cop , 1000) )
clayton.cop=claytonCópula (0.1)
persp(clayton.cop,dcópula,main ="densidad de la cópula de
Clayton ",col = "green3 ")
clayton.cop = archmCópula ("clayton" ,2)
contour ( clayton.cop , dcópula , main =" lı́neas de nivel de la cópula de Clayton "
13
Figura 7: Cópula HRT, Simulación de pares (u,v)
2. Selección de la cópula
2.1. Introducción al problema
Uno de los problemas clásicos en la estadı́stica es conocer la distribución a la que responde una
muestra dada de forma que ésta quede bien caracterizada y puedan extraerse conclusiones con fines
descriptivos o predictivos. Dentro del contexto de la teorı́a de cópulas, este problema presenta una
doble vertiente: una univariante asociada a la especificación de las funciones de distribución FX y
GY (en adelante F y G) correspondientes a las marginales de X e Y , y otra bivariante, (en gene-
ral multivariante), asociada a la determinación de aquella conjunta HXY (en adelante H), de las
infinitas que comparten dichas marginales, que mejor captura la relación entre ellas. La vertiente bi-
variante desemboca en la búsqueda de una función cópula C cuyas caracterı́sticas puedan esperarse
para la verdadera distribución conjunta H, siendo el teorema de Sklar el que establece la transfor-
mación final de C en H. En ocasiones, por las caracterı́sticas del problema que se está estudiando,
se puede tener una idea preconcebida de la familia de cópulas que puede ser más apropiada para
explicar la relación entre las variables que se manejan. Ası́ por ejemplo, si el estudio está orientado
a medir el grado de asociación para valores extremos de dos variables, que se intuye presenta un
comportamiento especial respecto del grado de asociación que pudieran tener para otros valores
no extremos, suele ser aconsejable utilizar cópulas que enfaticen la relación entre las colas de las
distribuciones marginales (cópulas del valor extremo), como por ejemplo las pertenecientes a la
familia de Gumbel. Generalmente cuando se habla de los diferentes tipos de cópulas que existen,
solemos referirnos intrı́nsecamente a diferentes tipos de familias. Todas las cópulas que pertenecen
a una misma familia, presentan una misma estructura (o ecuación) que puede depender de uno
o varios parámetros (o de ninguno, si hablamos de cópulas no paramétricas), de forma que, para
cada uno de los valores del espacio paramétrico de definición, se obtendrá un miembro de esa familia.
14
mejor refleja una relación concreta (la observada en los datos). Finalmente debe decidirse por
aquél representante que, en función de ciertos criterios, mejores resultados le proporcione. Podemos
resumir que las etapas que encontraremos en el proceso de selección de cópulas y que a continuación
pasaremos a detallar son las siguientes:
2. Propuesta de un conjunto inicial de familias de cópulas candidatas que, por sus caracterı́sti-
cas, se perfilan como adecuadas para reflejar la relación existente entre las variables. Esta
propuesta se hará de acuerdo al conocimiento o en su defecto intuición, que se tenga sobre la
forma de dicha relación.
3. Selección de una cópula por familia. En el caso paramétrico se trata de determinar los valores
asociados a los parámetros correspondientes a cada familia para lo cual, se suelen utilizar
expresiones que permitan el cálculo de dichos parámetros a partir de la estimación muestral
de alguna medida de asociación como el coeficiente de correlación de Spearman o la Tau de
Kendall.
4. Elección de la cópula de entre todas las que representan a cada una de las familias candidatas.
15
Por ejemplo en el caso de cópulas Arquimedianas el procedimiento para determinar la cópula que
mejor se ajusta a una muestra aleatoria bivariante de n observaciones (x1 , y1 ), ..., (xn , yn ) comienza
asumiendo que ésta ha sido generada por una distribución bivariante desconocida H(x, y) con
marginales continuas F (x) y G(y) y cópula arquimediana C(u, v). Hecha esta consideración, se
trata de determinar a qué familia pertenece C, o lo que es lo mismo, la forma del generador ϕ
de la cópula que, recordemos, caracteriza a la cópula arquimediana. Se podrá disponer de varias
familias candidatas Cθθ∈Θ (con varios tipos de generadores ϕθ ) y, para cada una de ellas, elegir un
representante CθOP T . Como cita De Matteis, para la estimacion de θ, existen diferentes alternativas:
Estimar en un primer paso las funciones de distribución marginales mediante métodos pa-
ramétricos o no paramétricos y, posteriormente, a partir de ellas, estimar q mediante el prin-
cipio de máxima verosimilitud.
También es posible hacer la estimación de las marginales y del parámetro q en un solo paso.
En este caso, la estimación de q puede hacerse de dos formas:
16
T T
!
¯ Ĉ, Ck ) =
X X t1 tn t1 tn
dn( ... Ĉ( ... ) − Ck ( ... ) (42)
T T T T
t1 =1 tn =1
Si bien estamos partiendo de que ya disponemos de una cópula concreta dentro de cada una
de las familias y esta distancia nos va a ayudar a seleccionar una de ellas, también es posible
aplicar esta medida a todas las cópulas de una misma familia para determinar el valor del
parámetro más conveniente. Es decir, podrı́amos prescindir del paso previo de estimación
que hemos comentado y hacer la selección de la cópula dentro de cada una de las familias
ˆ El vector de parámetros θ ∈ Θ(o el parámetro si hablamos de cópulas
valiéndonos de dn.
uniparamétricas) se puede estimar de la siguiente forma:
X 1
θ̂ = argminθ∈Θ ( [Ĉ(u, v) − C(u, v; θ)]2 ) 2 (43)
u∈l
2. Método 2: Métodos gráficos Existen diferentes métodos gráficos que permiten un contraste
visual del ajuste de una cópula a los datos. Aquı́ se proponen dos basados en el empleo de
QQ-plots.
Gráfico basado en la función de distribución condicional Y |X. Para ello, basta observar
que la cópula condicionada C1 (F (x), G(y)) = HY /X (x, y) se deberı́a distribuir teóri-
camente según una U (0, 1). Ası́, mediante un gráfico QQ-plot se puede establecer el
contraste observando si el resultado se aproxima a la recta y = x. Se tratarı́a de ver para
cuál de todas las cópulas candidatas se obtiene una mejor aproximación.
Gráfico basado en la función de distribución de la cópula. Se define Kc (t) como la C-
medida del conjunto (u, v) ∈ [0, 1] × [0, 1] t.q C(u, v) ≤ t. Se puede demostrar que si
C en una cópula arquimediana generada por una función ϕ, entonces Kc (t) se puede
ϕ(t)
escribir como KC (t) = t −
ϕ(tderecha )
siendo dicha función la función de distribución de la variable aleatoria C(u, v). Por
tanto, de igual modo que si X tiene función de distribución F entonces F (X) v U (0, 1),
podemos concluir que si C está suficientemente bien aproximada a los datos cabe esperar
que KC (C(F (X), G(Y ))) v U (0, 1). Valdrı́a nuevamente un gráfico QQ-plot asociado a
las funciones de distribución K correspondientes a cada una de las cópulas candidatas
para terminar decantándose por aquella que más se aproxime a la recta y = x.
3. Método 3: Aproximación analitica de los métodos gráficos Si bien los métodos gráficos
anteriores pueden proporcionar una idea bastante buena de cuál es la cópula más apropiada,
se puede eliminar la subjetividad asociada a la agudeza visual del analista y plantear un test
de hipótesis para contrastar si las distribuciónes de C1 (F (x), G(y)) o Kc (t) se aproximan a
una U (0, 1). Citamos los dos contrastes clásicos de bondad de ajuste a una distribución dada,
el de la Chi-cuadrado y el de Kolmogorov-Smirnov. Para llevar a cabo estos contrastes se
trocea el rango de variación de la distribución a contrastar en una serie de intervalos y se
comprueba si el número de valores muestrales observados en cada una de ellos (Oi) se parece
al número de ellos que cabrı́a esperar (Ei) bajo el supuesto de que siguieran una distribución
U (0, 1).
Contraste de la Chi-cuadrado (basado en el estadı́stico de Pearson).
La muestra de partida es el conjunto de valores C1 (F (xi ), G(yi )) o Kc (ti ) que nos pro-
porcionará las frecuencias observadas (Oi) dadas por el número de pares (F (xi ), G(yi ))
17
que caen en cada uno de los intervalos. Debemos contrastar si éstas frecuencias se apro-
ximan a las esperadas (Ei) para una distribución uniforme estándar. Aquella cópula C
cuya condicionada C1 dé un mayor grado de proximidad entre estas frecuencias (menor
valor del estadı́stico de Pearson) será la propuesta para representar la relación entre X
e Y.
Contraste de Kolmogorov-Smirnov (basado en el estadı́stico Dn)
En este caso, C1 (F (xi ), G(yi )) o Kc (ti ) proporcionará la muestra de valores a partir de
la cual se construirá la función de distribución empı́rica Fn . El objetivo es ver si ésta se
parece a la función de distribución de una U (0, 1). Ası́, la cópula C cuya condicionada
C1 nos proporcione un valor del estadı́stico Dn más pequeño, será aquélla para la que la
muestra de valores se aproxime más a una distribución uniforme estándar y por tanto,
la más apropiada para representar la relación entre X e Y .
Por otro lado, para calcular el número de puntos muestrales que caen en cada uno de los
rectángulos, Nij (este número es independiente de la familia de cópulas considerada), se
deben distinguir dos casos en función del conocimiento que se tenga de las distribuciónes
marginales asociadas a X e Y :
18
Por el contrario si las distribuciónes de F y G son desconocidas, la forma de calcular
(ui , vi ) es a partir de las funciones de distribución empı́ricas asociadas a X e Y , es decir,
haciendo:
n n
1X 1X
ûi = Fˆn (xi ) = 1[Xi ≤x] y vˆi = Gˆn (yi ) = 1[Yi ≤y]
n n
i=1 i=1
donde,
rango de xi en x1 , x2 , .., xn rango de yi en y1 , y2 , .., yn
ûi = y vˆi =
n n
A partir de todos estos datos, se puede plantear nuevamente como estadı́stico del con-
traste, el estadı́stico de Pearson:
r X
s
X (Nij − n · pij (θOP T ))2
(44)
n ∗ pij (θOP T )
i=1 j=1
19
a) Determinación de un conjunto de entrenamiento y otro de validación
Reservamos parte del histórico para validar la calidad de las predicciones que vamos a
realizar. Dicha parte recibirá el nombre de conjunto de validación y no participará en el
ajuste de las distribuciónes marginales ni en el de la selección de la función cópula que
mejor representa a una de las familias candidatas sino que será utilizado con posterioridad
para la evaluación de las mismas. Por lo general, se reserva una cuarta o quinta parte de
los datos disponibles para validar los resultados. El resto del histórico se utilizará para
realizar los ajustes y recibe el nombre de conjunto de entrenamiento.
b) Determinación de marginales
Tomaremos como marginales las funciones de distribución empı́ricas continuas asociadas
a X e Y y las aplicaremos a los valores muestrales (de entrenamiento) para obtener
la muestra transformada (FX (x1 ), FY (y1 )), ..., (FX (xn ), FY (yn )). Ésta será una muestra
bidimensional de variables uniformes estándar (u1 , v1 ), ..., (un , vn ), siempre y cuando las
aproximaciones dadas por estas marginales sean suficientemente buenas. Por supuesto,
también pueden proponerse como marginales algunas de las distribuciónes univariantes
conocidas (Normal, Exponencial, Pareto, etc.), si bien conviene previamente plantear
el correspondiente contraste que confirme la hipótesis lanzada. En cualquier caso, la
cópula C y de igual manera su condicionada respecto de U, C1 , actuarán sobre esta
muestra de uniformes, lo cual permite intuir la transformación del problema de predicción
original de Y en función de X, en un problema de predicción de V en función de U .
Efectivamente, el planteamiento original busca saber cuál es el valor “y” asociado a
un valor “x” conocido. El hecho de que para este último podamos calcular la imagen
FX (x) = u y de que además dispongamos de una distribución conjunta C que presupone
cierta relación de dependencia sobre pares del tipo (u, v), nos permite proponer como
alternativa la predicción del valor de v = GY (y) (en lugar de y). Una vez realizada la
predicción de la transformada V = G(Y ) se puede deshacer la transformación (mediante
G−1 ) para obtener la predicción de la variable Y .
c) Selección preliminar de cópulas
Se considera una relación de familias de cópulas candidatas y dentro de cada una de ellas
se escoge un representante. En el caso de las cópulas uniparamétricas esto se traduce en
determinar el valor del parámetro θ a partir del valor muestral de la Tau de Kendall o
del coeficiente de Spearman desde el cual se define. Este valor muestral se debe estimar
también a partir del conjunto de entrenamiento.
d ) Simular valores para la cópula condicionada asociada a cada uno de los re-
presentantes
Hemos dicho que las predicciones se obtendrán por simulaciones de HY /X . Dado que
estamos trabajando con la muestra transformada, parece lógico que las simulaciones
las realicemos para la cópula condicionada C1 = CV /U . La predicción de V condicio-
nada a U = u se realizará mediante simulaciones de la variable V |U = u. Para reali-
zar dichas simulaciones se puede utilizar el método de la transformada inversa, siendo
necesario para ello disponer de la función de distribución de dicha variable, C1 . Ası́,
nuestra relación de cópulas C candidatas a explicar la relación entre X e Y , proporciona
a través de la ecuación (Dado u fijo, la cópula condicionada a u es la función de V,
v → C1 (u, v) = C(u|u) = ∂C ∂u (u, v) otra relación de cópulas condicionadas C1 = CV /U
candidatas a ser la mejor representación de la función de distribución HY /X .
Se utiliza la cópula para simular valores de la distribución condicionada de HY /X=x don-
de x es conocido. El resultado final de esta etapa es una relación de valores simulados
20
para la variable Y para cada uno de los valores propuestos para la variable X y cada
una de las cópulas que representan a las familias candidatas.
e) Propuesta de un valor predicho
El paso anterior proporciona una distribución de valores simulados de Y a partir de un
x y una cópula C concreta. El valor que se puede esperar para Y podrá venir dado por
la media de las simulaciones o, en su defecto, por algún otro parámetro de tendencia
central más robusto como por ejemplo la mediana. Cualquiera de ellas se puede utili-
zar como valor predicho. Además, el conocimiento de la distribución permite también
proporcionar alguna medida de dispersión asociada a la predicción como la varianza, la
desviación media absoluta o el rango intercuartı́lico que podrı́a traducirse en una evalua-
ción del riesgo de la misma. De hecho, el alcance va aún más allá puesto que proporciona
conocimiento sobre posibles asimetrı́as, densidad en las colas, apuntamiento, presencia
de varias “modas”, etc. La simulación de valores, y por tanto la obtención de las predic-
ciones, se pueden realizar a partir de cualquier x tanto de la muestra de entrenamiento
como de la de validación. Comparando el valor predicho con el real es posible hablar
de un error de predicción para cada familia de cópulas que se considerará asociado a la
muestra en el primer caso in-sampling y fuera de muestra en el segundo out-of-sampling
siendo este último por lo general de mayor magnitud dado que los datos de dicho con-
junto no participan directamente en el ajuste. Aquella familia de cópulas que a través de
su representante proporcione en media (o en mediana) menores errores (principalmen-
te a futuro) será la que se seleccione finalmente para los fines predictivos que se persiguen.
21
Las clases de cópulas elı́pticas implementadas son normalCopula para la distribución normal
multivariante y tCopula para distribuciónes t-Student multivariantes. La matriz de correlaciones
determina la estructura de dependencia y la t-copula tiene además como parámetro los grados de
libertad. En el modelo se implementan además 4 estructuras de dispersión.
3.2. Métodos
3.2.1. Funciones de distribución y de densidad
Las funciones método para distribuciones y densidades de una cópula son pcopula y dcopula.
Para evaluar la función de distribución de una cópula elı́ptica necesitamos la función de distribución
elı́ptica conjunta y los cuantiles univariantes para cada marginal.
Para una cópula arquimediana las funciones de distribución y densidad dependen de la función
generador y de su función inversa.
Las funciones método para una mvdc son pmvdc y dmvdc.
22
3.2.2. Generador de números aleatorios
El método para generar números aleatorios es rcopula para una cópula y rmvdc para una clase
mvdc. El paquete copula proporciona generadores para la cópula normal y la t-cópula utilizando
generadores de números aleatorios para normales multivariantes y t-multivariantes con el paquete
mvtnorm.
Ejemplos de generación de números aleatorios y evaluación de las funciones de distribución y de
densidad para la cópula myCop.t
u<-rcopula(myCop.t,4)
> u
[,1] [,2] [,3]
[1,] 0.6319121 0.6644617 0.4396334
[2,] 0.5317321 0.4319560 0.4834073
[3,] 0.5433294 0.5937168 0.3764338
[4,] 0.8143958 0.7698662 0.7259969
> cbind(dcopula(myCop.t, u), pcopula(myCop.t, u))
[,1] [,2]
[1,] 2.217135 0.3489308
[2,] 3.049002 0.3018827
[3,] 1.981416 0.2777807
[4,] 5.382351 0.6222820
Para generar números aleatorios de una clase mvdc solo necesitamos aplicar la función cuantil a los
números aleatorios de la cópula especificada sobre cada marginal. El siguiente ejemplo nos muestra
la generación de números aleatorios y evaluación de las distribuciones y densidades para el objeto
myMvd anterior.
3.2.3. Gráficas
Las gráficas tienen una gran importancia en la representación de resultados de los modelos
basados en cópulas. La representación 3D del paquete scatterplot3d es uno de los más utilizados.
El ejemplo siguiente representa 300 puntos aleatorios de una copula normal trivariante y una t-
cópula trivariante.
> par(mfrow = c(1, 2), mar = c(2, 2, 1, 1), oma = c(1, 1, 0, 0), mgp = c(2, 1, 0))
23
> u <- rcopula(myCop.norm, 300)
> scatterplot3d(u)
> v <- rcopula(myCop.norm, 300)
> scatterplot3d(u)
Para los objetos copula y mvdc el paquete copula tiene implementados métodos para dibujar
representaciones de perspectiva y contorno para las funciones de distribución y densidad. Estas
funciones son persp y contour. El siguiente ejemplo representa las densidades de distribucio-
nes bivariantes definidas con las cópulas de Clayton, Frank y Gumbel, con marginales normales
tipificadas.
24
> contour(myMvd6, dmvdc, xlim = c(-3, 3), ylim = c(-3, 3))
25
> b2.0 <- c(mm[2]^2/vv[2], vv[2]/mm[2])
> b2.0
[1] 2.936402 2.005204
> a.0 <- sin(cor(dat[, 1], dat[, 2], method = "kendall") * pi/2)
> a.0
[1] 0.3959885
> start <- c(b1.0, b2.0, a.0)
> start
[1] 2.2140785 0.8714946 2.9364017 2.0052038 0.3959885
> fit <- fitMvdc(dat, myMvd, start = start,
+ optim.control = list(trace = TRUE, maxit = 2000))
initial value 793.616355
final value 793.457164
converged
initial value 793.457164
final value 793.457164
stopped after 1 iterations
> fit
The Maximum Likelihood estimation is based on 200 observations.
Margin 1 :
Estimate Std. Error
m1.shape 2.1027779 0.19590551
m1.scale 0.9171973 0.09640444
Margin 2 :
Estimate Std. Error
m2.shape 2.924357 0.2774058
m2.scale 2.012733 0.2082045
Copula:
Estimate Std. Error
rho.1 0.4065556 0.05897514
The maximized loglikelihood is -793.4572
The convergence code is 0 see ?optim.
Cuando cada distribución marginal Fi tiene sus propios parámetros βi , el primer paso consiste
en una estimación de máxima verosimilitud para cada marginal, en este caso cada tarea de maxi-
mización tiene muy pocos parámetros, este método recibe el nombre de Shih y Louis y se puede
realizar con la función fitCopula:
26
> b1hat
[1] 2.1033572 0.9173855
> b2hat <- optim(b2.0, fn = loglik.marg, x = dat[, 2], control = ctrl)$par
> b2hat
[1] 2.925129 2.012820
> udat <- cbind(pgamma(dat[, 1], shape = b1hat[1], scale = b1hat[2]),
+ pgamma(dat[, 2], shape = b2hat[1], scale = b2hat[2]))
> fit.ifl <- fitCopula(udat, myMvd,copula, start = a.0)
donde D Son los daños generales acumulados hasta el momento t en la capa superficial del
pavimento, Di (t) es la acumulación de daños causados por el tráfico de carga en el i-ésimo nivel,
Xi (t) es el número real de carga de tráfico de repeticiones del i-ésimo nivel aplicado al pavimento
hasta el momento t, y Ni es la carga admisible de repeticiones del i-ésimo nivel.
Las estructuras HMA sometidas a cargas por fatiga de material, son historias complejas que im-
plican diferentes rangos de estrés y diversos niveles de carga. Las pruebas de laboratorio tratan
de obtener información básica del material y no están destinadas a reproducir las complejas con-
diciones por fatiga de material de la estructura real de HMA. Convencionalmente, los mı́nimos
27
cuadrados ordinarios del análisis de regresión se emplean para el desarrollo de los modelos desarro-
llados a partir de la fatiga de materiales de laboratorio y/o datos de rendimiento sobre el terreno.
Una simple forma de la ecuación de fatiga de material es la siguiente:
Ni = k1 ε−k
i
2
E −k3 (47)
donde εi es la máxima tensión de tracción en la parte inferior de la capa de asfalto del i-ésimo
nivel de carga; E es el módulo elástico es decir, la rigidez de la capa de asfalto, k1 , k2 , k3 son los
parámetros de fatiga de materiales, y Ni el número de la carga admisible de repeticiones antes de
la carga de fisuración bajo el i-ésimo nivel. Según la teorı́a de la regresión lineal, hay un error en el
modelo de manera que la verdadera relación subyacente entre el número de la carga admisible de
la repetición y la resistencia de tracción máxima de tensión, se define de la siguiente manera:
3. Usar la cópula basada en la simulación del modelo para estimar la probabilidad de daños de
rupturas por fatiga.
2
ln Ni ∼ N (µNi , σerror ) con µNi = −k2 ln i − k3 ln E + ln k1 (49)
28
de ello, la distribución de tráfico acumulada a largo plazo se convierte en una distribución
normal (Sun and Hudson, 2005).
(i)
En concreto, definimos Yn como el intervalo de tiempo entre (n − 1)th y nth las cargas de
(i)
tráfico del i-ésimo nivel. Sea Sn el momento de ocurrencia del nth tráfico de carga del i-ésimo
nivel:
n
(i)
X
Sn(i) = Yk con Sn(i) = 0
k=1
2
t 2 V arYni
Xi (t) ∼ N µXi , σX con µXi = y σX = ·t
i
EYni i
E 3 Yni
(i) (i
Donde EYn y V arYn pueden ser estimadas a partir de los datos de tráfico.
29
4.1.3. Modelo de verificación
Se desea realizar un estudio mediante simulación de la cópula para poner a prueba la eficacia
del modelo propuesto, comparando sus resultados con algunos modelos similares y distribuciones
hipotéticas, es decir, el modelo de Sol y Hudson, el modelo de distribución normal y modelo de
distribución lognormal. Por otra parte, comprobamos el efecto de dependencia entre la varianza
y el nivel de carga sobre el porcentaje de rupturas por fatiga. se llevan a cabo dos simulaciones
utilizando datos de entrada de una tı́pica estructura de HMA, siendo el módulo de la capa superficial
con resistencia E = 400,000, estándar de tensión máxima resultado de una carga de tráfico normal
= 3,45 · 10−4 , y los siguientes parámetros de los diferentes modelos de la fatiga de material (Sun
et al, 2003).
Tabla 1. Parámetros de los diferentes modelos de fatiga de material y el cálculo de µN .
Model k1 k2 k3 µN
Shell model 0,0685 5,671 2,363 12,048
AI model 0,0796 3,291 0,854 12,689
UC-Berkely model 0,0636 3,291 0,854 12,465
U.S. Army model 478,6300 5,000 2,660 11,719
El efecto del tráfico de carga, consiste en varios niveles de carga sobre la estructura de daños
HMA y es equivalente a la norma de tráfico X(t) en un nivel de carga única. Siguiendo a Sun y
Hudson (2005), se estudian los dos siguientes casos:
1. E[X(t)] = 80t carga de tráfico normal por dı́a, var[X(t)] = 900t nivel de tráfico de carga por
dı́a y σerror = 0,2.
2. E[X(t)] = 100t carga de tráfico normal por dı́a, var[X(t)] = 1600t nivel de tráfico de carga
por dı́a y σerror = 0,5.
30
Figura 10: Porcentaje de rupturas por fatiga en función del tiempo usando los parámetros del
modelo de Shell y 80t y 100t de carga de tráfico normal por dı́a.
Figura 11: Porcentaje de rupturas por fatiga en función del tiempo, usando los parámetros del
modelo de AI y 80t y 100t de carga de tráfico normal por dı́a.
Figura 12: Porcentaje de rupturas de fatiga en función del tiempo, usando los parámetros de la UC
- Berkeley, y el modelo 80t y 100t de carga de tráfico normal por dı́a.
31
Figura 13: Porcentaje de rupturas por fatiga en función del tiempo, usando los parámetros del
modelo US.Army y 80t y 100 t de carga de tráfico normal por dı́a.
el tiempo de alcanzar el 20 por ciento estimado de daños por fatiga usando el modelo propuesto
con ρ = 0,0 disminuye un 33 por ciento y 80 por ciento utilizando el modelo de Sun Hudson,
mientras que este porcentaje aumenta cerca del 8 por ciento en el caso de las hipótesis normales
y lognormal. Ası́mismo, de acuerdo con las cifras, la dependencia entre una X(t) y N tiene efecto
sobre el porcentaje de daño, cuando en el caso de 80t las cargas de tráfico normales por dı́a y el
porcentaje de daño se incrementa en un 6 por ciento cuando ρ incrementa de 0,0 a 0,1 y los daños
se incrementaron en un 9 por ciento cuando ρ aumenta de 0,0 a 0,5, mientras que en el caso de
100 toneladas de cargas de tráfico normal por dı́a el porcentaje de daño se incrementa en un 7 por
ciento, cuando ρ aumenta de 0,0 a 0,1, y en un 18 por ciento cuando ρ aumenta de 0,0 a 0.5.
En resúmen la distribución de los daños se deriva utilizando la cópula Gaussiana, que no es
ni normal, ni una distribución logarı́tmica normal, proporcionando resultados más realistas que el
modelo propuesto por Sun y Hudson.
32
Figura 14: Representación teórica de los pares (u,v) distribuidos según una cópula de Fran y de
Gumbel
Figura 15: Representación teórica de los pares (u,v) distribuidos según una cópula de Clayton y
HRT
33
considera la misma dependencia entre los grandes siniestros que entre los pequeños.
La cópula de Clayton, como en el caso anterior, tampoco es aplicable al sector asegurador,
pero por razones distintas. Como se observa en el gráfico, esta cópula presenta una importante
concentración de puntos en (0, 0) por lo que tiene tendencia a correlacionar los pequeños siniestros
y no los grandes siniestros. Por tanto, esta cópula es una de las que puede utilizarse en el estudio de
las cuantı́as siniestrales de los siniestros pero será o no apropiada en función del tipo de siniestros
que se estén considerando. No servirá, por tanto, para modelar cuantı́as asociadas a la ocurrencia
de grandes siniestros.
La cópula HRT y la Gumbel, pueden admitirse en el estudio de las distribuciones de las re-
clamaciones de siniestros, ya que los puntos en la representación gráfica muestran una asimetrı́a
adecuada de los datos siniestrales, tanto en los grandes siniestros como en los pequeños. Para la
cópula HRT, la concentración de puntos cerca de (1, 1) es la más importante de todas las cópulas
analizadas en esta sección. Con esta estructura de dependencia, los grandes siniestros presentarán
una tendencia a ocurrir al mismo tiempo. Estas conclusiones, evidentemente, deben de ser refor-
zadas por un análisis empı́rico, a realizar a posteriori. Pero desde un punto de vista teórico, elegir
la cópula óptima permite acercarnos a la determinación futura del precio del seguro, cuando los
riesgos analizados son dependientes y están asociados a un mismo evento o fenómeno de naturaleza.
Podemos concluir que mediante el estudio de las cópulas se puede avanzar en este sentido, para
llevar a cabo una futura determinación del precio del seguro y un incremento de la capacidad del
sector.
Se muestra que las cópulas más adecuadas para el análisis siniestral del sector asegurador, son
“a priori” la cópula HRT y la cópula Gumbel, debido a que las otras dos cópulas presentadas no
tienen en cuenta la adecuada asimetrı́a de los datos siniestrales, respecto a grandes siniestros y
pequeños siniestros.
4.3.1. Introducción
El funcionamiento de un sistema combinado de drenaje (Combined Sewer System, CSS) es
utilizado para el saneamiento de aguas negras de uso doméstico, industrial y el exceso de aguas
pluviales captadas en edificios, caminos y campos para luego ser conducido a un tanque o depósito de
detención o a una planta de tratamiento de aguas residuales. El problema de las inundaciones CSS
es principalmente el resultado del pico máximo de escorrentı́a, no necesariamente por el volumen
total de escorrentı́a. Si los caudales máximos de escorrentı́a pudieran ser atenuados, la inundación
podrı́a ser razonable o no ocurrirı́a. Para atenuar los caudales máximos de escorrentı́a, entre otros,
uno de los métodos preferibles actualmente son los tanques de detención por tratarse de una de
las opciones más económicas para lograr el objetivo de un determinado control de la inundación.
Consisten en estructuras donde temporalmente se detiene cierta cantidad de escorrentı́a, lo cual
34
ayuda bastante a reducir los caudales de agua sobre todo cuando el hidrograma de inundación
presenta subida y una caı́da rápida.
El cálculo de volumen de almacenamiento del tanque y el diseño de las estructuras de salida es
adaptado de modo que el ritmo del caudal entrante excede el ritmo del caudal saliente de diseño, el
almacenamiento de la diferencia se realiza en el tanque. Por consiguiente la escorrentı́a es liberada
posteriormente de forma paulatina al sistema. Con eso se logra reducir los picos de escorrentı́a
máximos y proporcionar el tiempo necesario para que los sedimentos se depositen.
Hay disponibles varios métodos para evaluar los volúmenes de almacenamiento necesarios de
los tanques de detención, siendo los más comunes los Modelos de Precipitación-Escorrentı́a. Estos
modelos son el método preferible para calcular los volúmenes de almacenamiento, debido a su
capacidad de simular escorrentı́a bajo una variedad de condiciones. El modelo más comúnmente
utilizado es el Modelo de Gestión de Aguas Pluviales elaborado por la EPA (Agencia de protección
Medioambiental de Estados Unidos), el Storm Water Management Model (SWMM).
El modelo SWMM es un modelo de simulación dinámico de la precipitación-escorrentı́a, usado
tanto para un solo acontecimiento como para simulaciones continuas de cantidades y calidades de
escorrentı́a en las cuencas que tienen CSS y drenajes naturales. El SWMM simula la escorrentı́a
producida por la precipitación generada sobre el área de la cuenca total y luego recoge esta esco-
rrentı́a por medio de un sistema de tuberı́as, canales, tanques de detención, bombas y válvulas. Los
datos de precipitación y las caracterı́sticas fı́sicas de CSS son usados como entradas del SWMM y
los datos de salida serán hidrogramas y resúmenes de parámetros de simulación.
4.3.2. Definiciones
Definición 4.1 (Tormenta)
El modelo propuesto de cópula-EVT trata las tres caracterı́sticas de la precipitación, es decir,
la duración, la intensidad y el comportamiento temporal como variables aleatorias. La definición
debe capturar todos los eventos que tienen potencial para producir la escorrentı́a. Sin embargo,
por simplicidad en su representación, se incluyen sólo las partes de la tormenta que tienen una
influencia significativa en la respuesta de escorrentı́a. La ’tormenta completa’ y el ’núcleo de la
tormenta’ (la parte más intensa de la tormenta).
La Tormenta completa Se define en tres pasos:
1. Una tormenta “en bruto” es un perı́odo de precipitación que comienza y termina antes de
una hora no seca (periodo de fuertes lluvias) precedidas y seguidas de al menos 6 horas secas.
3. Las tormentas netas ahora llamadas tormentas completas, son evaluadas en términos de su
potencial para producir una escorrentı́a pluvial significativa, evaluando sus magnitudes de
precipitación y comparando el promedio de sus intensidades con el umbral de intensidades.
35
posición relativa de los picos de intensidad de la tormenta se representa como un porcentaje de la
duración de la tormenta (10, 20, .. 90 por ciento de duración fundamental de la tormenta).
Figura 16: Representación teórica de los pares (u,v) distribuidos según una cópula de Clayton y
HRT
4.3.3. Metodologı́a
El presente estudio se realiza en tres fases:
1. La modelización de las distribuciones marginales de las tres variables aleatorias que participan
en las tormentas de lluvias (la duración, la intensidad y el comportamiento temporal) con
una distribución generalizada de Pareto.
2. La dependencia de modelización estadı́stica entre las tres variables aleatorias usando 2-Cópu-
las.
En este ejemplo se utilizaron las cópulas Arquimedianas (Nelsen (1999), Libera y Valdez (1998),
Genest y Mackay (1986)) y valores extremos (EV), leyes del modelo, tanto la dependencia estadı́stica
y la distribución de la variable aleatoria de la lluvia de tormentas como la base del modelo de
simulación de Monte Carlo. Este modelo se utiliza para generar secuencias sintéticas de tormentas
de lluvia que puedan producirse en el futuro. De este modo se introdujeron en la aplicación de
software SWMM para la estimación óptima de detención de la cuenca inferior de los CSS, que no
se puede ampliar sin que el costo también aumente considerablemente.
36
Disponemos de un registro de datos de la hora de las precipitaciones en Granada (España)
durante 14 años, perı́odo de tiempo que comienza el 1 de octubre de 1990 hasta el 1 de
octubre de 2004. Seguido de un perı́odo seco de seis horas usado como un intervalo para
separar diferentes tormentas. Esta elección se basa en el comportamiento de la meteorologı́a
de esta área. Para el modelo de máxima intensidad, duración y posición relativa de los picos
de intensidad de la tormenta, se utiliza la aproximación del pico-over-umbral (POT). Este
enfoque se basa en la utilización de todos los eventos altos, superior a un umbral de valor
alto en los datos disponibles (llamados excedencias). Para un umbral suficientemente alto, el
número de observaciones por encima del umbral por año es bajo y de distribución Poisson.
El comportamiento de los eventos por encima del umbral, es descrito por la distribución
generalizada de Pareto por colas (2001):
y −1
ς
G(y) = 1 − 1 + ς (51)
σ
n o n o
define como y : y > 0 y (1 + ςy/σ) > 0 , cuando σ = σ + ς(u − µ) .
Para conseguir la máxima intensidad de la tormenta de datos, utiliza la media residual de la
parcela, el umbral u es de 0, 2cm/h . Desde un punto de vista fı́sico, ésta prácticamente se co-
rresponde con las precipitaciones de tormenta que pueden producir una cantidad significativa
de la escorrentı́a. La máxima intensidad de las tormentas y los correspondientes perı́odos de
tormenta son aptos en la distribución GP, mientras que la correspondiente posición relativa
de los picos de intensidad de la tormenta se ajusta a la distribución Gumbel, dada por:
!
x − λ
H(x) = exp − exp − (52)
β
donde β > 0 , λ > 0 son parámetros de escala y ubicación, respectivamente. La tabla 1 mues-
tra la estimación de parámetros y los errores tı́picos de las distribuciones sobre la base de las
estimaciones de máxima verosimilitud de los parámetros. Estos resultados se obtuvieron me-
diante el uso de subrutinas, debido a varias Colas (2003), desarrollado en software estadı́stico
R.
(TABLA 1)
37
(Si , Sd ) Si , Sp Sd , Sp
τ 0,12 0,16 0,002
(TABLA 2)
Como se ha descrito, las cópulas Arquimedianas son de fácil construcción utilizando la medi-
da de la asociación de tau Kendall. El parámetro α puede ser estimado en función de la tau
Kendall mediante las siguientes fórmulas para los tres cópulas:
α
Clayton τ = α+2
Gumbelτ = 1 − α1
4
Frank τ = 1 − Rα
t
α 1− 0 et −1
(2)
X
DC = | Cα F c2 (x2 ) − Fb(x1 , x2 ) |2
c1 (x1 ), F (53)
X1 ,X2
es elegida como la mejor cópula. Para las tres cópulas y para cada par de variables, los valores
(2)
DC se muestran en la tabla 3.
(TABLA 3)
(2)
De acuerdo con el citado criterio DC , sugerimos el uso de la cópula de Clayton para la pareja
(Sd , Sp ) que se define de la siguiente manera:
−1
Cα (u, v) = max [u−α + v −α − 1] α , 0 , α > 0 (54)
1 (e−αu − 1)(e−αv )
Cα (u, v) = − ln 1 + (55)
α e−α−1
Las figuras de la gráfica (17) muestran la bondad del ajuste utilizando QQ-plots(véase la
sección 2.2.3)de los pares de cópulas (Si , Sd ) y (Si , Sp ) respectivamente.
38
Figura 17: Bondad del ajuste de los pares de cópulas (Si , Sd ) y (Si , Sp )
39
Figura 18: Intensidad de las tormentas
Podemos concluir diciendo que se propone un original modelo que considera la intensidad,
duración y patrón de tiempo de precipitaciones como variables aleatorias. El modelo describe la
dependencia entre estas variables por medio de cópulas y marginales del valor extremo para las
tres variables. El modelo de cópula-EVT desarrollado tiene su foco en la unión entre cópula y
estadı́stica, la teorı́a de datos. La cópula es introducida y aplicada para estimar las distribuciones
de multivariantes aleatorias de los elementos aleatorios de las tormentas.
40
Referencias
[1] Agresti, A. (1990). Categorical data analysis. Wiley.
[2] Genest, C., and Mackay, J., (1986) ‘The joy of copulas:bivariate distributions with uniform
marginals´ The American Statistician, Vol. 40, No. 4, 280-283.
[3] Cherubini, U. (2004). Copula methods in finance. John Wiley & Sons, Ltd. EE.UU.
[4] De Michele, C., and Salvadori, G., (2003), ‘A generalized Pareto intensity-duration
model of storm rainfall exploiting 2-Copulas´ , Geophysical research letters. Vol. 108,
doi:10.1029/2002JD002534.
[5] Sklar, A (1959): Fonctions de Repartition ‘a n-dimensions et Leur Marges. Publ. Inst. Statist.
Univ. Par´ýs.8: 229-231.
[6] Patton, A. J. (2001b): Estimation of Copula Models for Time Series of Possibly Different
Lengths. Economics Working Paper Series 2001-17, Department of Economics, UC San Diego.
[8] Joe, H. (1997): Multivariate Models and Dependence Concepts. Capman& Hall.
[9] Genest, C., Rivest, L.-P. (1993): Statistical Inference Procedures for Bivariate Archimedian
Copulas. Journal of the American Statistical Association, 88 (423): 1034-1043.
[11] Embretchs, P., Resnick, S. y Samorodnitsky, G. (1999): Extreme Value Theory As a Risk
Management Tool. North American Actuarial Journal, 3 (2): 30-41.
[13] Sun, L. Hudson, R. and Zhang, Z. Empirical-mechanistic method based stochastic modeling
of fatigue damage to predict flexible pavement cracking for transportation infrastructure
management. Journal of Transportation Engineering, Vol. 129 (2), 2003, pp. 109-117.
[14] Sun, L. and Hudson, R. Probabilistic approach for pavement fatigue cracking prediction based
on cumulative damage using Miner’s law. Journal of Engineering Mechanics ASCE, Vol. 131
(5), 2005, pp. 546-549.
41
[15] Yan, J. Enjoy the Joy of Copulas: with a Package copula. Journal of Statistical Software, Vol.
21(4), 2007, pp. 1-21.
[16] ASTM (1981). Statistical analysis of fatigue data, American Society for Testing and Materials
STP 744, Philadelphia, PA.
[17] De Matteis, R. (2001): Fitting Copulas to Data. Diploma thesis Institute of Mathematics of
the University of Zurich.
[18] Francisco Osorio, Omar Muhaisen and Pedro A. Garcı́a. Copula-Based Simulation for the
Estimation of Optimal Volume for a Detention Basin.
[19] Embretchs, P. ; Lindskog, F. ; McNeil, A. (2001). Modelling Dependence with Copulas and
Applications to Risk Management. Department of Mathematics ETHZ. Zurich.
42