Sunteți pe pagina 1din 44

Índice

1. Noción y tipos de cópulas 1


1.1. Capacidad de las funciones cópula para reflejar relaciones de dependencia . . . . . . 4
1.2. Tipos de cópulas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3. Cópulas elı́pticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4. Cópula Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.1. La cópula de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.5. Cópulas de valor extremo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6. Cópulas arquimedianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6.1. Cópula de Frank . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6.2. Cópula de Gumbel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.6.3. Cópula de Clayton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.7. Cópula HRT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2. Selección de la cópula 14
2.1. Introducción al problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2. Etapas en el proceso de selección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.1. Determinación de las distribuciones marginales . . . . . . . . . . . . . . . . . 15
2.2.2. Propuesta de un conjunto inicial de familias de cópulas candidatas . . . . . . 15
2.2.3. Selección de la mejor familia a partir de las cópulas representantes . . . . . . 16

3. Generación y ajuste de cópula con R. Paquete copula 21


3.1. Clases de cópulas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.1.1. La clase copula . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.1.2. La clase mvdc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2. Métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2.1. Funciones de distribución y de densidad . . . . . . . . . . . . . . . . . . . . . 22
3.2.2. Generador de números aleatorios . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2.3. Gráficas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2.4. Ajuste de una cópula . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

4. Ejemplos de cópulas aplicado a problemas de riesgos financieros y de ingenierı́a


civil 27
4.1. Simulación de un modelo de cópula Gaussiana para la predicción de ruptura del
pavimento acumulada por fatiga (del material) en base a la ley de Miner . . . . . . . 27
4.1.1. Distribuciones de probabilidad de las dos variables Xi (t) y Ni . . . . . . . . . 28
4.1.2. Selección de la mejor cópula ajustada a las variables Xit y Ni . . . . . . . . . 29
4.1.3. Modelo de verificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.2. Ejemplo de Elección de la cópula multivariante óptima aplicable al sector asegurador 32
4.3. Aplicación en Hidrologı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.3.2. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.3.3. Metodologı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

I
Índice de figuras
1. Enlaces entre leyes marginales, cópulas y distribución conjunta . . . . . . . . . . . . 2
2. Función de distribución, densidad y contorno de la cópula Normal . . . . . . . . . . 7
3. Valores simulados mediante una cópula Student . . . . . . . . . . . . . . . . . . . . . 8
4. Función de distribución, densidad y lı́neas de nivel de la cópula de Frank . . . . . . . 11
5. Función de distribución, densidad y lı́neas de nivel de la cópula de Gumbel . . . . . 12
6. Función de distribución, densidad y lı́neas de nivel de la cópula de Clayton . . . . . 13
7. Cópula HRT, Simulación de pares (u,v) . . . . . . . . . . . . . . . . . . . . . . . . . 14
8. Representación de números aleatorios de una cópula normal y una t-cópula . . . . . 24
9. Representaciones contorno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
10. Porcentaje de rupturas por fatiga en función del tiempo usando los parámetros del
modelo de Shell y 80t y 100t de carga de tráfico normal por dı́a. . . . . . . . . . . . 31
11. Porcentaje de rupturas por fatiga en función del tiempo, usando los parámetros del
modelo de AI y 80t y 100t de carga de tráfico normal por dı́a. . . . . . . . . . . . . . 31
12. Porcentaje de rupturas de fatiga en función del tiempo, usando los parámetros de la
UC - Berkeley, y el modelo 80t y 100t de carga de tráfico normal por dı́a. . . . . . . 31
13. Porcentaje de rupturas por fatiga en función del tiempo, usando los parámetros del
modelo US.Army y 80t y 100 t de carga de tráfico normal por dı́a. . . . . . . . . . . 32
14. Representación teórica de los pares (u,v) distribuidos según una cópula de Fran y de
Gumbel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
15. Representación teórica de los pares (u,v) distribuidos según una cópula de Clayton
y HRT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
16. Representación teórica de los pares (u,v) distribuidos según una cópula de Clayton
y HRT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
17. Bondad del ajuste de los pares de cópulas (Si , Sd ) y (Si , Sp ) . . . . . . . . . . . . . . 39
18. Intensidad de las tormentas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

II
Teorı́a de cópulas y aplicaciones en si-
mulación de riesgos financieros y en in-
genierı́a civil

1. Noción y tipos de cópulas


Desde hace bastantes años, un problema que ha interesado mucho a un buen número de estadı́sti-
cos es el de establecer la relación existente entre una función de distribución multidimensional y sus
marginales de cualquier dimensión inferior. Este problema fue abordado por varios autores en los
años 50, obteniéndose resultados importantes. Varios autores, M. Fréchet, Abe Sklar contribuyeron
a la solución el problema. La relación de una función de distribución multidimensional con sus
marginales unidimensionales viene dada mediante una función con ciertas caracterı́sticas determi-
nadas y a la que Sklar llamará “cópula”, que une las marginales unidimensionales para producir
la función de distribución conjunta. Las cópulas se han convertido en una potente herramienta
para el modelado multivariante en muchos campos donde la dependencia multivariada es de gran
interés. Una cópula describe la estructura de dependencia de una variable aleatoria multivariante,
mediante las cópulas es posible transformar las variables aleatorias, a través de su distribución
acumulada, en variables uniformemente distribuidas. Resulta por tanto, un instrumento magnı́fico
para simular variables aleatorias con distribuciones marginales dadas, mediante la simulación de
variables uniformes con estructuras de correlaciones determinadas. La estructura de dependencia
vendrá determinada por las relaciones establecidas entre las distribuciones uniformes.

En las ciencias actuariales, las cópulas se usan en el modelado de mortalidad y las pérdidas
dependientes. En finanzas, las cópulas se usan en asignación de activos, modelado y administración
de riesgos, calificación de créditos y tasación derivada. En estudios biomédicos, las cópulas son
usadas en el modelado de tiempos de eventos correlacionados y riesgos competitivos. En ingenierı́a,
las cópulas se usan en el control de procesos multivariados y en el modelado hidrológico. . Investi-
gaciones recientes se han centrado en una clase de cópulas llamada cópulas Arquimedianas, la cual
agrupa varias familias de modelos cópula, con propiedades analı́ticas más sencillas. Muchas distri-
buciones bivariadas conocidas pertenecen a la clase de cópulas Arquimedianas. Estas cópulas son
analı́ticamente sencillas y sus elementos tienen propiedades estocásticas que los hacen atractivos
para el tratamiento estadı́stico de los datos. Además, las cópulas Arquimedianas pueden describir
una gran diversidad de estructuras de dependencia.

El principal inconveniente cuando se quiere modelar datos bivariados dependientes utilizando


modelos cópula, es que no hay ningún indicio de cuál es la forma paramétrica de la cópula. Por lo
tanto, para proceder con un análisis paramétrico tradicional se debe asumir una forma funcional
para la cópula. Aunque se han sugerido muchas formas funcionales, no hay una guı́a general para la
selección óptima de una cópula. Hasta ahora hay pocos estudios que tratan de abordar el problema.

Definición 1.1 Una cópula, C, es una función de distribución multivariante cuyas distribuciones
marginales se distribuyen uniformemente entre [0, 1]. En el caso bivariante, C(u, v) = p[U ≤ u, V ≤

1
Figura 1: Enlaces entre leyes marginales, cópulas y distribución conjunta

v] es una función definida en [0, 1]2 → [0, 1] que verifica las siguientes tres propiedades:

C(u, v) es una función creciente para cada una de sus componentes.

C(u, 1) = u y C(1, v) = v.

∀a1 ≤ a2 y ∀b1 ≤ b2 C(a1 , b1 ) + C(a2 , b2 ) − C(a1 , b2 ) − C(a2 , b1 ) ≥ 0

Teorema 1.1 Teorema de Sklar, interpretación probabilı́stica: La interpretación probabilı́stica es


la relación entre cópulas y funciones de distribución de variables aleatorias. Esta relación está esen-
cialmente establecida en el Teorema de Sklar que asegura no solamente que las cópulas son funcio-
nes de distribución conjuntas, sino que el recı́proco también es cierto: las funciones de distribución
conjuntas se pueden reescribir en términos de las marginales y una única subcópula, que a su vez
puede extenderse (en general, no de forma única) a una cópula. Es más, la mayorı́a del estudio de
funciones de distribución conjuntas puede reducirse al estudio de cópulas.

Teorema de Sklar:
Sea H una función de distribución n-dimensional con marginales F1 , ....., Fn . Entonces, existe una
cópula n-dimensional C tal que ∀X ∈ R̄n ,

H(x1 .......xn ) = C(F1 (x1 ), ......, F n(xn ))

Si F1 , ....., F n son todas continuas, entonces C es única, por tanto, está unı́vocamente determi-
nado en ran(F1 ) × ..... × ran(Fn )

De acuerdo con este resultado, cuando escribimos por ejemplo para el caso

F (x, y) = C(FX (x), FY (y)) (1)


repartimos la probabilidad conjunta entre las marginales y una cópula, de forma que esta última
solamente representa la asociación entre X e Y . Las cópulas separan el comportamiento marginal

2
(representado por las Fi ) del conjunto, en contra de lo que ocurre en la representación usual de
probabilidades conjuntas vı́a función de distribución. Por esta razón, las cópulas son denominadas
funciones de dependencia (Deheuvels 1978).

Si las distribuciones marginales son continuas, la cópula es única. Por tanto, a partir de las
cópulas, es posible crear distribuciones bivariantes con distribuciones marginales definidas. De esta
forma, si C es una cópula y FX y FX son dos distribuciones marginales, C(FX (x), FY (y)) es una
distribución bivariante.

De la definición del Teorema de Sklar, se deduce que las funciones de distribución marginales
univariantes pueden tener una estructura separada de la estructura de la cópula.

Definición 1.2 (Función de distribución inversa): Si F es una función de distribución, entonces


su función inversa generalizada, es toda función F (−1) definida en [0, 1] tal que:

Si t ∈ Im(F ) y x ∈ [−∞, ∞] , entonces F (−1) (t) = x y F (x) = t . Por tanto, ∀t ∈


Im(F ), F (F (−1) (t)) = t.
n o n o
/ Im(F ) entonces F (−1) (t) = inf x/F (x) ≥ t = sup x/F (x) ≤ t .
Si t ∈

Si F es estrictamente creciente tiene una única función inversa generalizada F (−1) .

Corolario (Corolario del Teorema de Sklar): Se define F, C, FX , DY como en los enunciados


(−1) (−1)
anteriores, FX , FY y como las respectivas funciones inversas generalizadas FX y FY . Entonces
∀(u, v) ∈ [0, 1] se verifica C(u, v) = F (FX−1 (x), FY−1 (y))
2

Definición 1.3 (Densidad de una cópula): Sabemos que, si existe, la densidad f de una función
de distribución, F , se define como:

∂F (x, y)
f (x, y) = (2)
∂x∂y
La expresión de la densidad de una cópula, simbolizada por c , es:

∂C(u, v)
c(u, v) = (3)
∂u∂v
A partir de c(u, v), la densidad f de la función de distribución F puede obtenerse como:
 
f (x, y) = c FX (x), FY (y) fX (x)fY (y) (4)

Definición 1.4 (Distribución condicionada de una cópula): Sea C1 (u, v) la derivada de C(u, v)
respecto de u , ∂C(u,v)
∂u = C1 (u, v)
 
Si la distribución conjunta de X e Y es C FX (x), FY (y) , entonces la distribución condicionada
Y /X = x es:
 
FY /X=x (y) = C1 FX (x), FY (y) (5)

3
Definición 1.5 (Survival cópula o cópula de supervivencia): Sea S(x) = p(X > x). La función de
supervivencia conjunta S(x, y) = p(X > x, Y > y) no es 1 − F (x, y) como podrı́a pensarse, si no:

S(x, y) = 1 − FX (x) − FY (y) + F (x, y) (6)

1.1. Capacidad de las funciones cópula para reflejar relaciones de dependencia


La selección de una u otra función cópula C suele estar condicionada por la forma en que ésta
establece la relación de dependencia entre las variables U y V , relación que es cuantificable de
muchas formas. Ası́ por ejemplo, el coeficiente de correlación ρ(X, Y ) nos proporciona un indicador
con el que valorar la dependencia lineal que existe entre X e Y . Cuanto más próximo a 1 esté en
valor absoluto, mayor es la relación lineal que vincula a las variables. Además, el signo de este
coeficiente nos informa del sentido de la relación: si es positivo, X crece conforme crece Y , mientras
que si es negativo, una y otra variable se mueven, de forma lineal, en sentido opuesto. El hecho de
que ρ(X, Y ) valga 0 es representativo de ausencia de relación lineal entre X e Y , lo cual no quiere
decir que no pueda existir algún otro tipo de relación (no lineal).

Existen también las denominadas “medidas de asociación”, algunas tan populares como la
Tau de Kendall y el coeficiente de correlación de Spearman, que cuantifican relaciones no nece-
sariamente lineales, y que se utilizan directamente como funciones de evaluación del contraste de
independencia, siendo X e Y independientes:


H0 : FXY (x, y) = FX (x)FY (y)
H1 : FXY (x, y) 6= FX (x)FY (y

Estas medidas, se mueven entre -1 y 1. Cuando toman alguno de estos valores extremos, reflejan
respectivamente una relación de dependencia negativa o positiva “perfecta”. Conforme se aleja de
ellos, la medida es sinónimo de falta de dependencia entre las variables. En términos coloquiales,
vienen a determinar cómo se relacionan los valores “grandes”y “pequeños” de la variable aleatoria
X con los de la variable Y .

Teorema 1.2 Relación entre una cópula y la Tau de Kendall

Sean X e Y variables aleatorias continuas cuya cópula es C. Entonces, la popular versión de


la Tau de Kendall para X e Y viene dada por:
Z Z
τXY = 4 C(u, v)dC(u, v) − 1 = 4 · E[C(U, V )] − 1 (7)
I2

Teorema 1.3 Relación entre una cópula y el coeficiente de correlación de Spearman.


Sean X e Y variables aleatorias continuas cuya cópula es C. Entonces, la popular versión del
coeficiente de correlación de Spearman para X e Y viene dada por:
Z 1Z 1
τXY = 12 C(u, v)dudv − 3 (8)
0 0

Gran parte de la importancia de estas relaciones es su utilidad para concretar la cópula más
adecuada de entre todas las pertenecientes a una misma familia paramétrica puesto que, por lo
general, es fácil calcular el valor del parámetro a partir del estimador muestral de estas medidas de
asociación mediante las expresiones (7) y (8).

4
1.2. Tipos de cópulas
Existen muchos tipos de funciones cópula y es difı́cil encontrar en la literatura una clasificación
clara de todas ellas dado que existen muy diversos criterios para hacerlo: en función de la depen-
dencia o no de parámetros, de su soporte (continuo o discreto), del tipo de relación que reflejan
(cópulas elı́pticas, cópulas de valor extremo, etc). Por ello, en vez de presentar un esquema general
que permita ubicar cada cópula de acuerdo a una jerarquı́a concreta, enumeraremos algunos de
estos criterios y citaremos algunos ejemplos asociados a las clases que resultan de su aplicación.

Tipos de cópulas en función del conocimiento explı́cito de su forma


Las cópulas se pueden clasificar también en función de que su expresión responda o no a una
ecuación paramétrica, pudiendo distinguir entre:

1. Cópulas paramétricas
Todas las cópulas que responden a una misma ecuación paramétrica definen una familia
de cópulas. En ella, el parámetro (uniparamétricas) o parámetros (multiparamétricas)
cuantifican de algún modo la relación de dependencia entre las variables que asocian.
2. Cópulas no paramétricas
De igual manera existen familias de cópulas no paramétricas que son aquellas en cuya
definición no participa ningún parámetro sino que, por su estructura empı́rica, se ajustan
de forma local a los datos.

Dentro de uno y otro grupo, gozan de popularidad la clase de las cópulas arquimedianas
caracterizada por la facilidad con que pueden ser construidas y por la gran variedad de
estructuras de dependencia que permiten reproducir.
A continuación se describirás algunos tipos de cópulas en función de la relación de dependencia

1.3. Cópulas elı́pticas


Se definen como las cópulas asociadas a las distribuciones elı́pticas. Su rasgo más caracterı́stico
es que representan relaciones de dependencia simétricas sin importar que se analice la cola izquierda
o derecha de las distribuciones implicadas.
Las cópulas Normales y de Student son cópulas elı́pticas, son simétricas y de utilización relati-
vamente simple, ya que se conocen bien las distribuciones que están asociadas.

Caracterización
Se llama cópula elı́ptica a toda cópula de la forma:

Φ−1
g,1 (u)
Z Φ−1 (v)
x2 − 2ρxy + y 2
Z
1 g,2
Cρ (u, v) = p g( √ )dx · dy = Hρ (Φ−1 −1
g,1 (u), Φg,2 (v)) (9)
1 − ρ2 −∞ −∞ 1 − ρ2

Es la distribución conjunta de variables X e Y , Φ−1 −1


g,1 (u), Φg,2 (v) funciones cuantiles respectivas
yρ sus coeficientes de correlación.

Como hemos dicho, las cópulas elı́pticas mejor conocidas son:

5
1.4. Cópula Normal
La cópula normal es la función de dependencia asociada a la distribución normal multidimen-
sional. Sea ρ una matriz diagonal definida positiva con diag(ρ) = 1 y Θρ la distribución normal
bivariada standard y de matriz de correlación ρ. La cópula normal se define de la siguiente forma:

C(u1 , u2 ; ρ) = Φρ (Φ−1 (u1 ), Φ−1 (u2 )) (10)


La densidad de la cópula normal se escribe:

1 x2 + x22 − 2ρx1 x2 x21 + x22


C(u1 , u2 ; ρ) = p exp( 1 + ) (11)
1 − ρ2 2(1 − ρ2 ) 2
Con x1 = Φ−1 (u1 ) Se muestra esta relación utilizando la expresión de la densidad de la distri-
bución normal Φ bivariada:

1 x2 + x22 − 2ρx1 x2
ϕρ (x1 , x2 ) = exp( 1 ) (12)
2(1 − ρ2 )
p
2π 1 − ρ2
Luego usamos la siguiente propiedad relativa a la densidad de una cópula:

f (x1 , x2 ) = C(F1 (x1 ), (F2 (x2 ))) · f1 (x1 ) · f2 (x2 ) (13)


Para determinar la expresión de densidad de la cópula normal.

Simulación de la cópula Normal

>library (cópula)
> set.seed (1)
> norm.cop = normalCópula (0,5)
> norm.cop

Normal cópula family .


Dimension: 5
Parameters:
rho.1 = 0
dispstr: ex

> x = rcópula (norm.cop,1000)


> plot (x,main = "Ejemplo de cópula Normal")
> plot (x,main = "Ejemplo de cópula Normal")
> persp (norm.cop,pcópula,main = "Función de distribución
de la cópula Normal",col = "lightblue")
> persp (norm.cop,pcópula,main = "Densidad de la cópula Normal"
,col="green3")

1.4.1. La cópula de Student


Es la función de dependencia asociada a la distribución t multidimensional. Por ejemplo, en el
caso bivariado:  
3,5C(u1 , u2 ; ρ, ν) = tρ,ν t−1 (u1 ), t−1 (u2 ) (14)

6
Figura 2: Función de distribución, densidad y contorno de la cópula Normal

Con tν la distribución de Student con ν grados de libertad y tρ,ν la distribución t de Student


bivariada con ν grados de libertad y matriz de correlación ρ. La densidad de la copula t se escribe:
x21 +x22 −2ρx1 x2
 
ν ν 2
Γ( 2 ) 1 + 2
ν(1−ρ )
− ν+2
2
C(u1 , u2 ; ρ, ν) = p · (ν+1) · h
x 2

x 2
i (15)
2
2 1 − ρ Γ( 2 ) 2 ν+1
1 + ν1 1 + ν2 − 2

Con x1 = t−1 ν (u1 ). Como antes, para mostrar ésta relación utilizamos la expresión de la distri-
bución t bivariada:
Z x1 Z x2
1  y 2 + y22 − 2ρy1 y2  ν + 2
tρ,ν (x1 , x2 ) = 1+ 1 − dy1 · dy2 (16)
ν(1 − ρ2 )
p
−∞ −∞ 2π 1 − ρ2 2
Luego usamos la propiedad relativa a la densidad de una cópula:

f (x1 , x2 ) = C(F1 (x1 ), F2 (x2 )) · f1 (x1 ) · f2 (x2 ) (17)


Para determinar la expresión de densidad de la cópula t.
Nota: A menudo son llamadas cópulas implı́citas ya que no tienen forma analı́tica explı́cita y
por tanto se expresa en términos de las distribuciones bivariadas asociadas a los mismos, por el
teorema de Sklar.

Simulación de la cópula de Student


> t.cop = tCópula (c (0.5 , 0.3 ) ,dim = 3,dispstr = "toep"
,df = 2)
> scatterplot3d (rcópula ( t.cop , 1000) )

1.5. Cópulas de valor extremo


Estas cópulas serán de gran utilidad para representar relaciones que ponen mayor énfasis en-
tre los sucesos “cola”, (extremos) de las distribuciones marginales. Las cópulas de valor extremo
son los posibles lı́mites (en caso de que existan) de cópulas asociadas a los máximos de muestras
independientes e idénticamente distribuidas. Entendamos mejor esta definición. Sea una muestra

7
Figura 3: Valores simulados mediante una cópula Student

de variables aleatorias bidimensionales (X1 , Y1 ), ..., (Xn , Yn ) independientes e idénticamente distri-


buidas de acuerdo a unas mismas marginales FX y GY y a una misma distribución conjunta HXY
que, en virtud del teorema de Sklar llevará asociada una cópula C:
 
HXY (x, y) = C FX (x), GY (y) (18)
 
Sean las variables Mn = max X1 , X2 , ...., Xn y Nn = max Y1 , Y2 , ...., Yn cuyas funciones
de distribución vienen dadas por F n (x) = P [Mn ≤ x] y Gn (y) = P [Nn ≤ y] y con distribución
conjunta Hn (x) = P [Mn ≤ x, Nn ≤ y].
Si C es también la cópula asociada al par (Mn , Nn ) y a su posible lı́mite cuando “n” tiende a
infinito se dice entonces que C es una cópula de valor extremo (CVE). Como se explica en [Segers],
de acuerdo al teorema de Dehuelves una cópula C de valor extremo queda caracterizada por la
condición:
1 1
C t (u t , v t ) = C(u, v) ∀>0 (19)
Siendo un corolario de ésta el que las cópulas de valor extremo sólo modelizan dependencia
positiva. Además, existe un teorema propuesto por Pickands (1981) que permite asociar una re-
presentación asociada a este tipo de cópulas.
Teorema 1.4 Representación de cópulas de valor extremo
Una cópula C es una cópula de valor extremo si y sólo si existe una función real valorada A,
definida sobre el intervalo [0,1], que verifica la siguiente relación:
n  log(v) o
C(u, v) = exp − log(u · v) · A (20)
log(u · v)
o equivalentemente: n v
 o
C(e−u , e−v ) = exp − (u + v) · A (21)
log(u + v)
La función A recibe el nombre de función de dependencia de Pickands y verifica las siguientes
propiedades:

8
1. Es convexa en [0,1].

2. max(t, 1 − t) ≤ A(t) ≤ 1 ∀ ∈ [0, 1]

1.6. Cópulas arquimedianas


Existe una gran diversidad de familias que pertenecen a la clase arquimediana y gracias a esta
variedad permiten, a diferencia de las elı́pticas (simétricas) y de las de valor extremo (muy orienta-
das a dependencias en las colas), recoger muchos tipos de estructuras de dependencia adicionales.
Otra ventaja de este tipo de cópulas es la facilidad con la que pueden ser construidas.

Definición 1.6 Sea P hi el conjunto de funciones ϕ : [0, 1] → [0, ∞] que son continuas, estricta-
mente decrecientes, convexas y para los cuales ϕ(0) = ∞ y ϕ(1) = 0 . Schweizer y Sklar demuestran
que cada miembro de P hi, genera una copula C a través de la expresión:
 
C(u, v) = ϕ−1 ϕ(u) + ϕ(v) con 0 ≤ u, v ≤ 1. La función ϕ recibe el nombre de generador
de la cópula.

Muchas de las familias paramétricas de cópulas interesantes pertenecen a la llamada clase de


cópulas Arquimedianas que capturan una gran variedad de estructuras de dependencia. Como
veremos, la representación arquimediana de cópulas permite reducir el estudio de una cópula mul-
tivariante a una única función univariante.
La función ϕ se llama el generador arquimediano de la cópula C. Si ϕ(0) = +∞ entonces la
cópula C se llama estrictamente arquimediana cuyo caso ϕ−1 coincide con la función recı́proca de
ϕ.
Siguiendo este procedimiento se han creado muchos tipos de cópulas que forman parte de la
familia de cópulas Arquimedianas entre los que se encuentran las cópulas de Frank, Clayton y
Gumbel entre otras.

1.6.1. Cópula de Frank


La función de distribución para la cópula de Frank es:
  
e −au − 1 e−av − 1 !
1
Ca (u, v) = − ln 1 + (22)
a e−a − 1
Si hacemos gz = eaz , la derivada de la cópula respecto de la componente u resulta:
!
∂Ca (u, v) gu · gv + gv
C1 = = (23)
∂u gu · gv + g12
Y la función de densidad:
!
1 + gu+v
C(u, v) = −ag1 (24)
(gu gv + g12 )
Para evaluar el grado de asociación entre las marginales en el modelo generado por la cópula
de Frank, el coeficiente de correlación de Kendall correspondiente está dada por:

9
Z a
4 4 t
τ (a) = 1 − + 2 dt (25)
a a 0 et −1
La integral en esta expresión no tiene solución analı́tica, sin embargo, es posible usar métodos
numéricos, que pueden dar buenas aproximaciones. La τ de Kendall de la cópula de Frank toma
valores en el rango completo de concordancia. Observando los casos especiales de la cópula de
Frank, se puede comprobar que:

lı́m τa = −1 lı́m τa = 1 lı́m τa = 0


a→−∞ a→∞ a→0

Simulación de una cópula de Frank


Para simular la cópula de Frank podemos utilizar el algoritmo siguiente:

1. Simulamos dos variables aleatorias uniformes v1 y v2 ;

2. u1 = v1 ;

3. Tomamos: !
1 v2 (e−α − 1)
u2 = C −1 (v2 , u1 ; α) = − ln 1 + (26)
α v2 + (1 − v2 )eαu1

Cópula de Frank en R

frank.cop = frankCópula ( 2 , dim = 3)


scatterplot3d ( rcópula ( frank.cop , 1000) )
frank.cop = frankCópula (2)
persp ( frank.cop , dcópula ,main = "densidad de la cópula
de Frank ", col = " green3 ")
persp ( frank.cop , pcópula , col = " lightblue " , main="Función
de distribución de la
cópula de Frank ")
clayton.cop = archmCópula (" frank ", 2)
contour ( f rank . cop , dcópula , main= " lı́neas de nivel de densidad
de la cópula de Frank")

Se obtienen las gráficas siguientes con α = 2.

1.6.2. Cópula de Gumbel


La función de distribución para la cópula de Gumbel es:
!
h i1
a a a
Ca (u, v) = exp − (− ln u) + (− ln v) (27)

La función derivada de la cópula respecto de la componente u es:


!
∂Ca (u, v) h i−1+ 1 (− ln u)a−1
a
C1 = = C(u, v) (− ln u)a + (− ln v)a (28)
∂u u
y la densidad

10
Figura 4: Función de distribución, densidad y lı́neas de nivel de la cópula de Frank

" #
h i−2+ 2 h ia−1 h i− 1
c(u, v) = C(u, v)u−1 v −1 (− ln u)a +(− ln v)a
a a
ln ·u ln v 1+(a+1) (− ln u)a +(ln v)a

(29)
El coeficiente de correlación de Kendall, en función de su parámetro a, se define como:
1
τa = 1 − (30)
a
Simulación de la cópula de Gumbel Para simular la cópula logı́stica de Gumbel utilizamos el
método de distribuciones. En efecto se puede simular la distribución bivariada de Gumbel con el
algoritmo siguiente:
1. Simulamos tres variables aleatorias i.i.d E1 , E2 y E3 que siguen una distribución exponencial.
E 
1
x1 = ln (31)
E3
y
E 
2
x2 = ln (32)
E3
tomando
2. Copula de Gumbel en R

<gumbel.cop =gumbelCópula ( 4 , dim = 3)


scatterplot3d ( rcópula ( gumbel.cop , 1000) )
gumbel.cop =gumbelCópula (1 0)
persp( gumbel.cop , dcópula ,main =" densidad de la cópula de
Gumbel ", col = " green3 ")
persp( gumbel.cop , pcópula , col =" lightblue " , main= "Función
de distribución de la cópula Gumbel ")
gumbe.cop =archmCópula (" gumbel ", 5)
contour ( gumbel.cop , dcópula )

11
Se obtienen las siguientes gráficas:

Figura 5: Función de distribución, densidad y lı́neas de nivel de la cópula de Gumbel

1.6.3. Cópula de Clayton


La función de distribución para la cópula de Clayton es:
!a
− a1 − a1
Ca (u, v) = u +v −1 (33)

La función derivada de la cópula respecto de la componente u es:


! " #a−1
∂Ca (u, v) −1+ a1 − a1 − a1
C1 = =u u +v −1 (34)
∂u
y la densidad:
! " #a−2
1 −1− a1 − a1 − a1
C(u, v) = 1+ (u · v) u +v −1 (35)
a
El coeficiente de correlación de Kendall, en función de su parámetro a, se define como:
1
τ (a) = (36)
2a + 1
Simulación de una cópula Clayton Para simular la cópula de Clayton utilizamos el algoritmo
siguiente dado por Devroye:

1. Simulamos dos variables aleatorias uniformes x1 y x2 ;

2. Simulamos une variable aleatoria x de distribución τ (1, α) ;


u1 = (1 + xx1 )−α y u2 = (1 + xx2 )−α Tomamos:

3. Copula de Clayton en R

12
clayton.cop=claytonCópula ( 2 , dim = 3)
scatterplot3d( rcópula ( clayton.cop , 1000) )
clayton.cop=claytonCópula (0.1)
persp(clayton.cop,dcópula,main ="densidad de la cópula de
Clayton ",col = "green3 ")
clayton.cop = archmCópula ("clayton" ,2)
contour ( clayton.cop , dcópula , main =" lı́neas de nivel de la cópula de Clayton "

Figura 6: Función de distribución, densidad y lı́neas de nivel de la cópula de Clayton

1.7. Cópula HRT


Esta cópula no pertenece a la familia de cópulas Arquimedianas pero puede definirse como la
cópula de supervivencia, survival copula, de la cópula de Clayton.
La expresión de la función de distribución para la cópula HRT es:
" #−a
− a1 − a1
Ca (u, v) = u + v − 1 (1 − u) + (1 − v) −1 (37)

La función derivada de la cópula HRT respecto de la componente u, resulta:


!
∂Ca (u, v) h 1 1
i−a−1 1
C1 = = 1 − (1 − u)− a + (1 − v)− a − 1 (1 − u)−1− a (38)
∂u

y la densidad de la cópula es:


!
1 h 1 1
i−a−2 h i−1− 1
= (1 − u)− a + (1 − v)− a − 1
a
c(u, v) = 1 + (1 − u)(1 − v) (39)
a
El coeficiente de correlación de Kendall, en función de su parámetro a, es el mismo que para la
cópula de Clayton.

13
Figura 7: Cópula HRT, Simulación de pares (u,v)

2. Selección de la cópula
2.1. Introducción al problema
Uno de los problemas clásicos en la estadı́stica es conocer la distribución a la que responde una
muestra dada de forma que ésta quede bien caracterizada y puedan extraerse conclusiones con fines
descriptivos o predictivos. Dentro del contexto de la teorı́a de cópulas, este problema presenta una
doble vertiente: una univariante asociada a la especificación de las funciones de distribución FX y
GY (en adelante F y G) correspondientes a las marginales de X e Y , y otra bivariante, (en gene-
ral multivariante), asociada a la determinación de aquella conjunta HXY (en adelante H), de las
infinitas que comparten dichas marginales, que mejor captura la relación entre ellas. La vertiente bi-
variante desemboca en la búsqueda de una función cópula C cuyas caracterı́sticas puedan esperarse
para la verdadera distribución conjunta H, siendo el teorema de Sklar el que establece la transfor-
mación final de C en H. En ocasiones, por las caracterı́sticas del problema que se está estudiando,
se puede tener una idea preconcebida de la familia de cópulas que puede ser más apropiada para
explicar la relación entre las variables que se manejan. Ası́ por ejemplo, si el estudio está orientado
a medir el grado de asociación para valores extremos de dos variables, que se intuye presenta un
comportamiento especial respecto del grado de asociación que pudieran tener para otros valores
no extremos, suele ser aconsejable utilizar cópulas que enfaticen la relación entre las colas de las
distribuciones marginales (cópulas del valor extremo), como por ejemplo las pertenecientes a la
familia de Gumbel. Generalmente cuando se habla de los diferentes tipos de cópulas que existen,
solemos referirnos intrı́nsecamente a diferentes tipos de familias. Todas las cópulas que pertenecen
a una misma familia, presentan una misma estructura (o ecuación) que puede depender de uno
o varios parámetros (o de ninguno, si hablamos de cópulas no paramétricas), de forma que, para
cada uno de los valores del espacio paramétrico de definición, se obtendrá un miembro de esa familia.

2.2. Etapas en el proceso de selección


En un primer paso, el analista determina varias familias de cópulas que a su juicio considera
candidatas a reflejar un tipo de relación entre las variables de estudio. Dentro de cada una de
ellas, selecciona aquel miembro (normalmente dado por el valor de uno o varios parámetros) que

14
mejor refleja una relación concreta (la observada en los datos). Finalmente debe decidirse por
aquél representante que, en función de ciertos criterios, mejores resultados le proporcione. Podemos
resumir que las etapas que encontraremos en el proceso de selección de cópulas y que a continuación
pasaremos a detallar son las siguientes:

1. Determinación de las distribuciones marginales asociadas a cada una de las variables en


función de las muestras de datos disponibles.

2. Propuesta de un conjunto inicial de familias de cópulas candidatas que, por sus caracterı́sti-
cas, se perfilan como adecuadas para reflejar la relación existente entre las variables. Esta
propuesta se hará de acuerdo al conocimiento o en su defecto intuición, que se tenga sobre la
forma de dicha relación.

3. Selección de una cópula por familia. En el caso paramétrico se trata de determinar los valores
asociados a los parámetros correspondientes a cada familia para lo cual, se suelen utilizar
expresiones que permitan el cálculo de dichos parámetros a partir de la estimación muestral
de alguna medida de asociación como el coeficiente de correlación de Spearman o la Tau de
Kendall.

4. Elección de la cópula de entre todas las que representan a cada una de las familias candidatas.

2.2.1. Determinación de las distribuciones marginales


La vertiente univariante conlleva la especificación de funciones de distribución asociadas a cada
una de las variables. Si bien existen los clásicos contrastes de bondad de ajuste que permiten
evaluar el grado de parentesco con alguna distribución conocida, una buena aproximación podrı́a
venir dada por la la versión continua de la función de distribución empı́rica de cada variable que, se
calcula de la siguiente manera: Dada la muestra x1 , x2 , ..., xn extraı́da de la variable X, la función
de distribución empı́rica (discreta) viene dada por:
n
1X
F̂n = 1[Xi ≤x] (40)
n
i=1

Consideremos entonces a y b dos números reales tales que a ≤ x1 , x2 , ..., xn y b ≥ x1 , x2 , ..., xn .


Ordenamos las xi de menor a mayor y denotamos por z a las variables x ordenadas, z1 , z2 , ..., zn .
Además, se definen dos puntos auxiliares z0 = a y zn+1 = b. A partir de esta nueva muestra de
n + 2 elementos se define la funcion de distribucion empirica continua mediante rectas que unen los
puntos medios de los segmentos que conforman la función de distribución empı́rica (discreta).

2.2.2. Propuesta de un conjunto inicial de familias de cópulas candidatas


El analista experto en cópulas conoce las propiedades que caracterizan a las diferentes familias
existentes y que las pueden hacer más o menos apropiadas para reflejar algún tipo de relación que, a
priori, puede presuponer que exista entre las variables. Ası́ por ejemplo, las familias elı́pticas resultan
más convenientes para reflejar relaciones simétricas mientras que las definidas como cópulas de valor
extremo, enfatizan asimetrı́as que ganan fuerza entre los sucesos “cola” de las distribuciones.
Debe ser el conocimiento del analista sobre la relación subyacente a los datos y el que tiene sobre
las caracterı́sticas de las familias de cópulas a su alcance, los factores principales que le lleven a
descartar de antemano alguna de estas familias y seleccionar algunas otras como candidatas de
partida útiles, pues gracias a su gran diversidad permite recoger relaciones de muy distintos tipos.

15
Por ejemplo en el caso de cópulas Arquimedianas el procedimiento para determinar la cópula que
mejor se ajusta a una muestra aleatoria bivariante de n observaciones (x1 , y1 ), ..., (xn , yn ) comienza
asumiendo que ésta ha sido generada por una distribución bivariante desconocida H(x, y) con
marginales continuas F (x) y G(y) y cópula arquimediana C(u, v). Hecha esta consideración, se
trata de determinar a qué familia pertenece C, o lo que es lo mismo, la forma del generador ϕ
de la cópula que, recordemos, caracteriza a la cópula arquimediana. Se podrá disponer de varias
familias candidatas Cθθ∈Θ (con varios tipos de generadores ϕθ ) y, para cada una de ellas, elegir un
representante CθOP T . Como cita De Matteis, para la estimacion de θ, existen diferentes alternativas:

Estimar en un primer paso las funciones de distribución marginales mediante métodos pa-
ramétricos o no paramétricos y, posteriormente, a partir de ellas, estimar q mediante el prin-
cipio de máxima verosimilitud.

También es posible hacer la estimación de las marginales y del parámetro q en un solo paso.
En este caso, la estimación de q puede hacerse de dos formas:

• Empleando un método paramétrico como es el procedimiento de estimación de máxima


verosimilitud, siendo la función de verosimilitud L(α, θ, X, Y ) donde α identifica a los
parámetros de las marginales.
• Empleando un método no paramétrico, recomendado por Genest y Rivest (1993) donde
θ es estimado en un sólo paso, con independencia de las funciones de distribución margi-
nales. La estimación se hace empleando la correlación rango de Kendall. Procediendo de
la forma que describe [Matteis] para cada una de las familias candidatas, el resultado es
un conjunto de cópulas (una por familia) entre las que será necesario hacer la selección
final.

2.2.3. Selección de la mejor familia a partir de las cópulas representantes


En este apartado se proponen algunos de los criterios más utilizados para decantarse por la
selección de una determinada cópula dentro de un conjunto de candidatas. Dicho conjunto puede
haber sido el resultado de alguno de los procesos descritos en el apartado anterior. La decisión
obviamente lleva implı́cita el optar por una determinada familia.

1. Método 1: Empleo de la cópula empı́rica


Las cópulas empı́ricas fueron estudiadas originalmente por Deheuvels (1979). La idea consiste
en construir una función cópula a partir de valores muestrales (x1 , y1 ), ..., (xn , yn ) recogidos
para las variables univariantes sin establecer dependencia de ningún parámetro. De esta forma,
la cópula es no paramétrica y queda definida únicamente a partir de la muestra de datos
disponible.
La definición de la cópula empı́rica responde a la expresión:

i j (no de pares(x,y) en la muestra tales que x ≤ x(i) e y ≤ y(j) )


Cn ( , ) = (41)
n n n
para (x1 , y1 ), ..., (xn , yn ) muestra de una distribución bivariante conjunta, y siendo x(i) e y(j)
con 1 ≤ i, j ≤ n los estadı́sticos de orden definidos a partir de dicha muestra.
Este primer método plantea la selección de una cópula dentro de una familia de candidatas
Ck1≤k≤K eligiéndose aquella que minimiza la distancia a la empı́rica. La medida de distan-
cia que se propone está basada en la norma discreta Ln , siendo n, el número de variables
analizadas(en el caso bivariante, n = 2):

16
T T 
!
¯ Ĉ, Ck ) =
X X t1 tn t1 tn 
dn( ... Ĉ( ... ) − Ck ( ... ) (42)
T T T T
t1 =1 tn =1
Si bien estamos partiendo de que ya disponemos de una cópula concreta dentro de cada una
de las familias y esta distancia nos va a ayudar a seleccionar una de ellas, también es posible
aplicar esta medida a todas las cópulas de una misma familia para determinar el valor del
parámetro más conveniente. Es decir, podrı́amos prescindir del paso previo de estimación
que hemos comentado y hacer la selección de la cópula dentro de cada una de las familias
ˆ El vector de parámetros θ ∈ Θ(o el parámetro si hablamos de cópulas
valiéndonos de dn.
uniparamétricas) se puede estimar de la siguiente forma:
X 1
θ̂ = argminθ∈Θ ( [Ĉ(u, v) − C(u, v; θ)]2 ) 2 (43)
u∈l

2. Método 2: Métodos gráficos Existen diferentes métodos gráficos que permiten un contraste
visual del ajuste de una cópula a los datos. Aquı́ se proponen dos basados en el empleo de
QQ-plots.
Gráfico basado en la función de distribución condicional Y |X. Para ello, basta observar
que la cópula condicionada C1 (F (x), G(y)) = HY /X (x, y) se deberı́a distribuir teóri-
camente según una U (0, 1). Ası́, mediante un gráfico QQ-plot se puede establecer el
contraste observando si el resultado se aproxima a la recta y = x. Se tratarı́a de ver para
cuál de todas las cópulas candidatas se obtiene una mejor aproximación.
Gráfico basado en la función de distribución de la cópula. Se define Kc (t) como la C-
medida del conjunto (u, v) ∈ [0, 1] × [0, 1] t.q C(u, v) ≤ t. Se puede demostrar que si
C en una cópula arquimediana generada por una función ϕ, entonces Kc (t) se puede
ϕ(t)
escribir como KC (t) = t −
ϕ(tderecha )
siendo dicha función la función de distribución de la variable aleatoria C(u, v). Por
tanto, de igual modo que si X tiene función de distribución F entonces F (X) v U (0, 1),
podemos concluir que si C está suficientemente bien aproximada a los datos cabe esperar
que KC (C(F (X), G(Y ))) v U (0, 1). Valdrı́a nuevamente un gráfico QQ-plot asociado a
las funciones de distribución K correspondientes a cada una de las cópulas candidatas
para terminar decantándose por aquella que más se aproxime a la recta y = x.
3. Método 3: Aproximación analitica de los métodos gráficos Si bien los métodos gráficos
anteriores pueden proporcionar una idea bastante buena de cuál es la cópula más apropiada,
se puede eliminar la subjetividad asociada a la agudeza visual del analista y plantear un test
de hipótesis para contrastar si las distribuciónes de C1 (F (x), G(y)) o Kc (t) se aproximan a
una U (0, 1). Citamos los dos contrastes clásicos de bondad de ajuste a una distribución dada,
el de la Chi-cuadrado y el de Kolmogorov-Smirnov. Para llevar a cabo estos contrastes se
trocea el rango de variación de la distribución a contrastar en una serie de intervalos y se
comprueba si el número de valores muestrales observados en cada una de ellos (Oi) se parece
al número de ellos que cabrı́a esperar (Ei) bajo el supuesto de que siguieran una distribución
U (0, 1).
Contraste de la Chi-cuadrado (basado en el estadı́stico de Pearson).
La muestra de partida es el conjunto de valores C1 (F (xi ), G(yi )) o Kc (ti ) que nos pro-
porcionará las frecuencias observadas (Oi) dadas por el número de pares (F (xi ), G(yi ))

17
que caen en cada uno de los intervalos. Debemos contrastar si éstas frecuencias se apro-
ximan a las esperadas (Ei) para una distribución uniforme estándar. Aquella cópula C
cuya condicionada C1 dé un mayor grado de proximidad entre estas frecuencias (menor
valor del estadı́stico de Pearson) será la propuesta para representar la relación entre X
e Y.
Contraste de Kolmogorov-Smirnov (basado en el estadı́stico Dn)
En este caso, C1 (F (xi ), G(yi )) o Kc (ti ) proporcionará la muestra de valores a partir de
la cual se construirá la función de distribución empı́rica Fn . El objetivo es ver si ésta se
parece a la función de distribución de una U (0, 1). Ası́, la cópula C cuya condicionada
C1 nos proporcione un valor del estadı́stico Dn más pequeño, será aquélla para la que la
muestra de valores se aproxime más a una distribución uniforme estándar y por tanto,
la más apropiada para representar la relación entre X e Y .

4. Método 5: Contrastes basados en la frecuencia espacial.


Existen varios autores como Breymann, Malevergne y Sornette, Mashal , Zeevi y Fermanian
o Savu y Trede que han propuesto diferentes contrastes de bondad de ajuste de una cópu-
la. Este método consiste en considerar C(u, v) como una cópula desconocida asociada a la
variable aleatoria bidimensional (X, Y ) y contrastar si dicha cópula pertenece a una familia
paramétrica conocida C(u, v; θ) con θ ∈ Θ ⊂ Rd Es decir, la hipótesis nula asociada al con-
traste seria H0 : C(u, v) = C(u, v; θ) para algún θ ∈ Θ. Se puede utilizar como valor para
q aquel que se estimara para dicha familia mediante el método de la máxima verosimilitud
o a través de la correlación rango de Kendall, θOP T . Se trata de un contraste de bondad
de ajuste pero, a diferencia del que se planteara en la aproximación analı́tica del método de
aproximación analı́tica de los métodos gráficos descrito anteriormente, se trata de un test
cuyo estadı́stico irá asociado a una muestra bidimensional y en consecuencia, las clases de las
que depende no serán intervalos del eje real sino rectángulos del plano real (concretamente
del rectángulo unidad).
En primer lugar, dividiremos el intervalo [0, 1] del eje X en r subintervalos de igual longitud
y se procede de manera idéntica con el intervalo [0, 1] del eje Y , si bien el número de clases
puede ser distinto, s. Como resultado de esta partición, el rectángulo [0, 1]2 quedarı́a dividido
en un total de r × s rectángulos del mismo área Bij .
Para construir el estadı́stico del contraste será necesario disponer del número de puntos mues-
trales que caen en cada uno de los rectángulos y de la frecuencia teórica esperada para cada
uno de ellos a través de la cópula que se contrasta. Ası́, dada una cópula C perteneciente a
la familia C(u, v; θ) para la que ya ha sido estimado su parámetro θOP T la frecuencia teórica
asociada al rectángulo Bij es n · pij (θOP T ), donde
Z Z
pij (θOP T ) = P ((U, V ) ∈ Bij /θOP T ) = dC(u, v : θOP t )
Bij

Por otro lado, para calcular el número de puntos muestrales que caen en cada uno de los
rectángulos, Nij (este número es independiente de la familia de cópulas considerada), se
deben distinguir dos casos en función del conocimiento que se tenga de las distribuciónes
marginales asociadas a X e Y :

Si se supone que F y G son conocidas, basta con hallar la imagen a través de F y G


de la muestra bidimensional, es decir, (ui , vi ) = (F (xi ), G(yi )) y calcular el número de
puntos transformados que caen en cada rectángulo.

18
Por el contrario si las distribuciónes de F y G son desconocidas, la forma de calcular
(ui , vi ) es a partir de las funciones de distribución empı́ricas asociadas a X e Y , es decir,
haciendo:
n n
1X 1X
ûi = Fˆn (xi ) = 1[Xi ≤x] y vˆi = Gˆn (yi ) = 1[Yi ≤y]
n n
i=1 i=1

donde,
rango de xi en x1 , x2 , .., xn rango de yi en y1 , y2 , .., yn
ûi = y vˆi =
n n
A partir de todos estos datos, se puede plantear nuevamente como estadı́stico del con-
traste, el estadı́stico de Pearson:
r X
s
X (Nij − n · pij (θOP T ))2
(44)
n ∗ pij (θOP T )
i=1 j=1

o bien el del cociente de verosimilitudes:


r X
X s
(Nij · ln(pij (θOP T ))) (45)
i=1 j=1

En el primer caso (F y G conocidas), estos estadı́sticos se distribuyen según una Chi-


cuadrado con r × s − 1 − d grados de libertad (donde d normalmente valdrá 1 pues
consideramos cópulas uniparamétricas); en el segundo caso (F y G desconocidas), el
estadı́stico se distribuye según una Chi-cuadrado con (r − 1) × (s − 1) − d grados de
libertad.
En cualquiera de ellos, se calculará uno de los dos estadı́sticos para cada una de las cópu-
las candidatas y se seleccionará de entre todas ellas, aquella C para la que se obtenga un
menor valor del estadı́stico del contraste dado que sera la que refleje mayor proximidad
entre el volumen empı́rico de cada uno de los rectángulos y el volumen esperado para
ellos a través de la cópula.

5. Método 6: Calidad de las predicciones que proporciona una cópula


Aún cuando todos los métodos descritos puedan ser válidos diremos que, por lo general,
la selección de una u otra cópula estará sujeta a la finalidad que persiga el estudio que se
está llevando a cabo. En nuestro caso, en el que la idea consiste en utilizar estas funciones para
realizar predicciones, parece conveniente decidirse por aquélla que mejores resultados propor-
cione, resultados que se medirán en términos de error. Supongamos que estamos interesados
en predecir el comportamiento de una variable Y en función de los valores conocidos de una
variable X. Para ello, disponemos de un histórico dado por una muestra bidimensional que
relaciona ambas variables (x1 , y1 ), ..., (xn , yn ).
Supongamos que HY /X es la función de distribución de la variable condicionada (desconoci-
da). Sabemos que ésta se encuentra relacionada con las marginales de X e Y a través de la
derivada de una cópula respecto de la primera de las variables (U ), C1 , mediante la expresión
HY /X (y) = C1 (F (x), G(y)). La obtención de predicciones de Y a partir de X se realizará me-
diante la simulación de valores de la función HY /X .
Ası́, nuestro estudio predictivo se puede plantear en una relación de etapas:

19
a) Determinación de un conjunto de entrenamiento y otro de validación
Reservamos parte del histórico para validar la calidad de las predicciones que vamos a
realizar. Dicha parte recibirá el nombre de conjunto de validación y no participará en el
ajuste de las distribuciónes marginales ni en el de la selección de la función cópula que
mejor representa a una de las familias candidatas sino que será utilizado con posterioridad
para la evaluación de las mismas. Por lo general, se reserva una cuarta o quinta parte de
los datos disponibles para validar los resultados. El resto del histórico se utilizará para
realizar los ajustes y recibe el nombre de conjunto de entrenamiento.
b) Determinación de marginales
Tomaremos como marginales las funciones de distribución empı́ricas continuas asociadas
a X e Y y las aplicaremos a los valores muestrales (de entrenamiento) para obtener
la muestra transformada (FX (x1 ), FY (y1 )), ..., (FX (xn ), FY (yn )). Ésta será una muestra
bidimensional de variables uniformes estándar (u1 , v1 ), ..., (un , vn ), siempre y cuando las
aproximaciones dadas por estas marginales sean suficientemente buenas. Por supuesto,
también pueden proponerse como marginales algunas de las distribuciónes univariantes
conocidas (Normal, Exponencial, Pareto, etc.), si bien conviene previamente plantear
el correspondiente contraste que confirme la hipótesis lanzada. En cualquier caso, la
cópula C y de igual manera su condicionada respecto de U, C1 , actuarán sobre esta
muestra de uniformes, lo cual permite intuir la transformación del problema de predicción
original de Y en función de X, en un problema de predicción de V en función de U .
Efectivamente, el planteamiento original busca saber cuál es el valor “y” asociado a
un valor “x” conocido. El hecho de que para este último podamos calcular la imagen
FX (x) = u y de que además dispongamos de una distribución conjunta C que presupone
cierta relación de dependencia sobre pares del tipo (u, v), nos permite proponer como
alternativa la predicción del valor de v = GY (y) (en lugar de y). Una vez realizada la
predicción de la transformada V = G(Y ) se puede deshacer la transformación (mediante
G−1 ) para obtener la predicción de la variable Y .
c) Selección preliminar de cópulas
Se considera una relación de familias de cópulas candidatas y dentro de cada una de ellas
se escoge un representante. En el caso de las cópulas uniparamétricas esto se traduce en
determinar el valor del parámetro θ a partir del valor muestral de la Tau de Kendall o
del coeficiente de Spearman desde el cual se define. Este valor muestral se debe estimar
también a partir del conjunto de entrenamiento.
d ) Simular valores para la cópula condicionada asociada a cada uno de los re-
presentantes
Hemos dicho que las predicciones se obtendrán por simulaciones de HY /X . Dado que
estamos trabajando con la muestra transformada, parece lógico que las simulaciones
las realicemos para la cópula condicionada C1 = CV /U . La predicción de V condicio-
nada a U = u se realizará mediante simulaciones de la variable V |U = u. Para reali-
zar dichas simulaciones se puede utilizar el método de la transformada inversa, siendo
necesario para ello disponer de la función de distribución de dicha variable, C1 . Ası́,
nuestra relación de cópulas C candidatas a explicar la relación entre X e Y , proporciona
a través de la ecuación (Dado u fijo, la cópula condicionada a u es la función de V,
v → C1 (u, v) = C(u|u) = ∂C ∂u (u, v) otra relación de cópulas condicionadas C1 = CV /U
candidatas a ser la mejor representación de la función de distribución HY /X .
Se utiliza la cópula para simular valores de la distribución condicionada de HY /X=x don-
de x es conocido. El resultado final de esta etapa es una relación de valores simulados

20
para la variable Y para cada uno de los valores propuestos para la variable X y cada
una de las cópulas que representan a las familias candidatas.
e) Propuesta de un valor predicho
El paso anterior proporciona una distribución de valores simulados de Y a partir de un
x y una cópula C concreta. El valor que se puede esperar para Y podrá venir dado por
la media de las simulaciones o, en su defecto, por algún otro parámetro de tendencia
central más robusto como por ejemplo la mediana. Cualquiera de ellas se puede utili-
zar como valor predicho. Además, el conocimiento de la distribución permite también
proporcionar alguna medida de dispersión asociada a la predicción como la varianza, la
desviación media absoluta o el rango intercuartı́lico que podrı́a traducirse en una evalua-
ción del riesgo de la misma. De hecho, el alcance va aún más allá puesto que proporciona
conocimiento sobre posibles asimetrı́as, densidad en las colas, apuntamiento, presencia
de varias “modas”, etc. La simulación de valores, y por tanto la obtención de las predic-
ciones, se pueden realizar a partir de cualquier x tanto de la muestra de entrenamiento
como de la de validación. Comparando el valor predicho con el real es posible hablar
de un error de predicción para cada familia de cópulas que se considerará asociado a la
muestra en el primer caso in-sampling y fuera de muestra en el segundo out-of-sampling
siendo este último por lo general de mayor magnitud dado que los datos de dicho con-
junto no participan directamente en el ajuste. Aquella familia de cópulas que a través de
su representante proporcione en media (o en mediana) menores errores (principalmen-
te a futuro) será la que se seleccione finalmente para los fines predictivos que se persiguen.

3. Generación y ajuste de cópula con R. Paquete copula


El programa estadı́stico R utiliza varios paquetes para trabajar con cópulas entre los que se
encuentran, BLCOP, copula, depela, evd, fcopulae, fgac, gumbel, mlCopulaSelection,
sbgcop, de entre todos éstos destaca el paquete copula que describe los modelos de cópulas más
usados entre los que se encuentran la elı́ptica, (normal y t de Student), arquimediana,(Clayton,
Gumbel, Frank), valores extremos, (Gumbel entre otros). Analiza las funciones de densidad, dis-
tribución, generación de números aleatorios, medidas de dependencia bivariante, perspectiva y
representaciones gráficas del contorno. Introduce funciones para ajustar modelos de cópula con
varianza estimada, contrastes de independencia entre variables y vectores aleatorios, contrastes de
independencia para series temporales continuas univariantes y multivariantes, contrastes de bondad
de ajuste para cópulas basadas en multiplicadores y bootstrap paramétrico.

3.1. Clases de cópulas


Hay definidas dos clases de cópulas copula, para definir cópulas y mvdc para definir distribu-
ciónes multivariantes a través de las cópulas.

3.1.1. La clase copula


El paquete copula ha implementado dos clases de cópulas virtuales, ellipCopula y archm-
Copula que corresponden a las dos familias de cópulas más utilizadas, las elı́pticas y las arquime-
dianas, y que sirven para asociar clases de cópulas que comparten algunas propiedades pero con
representaciones distintas.

21
Las clases de cópulas elı́pticas implementadas son normalCopula para la distribución normal
multivariante y tCopula para distribuciónes t-Student multivariantes. La matriz de correlaciones
determina la estructura de dependencia y la t-copula tiene además como parámetro los grados de
libertad. En el modelo se implementan además 4 estructuras de dispersión.

Las clases de cópulas arquimedianas uniparamétricas implementadas en el paquete copula son


claytonCopula para la cópula de Clayton, frankCopula para la cópula de Frank y gumbel-
Copula para la cópula de Gumbel. Las cópulas arquimedianas con dimensión mayor o igual a 3,
solo permiten asociaciones positivas, la asociación negativa es posible en las cópulas arquimedianas
bivariantes. En su construcción interviene el espacio paramétrico α, el vector generador φ(t), el
generador inverso φ−1 (t) y la distribución de covariables no observadas, estos últimos utilizados
para generar números aleatorios.
Cópula de Clayton
myCop.clayton < −archmCopula(f amily = ”clayton”, dim = 3, param = 2)
Cópula de Frank
myCop.f rank < −archmCopula(f amily = ”f rank”, dim = 3, param = 2)
Cópula de Gumbel
myCop.gumbel < −archmCopula(f amily = ”gumbel”, dim = 3, param = 2)

3.1.2. La clase mvdc


Esta clase se utiliza para construir distribuciones multivariantes a través de sus marginales
F (x1 , . . . , xp ) = C{F1 (x1 ), . . . , Fp (xp )}
Tiene 3 componentes, copula que especifica la cópula C, margins que especifica los nombres de
las distribuciones marginales F1 , . . . , Fp y paramMargins, que especifica los parámetros de las
correspondientes marginales.
Distribución trivariante con marginales normales y cópula de Clayton:
myM vd < −mvdc(copula = myCop.clayton, margins = c(”norm”, ”norm”, ”norm”), paramM argins =
list(list(mean = 0, sd = 2), list(mean = 0, sd = 1), list(mean = 0, sd = 2)))
Distribución trivariante con marginales normales y cópula de Gumbel:
myM vd2 < −mvdc(copula = myCop.gumbel, margins = c(”norm”, ”norm”, ”norm”), paramM argins =
list(list(mean = 0, sd = 2), list(mean = 0, sd = 1), list(mean = 0, sd = 2)))
Distribución trivariante con marginales normales y cópula de Frank:
myM vd3 < −mvdc(copula = myCop.f rank, margins = c(”norm”, ”norm”, ”norm”), paramM argins =
list(list(mean = 0, sd = 1), list(mean = 0, sd = 1), list(mean = 0, sd = 1)))

3.2. Métodos
3.2.1. Funciones de distribución y de densidad
Las funciones método para distribuciones y densidades de una cópula son pcopula y dcopula.
Para evaluar la función de distribución de una cópula elı́ptica necesitamos la función de distribución
elı́ptica conjunta y los cuantiles univariantes para cada marginal.
Para una cópula arquimediana las funciones de distribución y densidad dependen de la función
generador y de su función inversa.
Las funciones método para una mvdc son pmvdc y dmvdc.

22
3.2.2. Generador de números aleatorios
El método para generar números aleatorios es rcopula para una cópula y rmvdc para una clase
mvdc. El paquete copula proporciona generadores para la cópula normal y la t-cópula utilizando
generadores de números aleatorios para normales multivariantes y t-multivariantes con el paquete
mvtnorm.
Ejemplos de generación de números aleatorios y evaluación de las funciones de distribución y de
densidad para la cópula myCop.t

u<-rcopula(myCop.t,4)
> u
[,1] [,2] [,3]
[1,] 0.6319121 0.6644617 0.4396334
[2,] 0.5317321 0.4319560 0.4834073
[3,] 0.5433294 0.5937168 0.3764338
[4,] 0.8143958 0.7698662 0.7259969
> cbind(dcopula(myCop.t, u), pcopula(myCop.t, u))
[,1] [,2]
[1,] 2.217135 0.3489308
[2,] 3.049002 0.3018827
[3,] 1.981416 0.2777807
[4,] 5.382351 0.6222820

Para generar números aleatorios de una clase mvdc solo necesitamos aplicar la función cuantil a los
números aleatorios de la cópula especificada sobre cada marginal. El siguiente ejemplo nos muestra
la generación de números aleatorios y evaluación de las distribuciones y densidades para el objeto
myMvd anterior.

> x <- rmvdc(myMvd, 4)


> x
[,1] [,2] [,3]
[1,] -0.3703804 0.9140013 -0.14105022
[2,] -0.1694021 0.7193072 0.05835881
[3,] 1.5800314 -0.6850711 0.57971976
[4,] -1.4340364 -0.4291176 1.53039339
> cbind(dmvdc(myMvd, x), pmvdc(myMvd, x))
[,1] [,2]
[1,] 0.013074295 0.3248582
[2,] 0.019709430 0.3506453
[3,] 0.002772365 0.2311767
[4,] 0.005649329 0.1943588

3.2.3. Gráficas
Las gráficas tienen una gran importancia en la representación de resultados de los modelos
basados en cópulas. La representación 3D del paquete scatterplot3d es uno de los más utilizados.
El ejemplo siguiente representa 300 puntos aleatorios de una copula normal trivariante y una t-
cópula trivariante.

> par(mfrow = c(1, 2), mar = c(2, 2, 1, 1), oma = c(1, 1, 0, 0), mgp = c(2, 1, 0))

23
> u <- rcopula(myCop.norm, 300)
> scatterplot3d(u)
> v <- rcopula(myCop.norm, 300)
> scatterplot3d(u)

Obteniéndose las gráficas de la figura (8):

Figura 8: Representación de números aleatorios de una cópula normal y una t-cópula

Para los objetos copula y mvdc el paquete copula tiene implementados métodos para dibujar
representaciones de perspectiva y contorno para las funciones de distribución y densidad. Estas
funciones son persp y contour. El siguiente ejemplo representa las densidades de distribucio-
nes bivariantes definidas con las cópulas de Clayton, Frank y Gumbel, con marginales normales
tipificadas.

> myMvd4 <- mvdc(copula = archmCopula(family = "claytonfrank", param = 2),


+ margins = c("norm", "norm"), paramMargins = list(list(mean = 0,
+ sd = 1), list(mean = 0, sd = 1)))
> myMvd5 <- mvdc(copula = archmCopula(family = "frank", param = 5.736),
+ margins = c("norm", "norm"), paramMargins = list(list(mean = 0,
+ sd = 1), list(mean = 0, sd = 1)))
> myMvd6 <- mvdc(copula = archmCopula(family = "gumbel", param = 2),
+ margins = c("norm", "norm"), paramMargins = list(list(mean = 0,
+ sd = 1), list(mean = 0, sd = 1)))
> par(mfrow = c(1, 3), mar = c(2, 2, 1, 1), oma = c(1, 1, 0, 0),
+ mgp = c(2, 1, 0))
> contour(myMvd4, dmvdc, xlim = c(-3, 3), ylim = c(-3, 3))
> contour(myMvd5, dmvdc, xlim = c(-3, 3), ylim = c(-3, 3))

24
> contour(myMvd6, dmvdc, xlim = c(-3, 3), ylim = c(-3, 3))

Figura 9: Representaciones contorno

3.2.4. Ajuste de una cópula


Con las funciones de densidad de los objetos copula y mvdc, se pueden ajustar modelos basados
en cópulas con el método de máxima verosimilitud. El paquete proporciona funciones loglikCopula
y loglikMvdc para evaluar la verosimilitud logarı́tmica de los datos bajo el modelo de cópula. El
paquete proporciona también funciones fitCopula y fitMvdc para llevar a cabo la estimación y el
informe de los resultados. El siguiente ejemplo genera una muestra de una distribución bivariante
con marginales gamma y modelo de copula normal:

> myMvd <- mvdc(copula = ellipCopula(family = "normal", param = 0.5),


+ margins = c("gamma", "gamma"), paramMargins = list(list(shape = 2,
+ scale = 1), list(shape = 3, scale = 2)))
> n <- 200
> dat <- rmvdc(myMvd, n)
> loglikMvdc(c(2, 1, 3, 2, 0.5), dat, myMvd)
[1] -795.3699

Para obtener el estimador de máxima verosimilitud se implementa la función de verosimilitud


log para su optimización. La función fitMvdc se basa en la rutina de optimización optim en R.

> mm <- apply(dat, 2, mean)


> mm
[1] 1.929557 5.888084
> vv <- apply(dat, 2, var)
> vv
[1] 1.681599 11.806809
> b1.0 <- c(mm[1]^2/vv[1], vv[1]/mm[1])
> b1.0
[1] 2.2140785 0.8714946

25
> b2.0 <- c(mm[2]^2/vv[2], vv[2]/mm[2])
> b2.0
[1] 2.936402 2.005204
> a.0 <- sin(cor(dat[, 1], dat[, 2], method = "kendall") * pi/2)
> a.0
[1] 0.3959885
> start <- c(b1.0, b2.0, a.0)
> start
[1] 2.2140785 0.8714946 2.9364017 2.0052038 0.3959885
> fit <- fitMvdc(dat, myMvd, start = start,
+ optim.control = list(trace = TRUE, maxit = 2000))
initial value 793.616355
final value 793.457164
converged
initial value 793.457164
final value 793.457164
stopped after 1 iterations
> fit
The Maximum Likelihood estimation is based on 200 observations.
Margin 1 :
Estimate Std. Error
m1.shape 2.1027779 0.19590551
m1.scale 0.9171973 0.09640444
Margin 2 :
Estimate Std. Error
m2.shape 2.924357 0.2774058
m2.scale 2.012733 0.2082045
Copula:
Estimate Std. Error
rho.1 0.4065556 0.05897514
The maximized loglikelihood is -793.4572
The convergence code is 0 see ?optim.

Cuando cada distribución marginal Fi tiene sus propios parámetros βi , el primer paso consiste
en una estimación de máxima verosimilitud para cada marginal, en este caso cada tarea de maxi-
mización tiene muy pocos parámetros, este método recibe el nombre de Shih y Louis y se puede
realizar con la función fitCopula:

> loglik.marg <- function(b, x) sum(dgamma(x, shape = b[1], scale = b[2],


+ log = TRUE))
> loglik.marg
function(b, x) sum(dgamma(x, shape = b[1], scale = b[2],
log = TRUE))
> ctrl <- list(fnscale = -1)
> ctrl
$fnscale
[1] -1

> b1hat <- optim(b1.0, fn = loglik.marg, x = dat[, 1], control = ctrl)$par

26
> b1hat
[1] 2.1033572 0.9173855
> b2hat <- optim(b2.0, fn = loglik.marg, x = dat[, 2], control = ctrl)$par
> b2hat
[1] 2.925129 2.012820
> udat <- cbind(pgamma(dat[, 1], shape = b1hat[1], scale = b1hat[2]),
+ pgamma(dat[, 2], shape = b2hat[1], scale = b2hat[2]))
> fit.ifl <- fitCopula(udat, myMvd,copula, start = a.0)

Obteniéndose un estimador logarı́tmico de máxima verosimilitud de 19.4162.

4. Ejemplos de cópulas aplicado a problemas de riesgos financieros


y de ingenierı́a civil
4.1. Simulación de un modelo de cópula Gaussiana para la predicción de rup-
tura del pavimento acumulada por fatiga (del material) en base a la ley de
Miner
Nos referimos a un nuevo modelo para la caracterización de la distribución de rupturas por
fatiga en virtud del tráfico mixto de carga. El uso de la cópula Gaussiana, se basa en la distribución
conjunta de la carga admisible de repeticiones y la acumulación del tráfico mixto de carga, a fin
de estimar el porcentaje de rupturas por fatiga. Tenemos que especificar que cuando hablamos
de fatiga de materiales nos referimos a un fenómeno por el cual la ruptura bajo cargas dinámicas
cı́clicas (fuerzas repetidas que se aplican sobre el material) se produce ante cargas inferiores a las
cargas estáticas que producirı́an la ruptura. Los resultados del estudio de simulación utilizando
la propuesta de modelo basado en cópulas se comparó con los modelos populares de ruptura por
fatiga y los resultados revelaron cual era la cópula más apropiada para la predicción de ruptura por
fatiga. La propuesta fue considerar el enfoque a largo plazo del tráfico de carga como un proceso de
renovación y de caracterizar la distribución de la carga admisible del número de repeticiones sobre
la base de la ecuación de la fatiga.
En resúmen el daño que se prodece en un asfalto (tipo HMA)por la acumulación de cargas y
el número permitido de repeticiones de carga que puede llevar, de acuerdo con la ley de Miner,
cuando el daño de la ruptura del pavimento es superior a la suma de la unidad. Dado que el tráfico
de carga se aplica sobre la estructura de HMA, varı́a en su magnitud los daños causados por los
diferentes niveles de cargas de tráfico y que deben ser acumulados de alguna manera. La expresión
general de Miner’s se define como:
m m
X X Xi (t)
D(t) = Di (t) = (46)
Ni
i=0 i=0

donde D Son los daños generales acumulados hasta el momento t en la capa superficial del
pavimento, Di (t) es la acumulación de daños causados por el tráfico de carga en el i-ésimo nivel,
Xi (t) es el número real de carga de tráfico de repeticiones del i-ésimo nivel aplicado al pavimento
hasta el momento t, y Ni es la carga admisible de repeticiones del i-ésimo nivel.
Las estructuras HMA sometidas a cargas por fatiga de material, son historias complejas que im-
plican diferentes rangos de estrés y diversos niveles de carga. Las pruebas de laboratorio tratan
de obtener información básica del material y no están destinadas a reproducir las complejas con-
diciones por fatiga de material de la estructura real de HMA. Convencionalmente, los mı́nimos

27
cuadrados ordinarios del análisis de regresión se emplean para el desarrollo de los modelos desarro-
llados a partir de la fatiga de materiales de laboratorio y/o datos de rendimiento sobre el terreno.
Una simple forma de la ecuación de fatiga de material es la siguiente:

Ni = k1 ε−k
i
2
E −k3 (47)

donde εi es la máxima tensión de tracción en la parte inferior de la capa de asfalto del i-ésimo
nivel de carga; E es el módulo elástico es decir, la rigidez de la capa de asfalto, k1 , k2 , k3 son los
parámetros de fatiga de materiales, y Ni el número de la carga admisible de repeticiones antes de
la carga de fisuración bajo el i-ésimo nivel. Según la teorı́a de la regresión lineal, hay un error en el
modelo de manera que la verdadera relación subyacente entre el número de la carga admisible de
la repetición y la resistencia de tracción máxima de tensión, se define de la siguiente manera:

ln Ni = −k2 ln εi − k3 ln k1 + error (48)


2
donde la variable aleatoria error ∼ N (0, σerror ) es el término de error normalmente distribuido
2
con media cero y varianza σerror , y N representa una distribución normal. Suponiendo que el
término de error no está correlacionado con el nivel de carga, se propone un modelo probabilı́stico
flexible para manejar la predicción de ruptura por fatiga bajo el tráfico mixto, considerando la
dependencia entre la varianza y el nivel de carga y teniendo en cuenta la correlación entre las
variables Xi (t) y Ni en la ecuación (46), (Sun y Hudson, 2005). Considerando la probabilidad de
conjunto Xi (t) y Ni , una cópula puede ser apropiada para la construcción del modelo propuesto.
El modelo propuesto consta de tres pasos:

1. Hacer frente a las distribuciones de probabilidad de las dos variables Xi (t) y Ni

2. Seleccionar la cópula que mejor se ajuste a las dos variables.

3. Usar la cópula basada en la simulación del modelo para estimar la probabilidad de daños de
rupturas por fatiga.

4.1.1. Distribuciones de probabilidad de las dos variables Xi (t) y Ni


.

Repeticiones admisibles de carga de la distribución Ni .


Como se muestra en la introducción, (47) y (48), la forma matemática para el número de
repeticiones de cargas, es una función de las tensiones de tracción en la parte inferior de la
capa superficial HMA y el módulo de la capa de asfalto. Tomando un pavimento especı́fico y
una carga de tráfico, (48) es equivalente a (Sun y Hudson, 2005):

2
ln Ni ∼ N (µNi , σerror ) con µNi = −k2 ln i − k3 ln E + ln k1 (49)

Para simplificar,k1 , k2 y k3 , en las ecuaciones anteriores se consideran valores deterministas.


En virtud de esta consideración, tomando un nivel de marcha especı́fico, ln Ni sigue una
distribución normal.

Mezcla acumulativa de distribución de tráfico de carga Xit .


Es necesario conocer la acumulación de cargas de tráfico mixto en la aplicación efectiva HMA
de estructura para determinar la distribución del daño. En el modelo propuesto a largo plazo
del tráfico de carga se modela como un proceso de renovación de recompensa. Como resultado

28
de ello, la distribución de tráfico acumulada a largo plazo se convierte en una distribución
normal (Sun and Hudson, 2005).
(i)
En concreto, definimos Yn como el intervalo de tiempo entre (n − 1)th y nth las cargas de
(i)
tráfico del i-ésimo nivel. Sea Sn el momento de ocurrencia del nth tráfico de carga del i-ésimo
nivel:

n
(i)
X
Sn(i) = Yk con Sn(i) = 0
k=1

Siendo Xi (t) el número acumulado


n de la carga
o de tráfico del ith nivel hasta un máximo de
(i)
tiempo t, i.e., Xi (t) = sup n ≥ 0; Sn ≤ t . Asintóticamente, el tráfico de carga acumulada
en el tiempo t se convierte en una variable aleatoria con una distribución normal:


2
 t 2 V arYni
Xi (t) ∼ N µXi , σX con µXi = y σX = ·t
i
EYni i
E 3 Yni
(i) (i
Donde EYn y V arYn pueden ser estimadas a partir de los datos de tráfico.

4.1.2. Selección de la mejor cópula ajustada a las variables Xit y Ni


Como se indica en las secciones anteriores (repeticiones admisibles de carga de la distribu-
ción y mezcla acumulativa de distribución de tráfico de carga) Xi (t) y Ni son variables aleatorias
con distribuciones normales, y la probabilidad de daños de ruptura por fatiga es el conjunto de
probabilidad Xi (t) y Ni . Por otra parte, el error en términos de las ecuaciones (49) y (??), no
está correlacionado con el nivel de carga, que ha de considerarse teniendo en cuenta la correlación
entre las variables Xi (t) y Ni en la ecuación (48) (Sol y Hudson, 2005).
Todos los factores anteriores deben tenerse en cuenta en el modelo propuesto, por consiguiente el
enfoque de cópula es muy apropiado para la construcción del modelo. Las cópulas proporcionan
una manera conveniente de expresar las distribuciones de dos variables. Teniendo en cuenta las
distintas funciones de distribución, la distribución bivariada puede expresarse como una función
de cópula aplicada a las probabilidades. Por otra parte, la cópula contiene toda la estructura de
dependencia de variables aleatorias. Nosotros consideramos las dos variables aleatorias Xi (t) y Ni
que están ajustadas a una cópula bivariada Gaussiana.
En consecuencia, la densidad resultante acumulativa de los daños D,se modeliza mediante la
cópula normal bivariante dada por:
n o
Z F −1 (u1 ) Z F −1 (u2 ) x2 −2ρxy+y 2
1 −
2(1−ρ2 )
C(u1 , u2 ) = 1 dxdy (50)
−∞ −∞ 2π(1 − ρ2 ) 2
donde F −1 es la inversa de la distribución normal univariante estándar de la función de distri-
bución, y ρ el coeficiente de correlación lineal, parámetro de dependencia de la cópula.
Según Miner’s, la represión se inicia cuando el daño acumulativo es superior a la unidad. La ex-
tensión de rupturas por fatiga puede interpretarse como la probabilidad de daño mayor que 1, es
decir, la rotura por ciento es igual a 100 · Prob(D ≥ 1)(Sun y Hudson, 2005).

29
4.1.3. Modelo de verificación
Se desea realizar un estudio mediante simulación de la cópula para poner a prueba la eficacia
del modelo propuesto, comparando sus resultados con algunos modelos similares y distribuciones
hipotéticas, es decir, el modelo de Sol y Hudson, el modelo de distribución normal y modelo de
distribución lognormal. Por otra parte, comprobamos el efecto de dependencia entre la varianza
y el nivel de carga sobre el porcentaje de rupturas por fatiga. se llevan a cabo dos simulaciones
utilizando datos de entrada de una tı́pica estructura de HMA, siendo el módulo de la capa superficial
con resistencia E = 400,000, estándar de tensión máxima resultado de una carga de tráfico normal
 = 3,45 · 10−4 , y los siguientes parámetros de los diferentes modelos de la fatiga de material (Sun
et al, 2003).
Tabla 1. Parámetros de los diferentes modelos de fatiga de material y el cálculo de µN .

Model k1 k2 k3 µN
Shell model 0,0685 5,671 2,363 12,048
AI model 0,0796 3,291 0,854 12,689
UC-Berkely model 0,0636 3,291 0,854 12,465
U.S. Army model 478,6300 5,000 2,660 11,719

El efecto del tráfico de carga, consiste en varios niveles de carga sobre la estructura de daños
HMA y es equivalente a la norma de tráfico X(t) en un nivel de carga única. Siguiendo a Sun y
Hudson (2005), se estudian los dos siguientes casos:

1. E[X(t)] = 80t carga de tráfico normal por dı́a, var[X(t)] = 900t nivel de tráfico de carga por
dı́a y σerror = 0,2.

2. E[X(t)] = 100t carga de tráfico normal por dı́a, var[X(t)] = 1600t nivel de tráfico de carga
por dı́a y σerror = 0,5.

La correlación entre la varianza de error y el nivel de carga, está considerado en el modelo


propuesto. Para cuantificar esta correlación, los datos experimentales sobre pruebas debido a la
ruptura por fatiga de material deben ser analizados. Desafortunadamente, tales datos originales no
están disponibles en la literatura (Sun y Hudson, 2005), por lo tanto en este documento se suponen
tres valores del coeficiente de correlación lineal ρ igual a 0.0 (variables independientes), 0.2 y 0.5.
Para obtener una estimación de la probabilidad de rupturas, se han generado al azar 10.000
valores aleatorios utilizando el paquete copula R. Este paquete proporciona dos valores uniformes
de una cópula normal bivariada u1 y u2 . Una vez obtenidas u1 y u2 las variables aleatorias se
aplican en la función inversa acumulada correspondiente de densidad normal, para obtener los
valores de Xi (t) y Ni . Por último, la probabilidad de ruptura se calcula mediante la obtención de
D = Xi (t)/Ni , y por tanto el cálculo de la frecuencia de D ≥ 1.
La estimación de los resultados para los dos casos de nivel de carga de fatiga de material y el
uso de modelos diferentes, se representan gráficamente en las figuras (10), (11), (12) y (13). Estas
figuras muestran el porcentaje de rupturas usando el modelo de cópula propuesto y asumiendo
dependencia de parámetros ρ = 0.0, 0.2, 0.5, modelo de Sun y Hudson y de dos supuestos.
El análisis de las cuatro cifras, revelan que el porcentaje de ruptura por fatiga de la curva
estimada utilizando el modelo de cópula propuesta en el caso de 80t de cargas de tráfico normal
por dı́a y usando los cuatro modelos de fatiga, es casi igual al porcentaje estimado de rupturas
utilizando la hipótesis normal. Aunque como la carga de tráfico normal por dı́a se incrementó a
100 toneladas, el porcentaje estimado de ruptura se calcula cada vez menos usando las hipótesis
de la normal y lognormal que usando el modelo propuesto. Además para cada modelo de ruptura,

30
Figura 10: Porcentaje de rupturas por fatiga en función del tiempo usando los parámetros del
modelo de Shell y 80t y 100t de carga de tráfico normal por dı́a.

Figura 11: Porcentaje de rupturas por fatiga en función del tiempo, usando los parámetros del
modelo de AI y 80t y 100t de carga de tráfico normal por dı́a.

Figura 12: Porcentaje de rupturas de fatiga en función del tiempo, usando los parámetros de la UC
- Berkeley, y el modelo 80t y 100t de carga de tráfico normal por dı́a.

31
Figura 13: Porcentaje de rupturas por fatiga en función del tiempo, usando los parámetros del
modelo US.Army y 80t y 100 t de carga de tráfico normal por dı́a.

el tiempo de alcanzar el 20 por ciento estimado de daños por fatiga usando el modelo propuesto
con ρ = 0,0 disminuye un 33 por ciento y 80 por ciento utilizando el modelo de Sun Hudson,
mientras que este porcentaje aumenta cerca del 8 por ciento en el caso de las hipótesis normales
y lognormal. Ası́mismo, de acuerdo con las cifras, la dependencia entre una X(t) y N tiene efecto
sobre el porcentaje de daño, cuando en el caso de 80t las cargas de tráfico normales por dı́a y el
porcentaje de daño se incrementa en un 6 por ciento cuando ρ incrementa de 0,0 a 0,1 y los daños
se incrementaron en un 9 por ciento cuando ρ aumenta de 0,0 a 0,5, mientras que en el caso de
100 toneladas de cargas de tráfico normal por dı́a el porcentaje de daño se incrementa en un 7 por
ciento, cuando ρ aumenta de 0,0 a 0,1, y en un 18 por ciento cuando ρ aumenta de 0,0 a 0.5.
En resúmen la distribución de los daños se deriva utilizando la cópula Gaussiana, que no es
ni normal, ni una distribución logarı́tmica normal, proporcionando resultados más realistas que el
modelo propuesto por Sun y Hudson.

4.2. Ejemplo de Elección de la cópula multivariante óptima aplicable al sector


asegurador
A continuación, exponemos un ejemplo en el que se muestra el proceso a seguir para determinar
la función de distribución multivariante de la cópula que proporciona mejores resultados en su
aplicación al estudio de las cuantı́as siniestrales del sector asegurador y reasegurador. En cualquier
caso, se ha de tener en cuenta que la elección de la cópula óptima dependerá de las relaciones de
dependencia que muestren los datos muestrales analizados.
Desde un enfoque teórico, la selección de la cópula óptima aplicable al sector asegurador se
realiza como sigue:
En primer lugar se define la función generador continua a partir de la cual se obtiene la función
de distribución de la cópula. Con la función generador, se obtiene la función de distribución cópula,
teniendo en cuenta las caracterı́sticas dadas en las definiciones básicas de las cópulas. Se calcula la
función de distribución condicionada y la función de densidad de la cópula. Se simulan los pares
(u, v) para cada tipo de cópula. Una vez simulados (u, v) y realizada su representación gráfica, se
elige la cópula teórica que mejor se ajusta a las cuantı́as siniestrales analizadas.
El proceso de elección de la cópula óptima para su aplicación al sector asegurador permite
extraer las siguientes conclusiones:
La cópula de Frank no es aplicable a priori al sector asegurador, debido a que, como se observa
en los gráficos asociados, la distribución de los datos es simétrica entre (0, 0) y (1, 1), y por tanto

32
Figura 14: Representación teórica de los pares (u,v) distribuidos según una cópula de Fran y de
Gumbel

Figura 15: Representación teórica de los pares (u,v) distribuidos según una cópula de Clayton y
HRT

33
considera la misma dependencia entre los grandes siniestros que entre los pequeños.
La cópula de Clayton, como en el caso anterior, tampoco es aplicable al sector asegurador,
pero por razones distintas. Como se observa en el gráfico, esta cópula presenta una importante
concentración de puntos en (0, 0) por lo que tiene tendencia a correlacionar los pequeños siniestros
y no los grandes siniestros. Por tanto, esta cópula es una de las que puede utilizarse en el estudio de
las cuantı́as siniestrales de los siniestros pero será o no apropiada en función del tipo de siniestros
que se estén considerando. No servirá, por tanto, para modelar cuantı́as asociadas a la ocurrencia
de grandes siniestros.
La cópula HRT y la Gumbel, pueden admitirse en el estudio de las distribuciones de las re-
clamaciones de siniestros, ya que los puntos en la representación gráfica muestran una asimetrı́a
adecuada de los datos siniestrales, tanto en los grandes siniestros como en los pequeños. Para la
cópula HRT, la concentración de puntos cerca de (1, 1) es la más importante de todas las cópulas
analizadas en esta sección. Con esta estructura de dependencia, los grandes siniestros presentarán
una tendencia a ocurrir al mismo tiempo. Estas conclusiones, evidentemente, deben de ser refor-
zadas por un análisis empı́rico, a realizar a posteriori. Pero desde un punto de vista teórico, elegir
la cópula óptima permite acercarnos a la determinación futura del precio del seguro, cuando los
riesgos analizados son dependientes y están asociados a un mismo evento o fenómeno de naturaleza.
Podemos concluir que mediante el estudio de las cópulas se puede avanzar en este sentido, para
llevar a cabo una futura determinación del precio del seguro y un incremento de la capacidad del
sector.
Se muestra que las cópulas más adecuadas para el análisis siniestral del sector asegurador, son
“a priori” la cópula HRT y la cópula Gumbel, debido a que las otras dos cópulas presentadas no
tienen en cuenta la adecuada asimetrı́a de los datos siniestrales, respecto a grandes siniestros y
pequeños siniestros.

4.3. Aplicación en Hidrologı́a


El enfoque es desarrollar un modelo de precipitación estocástico basado en la teorı́a de valor
extremo (EVT) y la función cópula para generar secuencias sintéticas de tormentas de precipitación
que trata las tres componentes de una tormenta (duración, intensidad y el patrón temporal) como
variables aleatorias.
Sus distribuciones marginales se modelan mediante una distribución generalizada de Pareto
(GP), ası́ como las distribuciones Gumbel. La dependencia estadı́stica entre estas tres variables
aleatorias utiliza el modelo 2-Cópulas. Por último, el modelo propuesto se aplica al prediseño de
un tanque de detención en la ciudad de Granada (España).

4.3.1. Introducción
El funcionamiento de un sistema combinado de drenaje (Combined Sewer System, CSS) es
utilizado para el saneamiento de aguas negras de uso doméstico, industrial y el exceso de aguas
pluviales captadas en edificios, caminos y campos para luego ser conducido a un tanque o depósito de
detención o a una planta de tratamiento de aguas residuales. El problema de las inundaciones CSS
es principalmente el resultado del pico máximo de escorrentı́a, no necesariamente por el volumen
total de escorrentı́a. Si los caudales máximos de escorrentı́a pudieran ser atenuados, la inundación
podrı́a ser razonable o no ocurrirı́a. Para atenuar los caudales máximos de escorrentı́a, entre otros,
uno de los métodos preferibles actualmente son los tanques de detención por tratarse de una de
las opciones más económicas para lograr el objetivo de un determinado control de la inundación.
Consisten en estructuras donde temporalmente se detiene cierta cantidad de escorrentı́a, lo cual

34
ayuda bastante a reducir los caudales de agua sobre todo cuando el hidrograma de inundación
presenta subida y una caı́da rápida.
El cálculo de volumen de almacenamiento del tanque y el diseño de las estructuras de salida es
adaptado de modo que el ritmo del caudal entrante excede el ritmo del caudal saliente de diseño, el
almacenamiento de la diferencia se realiza en el tanque. Por consiguiente la escorrentı́a es liberada
posteriormente de forma paulatina al sistema. Con eso se logra reducir los picos de escorrentı́a
máximos y proporcionar el tiempo necesario para que los sedimentos se depositen.
Hay disponibles varios métodos para evaluar los volúmenes de almacenamiento necesarios de
los tanques de detención, siendo los más comunes los Modelos de Precipitación-Escorrentı́a. Estos
modelos son el método preferible para calcular los volúmenes de almacenamiento, debido a su
capacidad de simular escorrentı́a bajo una variedad de condiciones. El modelo más comúnmente
utilizado es el Modelo de Gestión de Aguas Pluviales elaborado por la EPA (Agencia de protección
Medioambiental de Estados Unidos), el Storm Water Management Model (SWMM).
El modelo SWMM es un modelo de simulación dinámico de la precipitación-escorrentı́a, usado
tanto para un solo acontecimiento como para simulaciones continuas de cantidades y calidades de
escorrentı́a en las cuencas que tienen CSS y drenajes naturales. El SWMM simula la escorrentı́a
producida por la precipitación generada sobre el área de la cuenca total y luego recoge esta esco-
rrentı́a por medio de un sistema de tuberı́as, canales, tanques de detención, bombas y válvulas. Los
datos de precipitación y las caracterı́sticas fı́sicas de CSS son usados como entradas del SWMM y
los datos de salida serán hidrogramas y resúmenes de parámetros de simulación.

4.3.2. Definiciones
Definición 4.1 (Tormenta)
El modelo propuesto de cópula-EVT trata las tres caracterı́sticas de la precipitación, es decir,
la duración, la intensidad y el comportamiento temporal como variables aleatorias. La definición
debe capturar todos los eventos que tienen potencial para producir la escorrentı́a. Sin embargo,
por simplicidad en su representación, se incluyen sólo las partes de la tormenta que tienen una
influencia significativa en la respuesta de escorrentı́a. La ’tormenta completa’ y el ’núcleo de la
tormenta’ (la parte más intensa de la tormenta).
La Tormenta completa Se define en tres pasos:

1. Una tormenta “en bruto” es un perı́odo de precipitación que comienza y termina antes de
una hora no seca (periodo de fuertes lluvias) precedidas y seguidas de al menos 6 horas secas.

2. “Precipitación insignificante” perı́odos al principio o al final de una tormenta la parte resul-


tante de la tormenta gruesa es definida como la tormenta “neta”.

3. Las tormentas netas ahora llamadas tormentas completas, son evaluadas en términos de su
potencial para producir una escorrentı́a pluvial significativa, evaluando sus magnitudes de
precipitación y comparando el promedio de sus intensidades con el umbral de intensidades.

Definición 4.2 (Núcleo de la tormenta)


En este ejemplo se representa el núcleo de precipitaciones de tormenta por un equivalente de
tormenta triángulo (ver Figura 16), donde la altura del triángulo representa el núcleo de la tormenta,
es decir, la intensidad de las precipitaciones Si , lo que es igual a la intensidad máxima por hora
en la tormenta, y la base del triángulo representa la duración de la tormenta núcleo Sd .La posición
relativa de los picos de intensidad de la tormenta Sp es una dimensión de representación de la
intensidad de las precipitaciones durante toda la duración de las precipitaciones de tormenta. La

35
posición relativa de los picos de intensidad de la tormenta se representa como un porcentaje de la
duración de la tormenta (10, 20, .. 90 por ciento de duración fundamental de la tormenta).

Figura 16: Representación teórica de los pares (u,v) distribuidos según una cópula de Clayton y
HRT

4.3.3. Metodologı́a
El presente estudio se realiza en tres fases:

1. La modelización de las distribuciones marginales de las tres variables aleatorias que participan
en las tormentas de lluvias (la duración, la intensidad y el comportamiento temporal) con
una distribución generalizada de Pareto.

2. La dependencia de modelización estadı́stica entre las tres variables aleatorias usando 2-Cópu-
las.

3. Utilizando el modelo propuesto para el diseño SWMM de una cuenca de detención en la


ciudad de Granada – España.

En este ejemplo se utilizaron las cópulas Arquimedianas (Nelsen (1999), Libera y Valdez (1998),
Genest y Mackay (1986)) y valores extremos (EV), leyes del modelo, tanto la dependencia estadı́stica
y la distribución de la variable aleatoria de la lluvia de tormentas como la base del modelo de
simulación de Monte Carlo. Este modelo se utiliza para generar secuencias sintéticas de tormentas
de lluvia que puedan producirse en el futuro. De este modo se introdujeron en la aplicación de
software SWMM para la estimación óptima de detención de la cuenca inferior de los CSS, que no
se puede ampliar sin que el costo también aumente considerablemente.

Identificación de las distribuciones marginales de las tormentas.

36
Disponemos de un registro de datos de la hora de las precipitaciones en Granada (España)
durante 14 años, perı́odo de tiempo que comienza el 1 de octubre de 1990 hasta el 1 de
octubre de 2004. Seguido de un perı́odo seco de seis horas usado como un intervalo para
separar diferentes tormentas. Esta elección se basa en el comportamiento de la meteorologı́a
de esta área. Para el modelo de máxima intensidad, duración y posición relativa de los picos
de intensidad de la tormenta, se utiliza la aproximación del pico-over-umbral (POT). Este
enfoque se basa en la utilización de todos los eventos altos, superior a un umbral de valor
alto en los datos disponibles (llamados excedencias). Para un umbral suficientemente alto, el
número de observaciones por encima del umbral por año es bajo y de distribución Poisson.
El comportamiento de los eventos por encima del umbral, es descrito por la distribución
generalizada de Pareto por colas (2001):

 y  −1
ς
G(y) = 1 − 1 + ς (51)
σ
n o n o
define como y : y > 0 y (1 + ςy/σ) > 0 , cuando σ = σ + ς(u − µ) .
Para conseguir la máxima intensidad de la tormenta de datos, utiliza la media residual de la
parcela, el umbral u es de 0, 2cm/h . Desde un punto de vista fı́sico, ésta prácticamente se co-
rresponde con las precipitaciones de tormenta que pueden producir una cantidad significativa
de la escorrentı́a. La máxima intensidad de las tormentas y los correspondientes perı́odos de
tormenta son aptos en la distribución GP, mientras que la correspondiente posición relativa
de los picos de intensidad de la tormenta se ajusta a la distribución Gumbel, dada por:

!
 x − λ
H(x) = exp − exp − (52)
β

donde β > 0 , λ > 0 son parámetros de escala y ubicación, respectivamente. La tabla 1 mues-
tra la estimación de parámetros y los errores tı́picos de las distribuciones sobre la base de las
estimaciones de máxima verosimilitud de los parámetros. Estos resultados se obtuvieron me-
diante el uso de subrutinas, debido a varias Colas (2003), desarrollado en software estadı́stico
R.

Variable σ St.error ς St, error KS − test


Si 0,51 0,06 0,19 0,08 D = 0,0906, p = 0,12
Sd 3,29 0,30 0,18 0,07 D = 0,072, p = 0,342
Variable λ St.error β St.error
Sp 0,37 0,01 0,18 0,009 D = 0,099, p = 0,071

(TABLA 1)

Dependencia entre las tres variables:


Ahora calculamos los valores empı́ricos de la tau de Kendall entre los diferentes pares de series
(Si , Sd ), (Si , Sp ), (Sd , Sp ), y considerado sus colas. La tabla 2 muestra los valores obtenidos.

37
(Si , Sd ) Si , Sp Sd , Sp
τ 0,12 0,16 0,002

(TABLA 2)

Como se ha descrito, las cópulas Arquimedianas son de fácil construcción utilizando la medi-
da de la asociación de tau Kendall. El parámetro α puede ser estimado en función de la tau
Kendall mediante las siguientes fórmulas para los tres cópulas:

α
Clayton τ = α+2
Gumbelτ = 1 − α1
4
Frank τ = 1 −  Rα

t
α 1− 0 et −1

La mejor adaptación para las cópulas bivariantes, (Si , Sd ), (Si , Sp ) y (Sd , Sp ).


Para identificar una adaptación apropiada para la cópula bivariante, se utiliza un diagnóstico
numérico. Este diagnóstico nos permite decidir cuál de los tres modelos de cópulas Arquime-
dianas de distribución empı́rica de los pares (Si , Sd ), (Si , Sp ), (Sd , Sp ) es mejor. La cópula Cα ,
que tiene el más bajo DC2 , dado por:

 
(2)
X
DC = | Cα F c2 (x2 ) − Fb(x1 , x2 ) |2
c1 (x1 ), F (53)
X1 ,X2

es elegida como la mejor cópula. Para las tres cópulas y para cada par de variables, los valores
(2)
DC se muestran en la tabla 3.

(2) (2) (2)


Pares DC F rankcopula DC Gumbelcopula DC Claytoncopula
(Si , Sd ) 0,170 0,3035 0,1923
(Si , Sp ) 0,070 0,0925 0,0970
(Sd , Sp ) 0,390 0,370 0,290

(TABLA 3)

(2)
De acuerdo con el citado criterio DC , sugerimos el uso de la cópula de Clayton para la pareja
(Sd , Sp ) que se define de la siguiente manera:
 −1

Cα (u, v) = max [u−α + v −α − 1] α , 0 , α > 0 (54)

la cópula de Frank y los pares (Si , Sd ), (Si , Sp ) , se define como sigue:

1  (e−αu − 1)(e−αv ) 
Cα (u, v) = − ln 1 + (55)
α e−α−1
Las figuras de la gráfica (17) muestran la bondad del ajuste utilizando QQ-plots(véase la
sección 2.2.3)de los pares de cópulas (Si , Sd ) y (Si , Sp ) respectivamente.

38
Figura 17: Bondad del ajuste de los pares de cópulas (Si , Sd ) y (Si , Sp )

La cópula no es un instrumento tan universal en el caso de n ≥ 3 variables que en el caso de dos


variables. Sin embargo, una familia de cópulas Arquimedianas bivariadas pueden ampliarse
de forma natural a n variables de la familia de cópulas Arquimediana, n ≥ 3, en virtud
de algunas limitaciones. En primer lugar, para obtener esta prórroga toda cópula marginal
bivariada de la cópula multivariante deberı́a pertenecer a la familia bivariada. En segundo
lugar, todas las cópulas marginales multivariantes de orden 3 a n-1 deberı́an tener la misma
forma multivariante. Además, en la clase de n ≥ 3, hay superposición de los marginales y por
tanto no son completamente independientes el uno del otro.
A pesar de las limitaciones y el hecho de que la dependencia entre la pareja (Sd , Sp ) es muy
baja, se decide no prorrogar la cópula bivariada a la cópula 3-dimensional. También se decide
utilizar los pares de cópulas (Si , Sd ),(Si , Sp ) en la simulación, con el fin de generar eventos de
tormenta con precipitación aleatoria.
Simulación de Tormentas
1. Identificación de las tres componentes de distribución de precipitaciones de la tormenta.
2. Acondicionamiento de las variables Si , Sd y Sp adecuadas a las distribuciones.
3. Identificación de la función de distribución conjunta que mejor se adapte a las cópulas
bivariantes (Si , Sd ) , (Si , Sp ) y (Sd , Sp ).
4. Uso de dos cópulas y funciones de la distribución acumulada (CDF) de las variables
Si , Sd y Sp para generar los registros de intensidad de tormenta, duración y el patrón
temporal, de la siguiente manera:
• Determinar los valores Si y Sd de la cópula y de la de [Si , Sd ]. Generar dos variables
independientes (0,1) variables aleatorias v1 y v2 , y establecer que u1 = v1 , dejando
C(u2 , u1 ) = C2/1 (u1 , u2 ) y estableciendo que u2 = C −1 (v2 , u1 )
• Determinar el valor Sp de de la cópula de [Si , Sp ], generando un modelo uniforme
(0,1) con variable aleatoria v3 , dado u1 = v1 , dejando C(u3 , u1 ) = C3/1 (u1 , u3 ) y
estableciendo que u3 = C −1 (u3 , u1 ).
• Una vez obtenidos los valores de Si , Sd y Sp , se genera una tormenta.
• Divide la intensidad de las tormentas en cinco minutos con el fin de ser utilizado
como entrada de datos para la aplicación del software SWMM (véase el gráfico 18).

39
Figura 18: Intensidad de las tormentas

Podemos concluir diciendo que se propone un original modelo que considera la intensidad,
duración y patrón de tiempo de precipitaciones como variables aleatorias. El modelo describe la
dependencia entre estas variables por medio de cópulas y marginales del valor extremo para las
tres variables. El modelo de cópula-EVT desarrollado tiene su foco en la unión entre cópula y
estadı́stica, la teorı́a de datos. La cópula es introducida y aplicada para estimar las distribuciones
de multivariantes aleatorias de los elementos aleatorios de las tormentas.

40
Referencias
[1] Agresti, A. (1990). Categorical data analysis. Wiley.

[2] Genest, C., and Mackay, J., (1986) ‘The joy of copulas:bivariate distributions with uniform
marginals´ The American Statistician, Vol. 40, No. 4, 280-283.

[3] Cherubini, U. (2004). Copula methods in finance. John Wiley & Sons, Ltd. EE.UU.

[4] De Michele, C., and Salvadori, G., (2003), ‘A generalized Pareto intensity-duration
model of storm rainfall exploiting 2-Copulas´ , Geophysical research letters. Vol. 108,
doi:10.1029/2002JD002534.

[5] Sklar, A (1959): Fonctions de Repartition ‘a n-dimensions et Leur Marges. Publ. Inst. Statist.
Univ. Par´ýs.8: 229-231.

[6] Patton, A. J. (2001b): Estimation of Copula Models for Time Series of Possibly Different
Lengths. Economics Working Paper Series 2001-17, Department of Economics, UC San Diego.

[7] Nelsen, R. (1999): An Introduction to Copulas. Springer-Verlag.

[8] Joe, H. (1997): Multivariate Models and Dependence Concepts. Capman& Hall.

[9] Genest, C., Rivest, L.-P. (1993): Statistical Inference Procedures for Bivariate Archimedian
Copulas. Journal of the American Statistical Association, 88 (423): 1034-1043.

[10] m Fermanian, J. D. yWegkamp, M. (2004): Time Dependent Copulas. Preprint INSEE.

[11] Embretchs, P., Resnick, S. y Samorodnitsky, G. (1999): Extreme Value Theory As a Risk
Management Tool. North American Actuarial Journal, 3 (2): 30-41.

[12] Abramowitz, M. y Stegun, I. (1970): Handbook of Mathematical Functions. Dover.

[13] Sun, L. Hudson, R. and Zhang, Z. Empirical-mechanistic method based stochastic modeling
of fatigue damage to predict flexible pavement cracking for transportation infrastructure
management. Journal of Transportation Engineering, Vol. 129 (2), 2003, pp. 109-117.

[14] Sun, L. and Hudson, R. Probabilistic approach for pavement fatigue cracking prediction based
on cumulative damage using Miner’s law. Journal of Engineering Mechanics ASCE, Vol. 131
(5), 2005, pp. 546-549.

41
[15] Yan, J. Enjoy the Joy of Copulas: with a Package copula. Journal of Statistical Software, Vol.
21(4), 2007, pp. 1-21.

[16] ASTM (1981). Statistical analysis of fatigue data, American Society for Testing and Materials
STP 744, Philadelphia, PA.

[17] De Matteis, R. (2001): Fitting Copulas to Data. Diploma thesis Institute of Mathematics of
the University of Zurich.

[18] Francisco Osorio, Omar Muhaisen and Pedro A. Garcı́a. Copula-Based Simulation for the
Estimation of Optimal Volume for a Detention Basin.

[19] Embretchs, P. ; Lindskog, F. ; McNeil, A. (2001). Modelling Dependence with Copulas and
Applications to Risk Management. Department of Mathematics ETHZ. Zurich.

42

S-ar putea să vă placă și