Sunteți pe pagina 1din 73

Universidad Carlos III de Madrid

Departamento de Matemáticas

Trabajo de Fin de Máster

Matrices de Hankel–Sobolev
y algoritmos para el cálculo de
polinomios ortogonales de Sobolev

Autor: Daniel A. Rivero Castillo

Director: Héctor E. Pijeira Cabrera

5 de octubre de 2011
Leganés, Madrid
Universidad Carlos III de Madrid
Departamento de Matemáticas

Trabajo de Fin de Máster

Matrices de Hankel–Sobolev y algoritmos para


el cálculo de polinomios ortogonales de Sobolev

Memoria presentada por D. Daniel Alberto Rivero Castillo para optar


al tı́tulo de Master por el programa de Ingenierı́a Matemática de la
Universidad Carlos III de Madrid.
Realizada bajo la dirección del Dr. D. Héctor E. Pijeira Cabrera,
Profesor Titular Visitante del Departamento de Matemáticas de la
Universidad Carlos III de Madrid.

Acto de presentación del trabajo de fin de máster.


Fecha: Miércoles, 5 de octubre de 2011.
Hora: 10:45 a 13:00.
Lugar: Aula 2.1.C.10
(Edificio Sabatini, Campus Leganés).
Prefacio
Matrices de Hankel–Sobolev y algoritmos para el cálculo de polinomios ortogonales de
Sobolev, es una tesis de máster realizada por el alumno del Máster en ingenierı́a matemática
D. Daniel A. Rivero Castillo y dirigida por el Dr. D. Héctor E. Pijeira Cabrera. La estructura
es la siguiente:

Capı́tulo 1. Introducción a la ortogonalidad de Sobolev. Este capı́tulo contiene una breve in-
troducción a la ortogonalidad de Sobolev con énfasis en el caso continuo. El enfoque
de estado del arte y el enunciado de problemas abiertos de interés en tres aspectos
fundamentales:

1. Localización de ceros, ya que uno de los objetivos a mediano plazo del trabajo de
investigación que inicia con esta memoria es el desarrollo de métodos numéricos
eficientes para el cálculo de ceros de polinomios ortogonales de Sobolev.
2. Propiedades asintóticas, ya que estas están relacionadas con los estudios de con-
vergencia de los métodos numéricos que se quieren proponer.
3. Problema de momentos de Sobolev. Como puede apreciarse en los capı́tulos siguien-
tes, los métodos numéricos para polinomios ortogonales dependen fuertemente del
conocimiento de la matriz de momentos asociada y su condicionamiento.

Capı́tulo 2. Métodos numéricos para ortogonalidad de Sobolev. El objetivo en este capı́tulo es


analizar y sintetizar, los principales métodos numéricos conocidos para ortogonalidad de
Sobolev. Las fuentes fundamentales de la información son los trabajos [11, 24, 29, 30,
31, 100]. La tónica es muy similar a la del capı́tulo anterior, pero los contenidos han
sido desarrollados con una mayor extensión porque están estrechamente vinculados al
proyecto de trabajo que realiza el maestrante sobre métodos numéricos para el cómputo
de polinomios ortogonales de Sobolev y sus ceros que se detalla en las conclusiones y
perspectivas de este trabajo (capı́tulo 4).

Capı́tulo 3. Matrices de Hankel–Sobolev. Del capı́tulo anterior, se deduce que el desarrollo de


métodos de cómputo para polinomios ortogonales está ligado a la estructura de la matriz
de momentos y su condicionamiento. Para el caso de ortogonalidad estándar es conocido
que dichas matrices poseen estructura de matrices de Hankel definidas positivas, las que
han sido ampliamente estudiadas en la literatura cientı́fica. Para el caso Sobolev las
matrices de momento poseen una estructura más general, llamadas de Hankel-Sobolev,
que si bien conservan la propiedad de ser definidas positivas, sólo son Hankel bajo ciertas
condiciones. Dichas matrices fueron introducidas en [10] (principal fuente de inspiración
de este capı́tulo) en relación con el problema de momentos de Sobolev que también ha
sido tratado en [60, 61, 104].
El objetivo del capı́tulo es realizar un estudio pormenorizado de las propiedades de
las matrices con estructura de Hankel-Sobolev (ver definición 3.1). Partiendo de los
resultados contenidos en [10], se mejora la demostración de algunas propiedades, se
demuestran otras nuevas y propone un algoritmo cuyo análisis preliminar es prometedor.

Capı́tulo 4. Conclusiones y perspectivas. En esta parte de la memoria se resume muy brevemente


su contenido y se detalla el proyecto de investigación del maestrante, vinculado con el
objetivo de desarrollar e implementar métodos numéricos eficientes para el cómputo de
polinomios ortogonales de Sobolev y sus ceros.

Los dos primeros capı́tulos de la memoria corresponden a la Modalidad-B de trabajo de


fin de master (revisión crı́tica del estado del arte de un área de investigación), mientras que el
tercer capı́tulo corresponde con la Modalidad-A (trabajo de investigación original).
Índice Contenidos.

Índice Contenidos. 5

1 Introducción a la ortogonalidad de Sobolev. 6


1.1. Polinomios Ortogonales de Sobolev. . . . . . . . . . . . . . . . . . . . . . . . 6
1.2. Localización de ceros. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3. Propiedades asintóticas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4. El problema de momentos de Sobolev. . . . . . . . . . . . . . . . . . . . . . 13

2 Métodos numéricos para ortogonalidad de Sobolev. 16


2.1. Cálculo de polinomios ortogonales respecto a un producto interno estándar. . . 16
2.1.1 Algoritmo de Stieltjes. . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.1 Algoritmo de Chebyshev. . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2. Condicionamiento de los algoritmos de Stieltjes y Chebyshev . . . . . . . . . . 22
2.3. Cálculo de los polinomios de Sobolev. . . . . . . . . . . . . . . . . . . . . . . 35
2.4. El algoritmo modificado de Chebyshev. . . . . . . . . . . . . . . . . . . . . . 36
2.5. El algoritmo de Stieltjes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

3 Matrices de Hankel–Sobolev 48
3.1. Momentos de Sobolev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.2. Unicidad de la descomposición. . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3. Caracterización de la descomposición . . . . . . . . . . . . . . . . . . . . . . 51
3.4. Matrices de Hankel-Sobolev . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.5. Fórmula de recurrencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.6. Algoritmo de Hankel-Sobolev. . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.7. Comparación preliminar de algoritmos . . . . . . . . . . . . . . . . . . . . . . 63

4 Conclusiones y perspectivas 65

Bibliografı́a. 67

5
1 Introducción a la ortogonalidad de
Sobolev.

1.1. Polinomios Ortogonales de Sobolev.


En el análisis moderno sobre espacios abstractos destacan, por la riqueza de sus propie-
dades y la amplia gama de aplicaciones, aquellos espacios que poseen estructura métrica y
estructura vectorial compatibles. Particular importancia cobran los espacios dotados de un
producto interior. Una de las realizaciones de mayor interés es el espacio L2 (µ) formado por
las funciones de cuadrado integrable con respecto a una medida µ. A no ser que se especifique
lo contrario, en esta memoria se entiende por medida a una medida no negativa, finita, de
Borel, y con soporte ∆ contenido en C. L2 (µ) tiene estructura de espacio de Hilbert con el
producto interior y la norma:
Z q
hf, giµ = f (x) g(x) dµ(x), kf kµ = hf, f iµ , f, g ∈ L2 (µ). (1.1)

Se dice que dos funciones f, g ∈ L2 (µ) son ortogonales si hf, gi = 0. Los sistemas numera-
bles de funciones ortogonales cuyas combinaciones lineales son densas en L2 (µ) son llamados
completos. Ellos permiten obtener representaciones aproximadas cada uno de los miembros
del espacio mediante funciones elementales. Existen distintas posibilidades para seleccionar
sistemas de funciones ortogonales, aunque las mas importantes son los polinomios algebraicos,
polinomios trigonométricos y exponenciales. Las ventajas de trabajar con polinomios algebrai-
cos son muchas, por ejemplo: los cocientes de polinomios son las funciones numéricas más
generales que se pueden evaluar directamente en el ordenador, son densos en el espacio de
las funciones continuas con la norma uniforme, forman sistemas de Chebyshev por lo que son
buenos interpolantes, entre otros.
Un sistema de polinomios {Pn }∞ n=0 se dice que es ortogonal con respecto a la medida µ ,
si para cada n, deg (Pn ) = n (en lo sucesivo, deg (P ) denota el grado del polinomio P ), y

6= 0, n = m,
hPn , Pm iµ (1.2)
= 0, n 6= m.

6
Polinomios Ortogonales de Sobolev 7

Si para cada n se tiene además que kPn k = 1, entonces se dice que el sistema es ortonormal.
Si en lugar de lo anterior exigimos que el coeficiente principal de cada polinomio sea uno,
entonces el sistema se dice que es de polinomios ortogonales mónicos.
La teorı́a estándar de polinomios ortogonales ha sido tema preferente durante todo el
siglo pasado y las referencias más significativas aparecen recogidas en la bibliografı́a de esta
memoria. Además para una mejor comprensión de los progresos recientes en esta área ver los
surveys [55, 56, 74, 96, 99].
La motivación por considerar productos interiores que involucren no solo a las funciones,
sino también a sus derivadas hasta un orden dado, tiene su origen en la teorı́a de ecuaciones
diferenciales en derivadas parciales con valores frontera (ver [1, 44, 45, 98]). Dichos productos
reciben el nombre de productos interiores de Sobolev. La definición de los espacios de Sobolev
sobre los cuales tales productos con medidas generales tienen sentido, es un tema complejo
sobre el que recomendamos consultar [43, 44, 87, 88, 90, 89]. Por ello, de momento nos
restringimos a la definición de producto de Sobolev sobre el espacio de los polinomios.
Sea {µk }dk=0 , d ∈ Z+ fijo, un sistema de d + 1 medidas cualesquiera con soporte ∆k ⊂
C, k = 0, 1, · · · , d. Supondremos que al menos el soporte de µ0 contiene una cantidad
infinita de puntos y, para evitar casos triviales, que µd no es la medida nula. Se llama producto
interior de Sobolev asociado a dicha familia de medidas al producto definido (sobre el espacio
de los polinomios) por la relación
d Z
X d
X
(k)
hf, giS := f (x)g (k) (x)dµk (x) = hf (k) , g (k) iµk , (1.3)
k=0 ∆k k=0

donde los superı́ndices entre paréntesis denotan orden de derivación. La norma asociada a
(1.3) se llama norma de Sobolev y viene dada por la expresión

d
! 12 d
! 21
1 X X
kf kS = hf, f iS =
2
hf (k) , f (k) iµk = kf (k) k2µk . (1.4)
k=0 k=0

Es claro que si d = 0 tanto (1.3) como (1.4) admiten extensión a todo el espacio L2 (µ0 ).
Dado el producto interior (1.3) diremos que una familia de polinomios {Qn }∞
n=0 es ortogonal
con respecto al mismo, si para cada n ∈ N se tiene que deg (Qn ) = n y

6= 0, n = m,
hQn , Qm iS
= 0, n 6= m.

En tal caso Qn (x) se llama n-ésimo polinomio ortogonal de Sobolev respecto a (1.3) y está de-
terminado de forma única, salvo constante multiplicativa, por la condición anterior. Si el coefi-
ciente principal de Qn (x) es uno, entonces le llamaremos n-ésimo polinomio ortogonal mónico
de Sobolev. Por otra parte si hQn , Qn iS = 1 para todo n ∈ N se dice que la familia es
ortonormal.
En la teorı́a se diferencian dos casos de estudio bien establecidos:
Polinomios Ortogonales de Sobolev 8

1. Producto de Sobolev discreto o tipo-Sobolev, cuando las medidas {µk }dk=1 tienen soporte
formado por un número finito de puntos. El término tipo-Sobolev es usado frecuente-
mente, pues en ocasiones se hacen consideraciones que rebasan el marco de los productos
interiores. Una formulación general de los mismos es
Z d
X
hf, giS = f g dµ0 + Fkt Mk Gk , M ∈ Z+ , (1.5)
k=0

donde
     
f (ck ) a1,1 a1,2 ··· a1,mk g(ck )
 f (1) (ck )   a2,1 a2,2 ··· a2,mk   g (1) (ck ) 
Fk =   Mk =   Gk =   ,
     
.. .. .. .. .. ..
 .   . . . .   . 
f (nk ) (ck ) ank ,1 ank ,2 · · · ank ,mk g (mk ) (ck )

µ0 es una medida finita positiva de Borel y para k = 0, 1, · · · , d (d ∈ Z+ ), ck ∈ C,


ai,j ∈ R+ y nk , mk > 0. F t denota la transpuesta del vector F.

2. Producto de Sobolev continuo, cuando las medidas involucradas en el producto interior


de Sobolev son de Borel con soporte formado por una cantidad infinita de puntos.

Una de las propiedades más significativas de los polinomios ortogonales respecto al producto
interior (1.1) con medidas de soporte real, es que los mismos satisfacen la conocida relación
de recurrencia a tres términos, en el caso de medidas soportadas sobre la circunferencia unidad
también es posible encontrar una fórmula de recurrencia que desempeñe un papel análogo. Esta
es precisamente una de las diferencias cardinales entre los dos casos de estudio mencionados
anteriormente. En [23, 21] se demuestra que para polinomios ortogonales de Sobolev solo es
posible encontrar fórmulas de recurrencia con un número finito fijo de términos si el producto
es discreto.
Una de las extensiones naturales de los espacios anteriores reside en considerar, en lugar
de normas de tipo (1.4), las normas de ı́ndice p, es decir

d Z
! p1
(k) p
X 
kf kS,p = f dµk , 1 ≤ p < ∞. (1.6)
k=0 ∆k

Notemos que en general no podemos hablar de polinomios ortogonales, pues sólo en el


caso p = 2 las normas son generadas por un producto interno (satisfacen la identidad del
paralelogramo). Es bien conocido que si Qn es el enésimo polinomio ortogonal mónico con
respecto a (1.3), entonces es el polinomio mónico de grado n de norma de Sobolev (1.4)
mı́nima, es decir
kQn kS = ı́nf n kRn kS . (1.7)
Rn (x)=x +...

donde el ı́nfimo se toma sobre todos los polinomios mónicos de grado n.


Polinomios Ortogonales de Sobolev 9

En general decimos que Qn es el enésimo polinomio extremal1 con respecto a la norma


k · kS,p , definida en (1.6), si Qn es un polinomio mónico de grado n tal que:

kQn kS,p = ı́nf kRn kS,p . (1.8)


Rn (x)=xn +...

donde el ı́nfimo se toma sobre todos los polinomios mónicos de grado n. La existencia de tal
polinomio no es difı́cil de demostrar (ver [50, pág. 228]). La unicidad es consecuencia de que
la norma (1.6), para 1 < p < ∞, es estrictamente convexa (ver [16, págs. 22–23]).
La ortogonalidad respecto a productos de Sobolev en un primer momento se desarrolló es-
trechamente relacionada con los conocidos espacios de Sobolev ([1, 44, 45, 98]). Los principales
aspectos de interés estaban en: densidad de funciones suaves, teoremas y operadores de in-
mersión en espacios más generales, espacio dual, interpolación y aproximación por funciones
suaves, sistemas ortogonales de funciones y series de Fourier-Sobolev.
Este inicio se desarrolló entre las décadas de los sesenta y los setenta del pasado siglo. Fun-
damentalmente se trabajaba con medidas absolutamente continuas con respecto a la medida
de Lebesgue, productos con derivadas de primer orden y la regla de integración por partes co-
mo una herramienta fundamental. Por lo general las investigaciones se centraban en el estudio
de propiedades algebraicas de los polinomios y entrelazamiento de sus ceros.
La década de los años ochenta fue muy prolifera en resultados trascendentes en la teorı́a
estándar de polinomios ortogonales, sobre todo en lo relacionado con el comportamiento
asintótico (ver [55, 56, 74, 99]). Esto creó las condiciones para retomar a fines de la década
la ortogonalidad tipo Sobolev. Este segundo momento se caracteriza por la ampliación de la
clase de productos de Sobolev bajo consideración y se introduce el concepto de par coherente
de medidas (pares de medidas tales que los polinomios ortogonales con respecto a una de ellas
satisfacen fórmulas de recurrencias en términos de las derivadas de los polinomios ortogonales
a la otra medida). Se hacen extensiones y ampliaciones de este concepto. Cuando las medidas
consideradas son clásicas o cercanas a estas (semiclásicas) se obtienen buenos resultados. El
objeto de estudio se amplió a investigaciones sobre propiedades diferenciales y asintóticas. Aún
hoy se sigue trabajando en esta dirección con medidas especı́ficas. Para conocer el estado del
arte en estas dos etapas se pueden consultar [3, 69, 70, 71] y para el caso de medidas de
soporte no acotado [58].

1.2. Localización de ceros.


En la teorı́a geométrica de polinomios uno de los problemas básicos es la localización
de ceros y puntos crı́ticos. Dicho problema está motivado por diversas aplicaciones a la elec-
trostática, hidrodinámica y geometrı́a entre otros (ver [63, §1.3 y §1.4], [37] y [95, 34, 35, 57]).
Cuando los polinomios son ortogonales respecto a un producto interno estándar como (1.1),
es bien conocido que como consecuencia de la propia definición de ortogonalidad sus ceros se
encuentran en la envoltura convexa del soporte de la medida que define el producto.
1
La teorı́a de polinomios extremales se inicia con el trabajo de Chebyshev [15] sobre mecanismos de
paralelogramo.
Polinomios Ortogonales de Sobolev 10

En el caso Sobolev se conoce desde bien temprano que la afirmación anterior no es cierta.
Pues en [4], un trabajo de 1962, el autor demuestra que dado el producto interior
Z 1 Z 0 Z 1
(0) (0)
hf, giS = f (x)g(x)dx + 10 f (x)g (x)dx + f (0) (x)g (0) (x)dx,
−1 −1 0

el polinomio ortogonal mónico de grado 2 es A2 (x) ≈ (x − 0,31)(x + 1, 08) y 1, 08 6∈ [−1, 1].


Supongamos que en el producto interior (1.3) se tiene que ∆0 contiene un conjunto infinito
de puntos y para todo k, 0 ≤ k ≤ d, ∆k es un subconjunto compacto de la recta real.
La situación anterior corresponde al llamado caso acotado. La primera condición general de
acotación de ceros fue introducida en [52], simplificada posteriormente en [51] y expresa lo
siguiente:

Teorema 1.2.1. Si el producto interior (1.3) cumple que existe una constante C para todo
polinomio p ∈ P tal que kx pkS ≤ CkpkS (o lo que es equivalente, el operador de multiplicación
está acotado sobre P). Entonces si z0 es un cero del enésimo polinomio ortogonal respecto
(1.3) se cumple que |z0 | < C.

En efecto, si Qn (z0 ) = 0, entonces Qn (z) = (z − z0 ) q(z) con deg (q) = n − 1. Por tanto
hQn , z0 qiS = 0 y por el teorema de Pitágoras kz0 qk2S + kQn k2S = kQn + z0 qk2S = kzqk2S .
Entonces |z0 | kqkS ≤ kzqkS ≤ C kqkS .
El teorema equivalente para polinomios extremales respecto a normas de Sobolev del tipo
(1.6) aparece en [50, Th. 3].
Una condición suficiente para que la norma de Sobolev satisfaga la hipótesis del teorema
1.2.1, es que las medidas que lo forman sean secuencialmente dominadas (ver [52, Th. 1]),
es decir:

1. ∆k ⊂ ∆k−1 , k = 1, . . . , d.

2. dµk = fk−1 dµk−1 , fk−1 ∈ L∞ (µk−1 ) , k = 1, . . . , d .

Este resultado motivó varios trabajos. En [86] se demuestra que la acotación del ope-
rador de multiplicación sobre P implica que el correspondiente producto interior de Sobolev
es esencialmente secuencialmente dominado, es decir que existe una norma de Sobolev se-
cuencialmente dominada sobre el espacio de los polinomios P que es equivalente a la norma
inducida por el producto interior de Sobolev. Luego el teorema 1.2.1 puede enunciarse de la
manera siguiente:

Si el producto interior (1.3) es esencialmente secuencialmente dominado, entonces


existe una constante C tal que todos los ceros de los polinomios ortogonales de
Sobolev están contenidos en el disco |z| < C.

Una condición suficiente para determinar productos esencialmente secuencialmente domi-


nados fue dada en [85, (5)]. Recientemente en [80] y [81] se introducen condiciones equiva-
lentes a la dominancia secuencial para polinomios ortogonales y extremales respectivamente.
Polinomios Ortogonales de Sobolev 11

Lo comentado anteriormente sobre acotación de ceros está soportado básicamente en la


demostración de la acotación del operador de multiplicación en los espacios respectivos (ver
Teorema 1.2.1). Además, la acotación del operador de multiplicación (ver [86]) está intrı́nse-
camente vinculada con el hecho de que las normas de Sobolev sean esencialmente secuencial-
mente dominadas. En el caso continuo, excluyendo el caso anterior, hay dos objetos de estudio
de gran interés:

1. Normas de Sobolev con medidas de soporte compacto no esencialmente secuencialmente


dominados. En esta dirección se ha trabajado poco y solo son conocidos los experimentos
numéricos [30, §2] y los resultados de [51, Th. 1.3], ambos sobre productos con derivadas
de hasta primer orden y medidas soportados en dos intervalos disjuntos.

2. Normas de Sobolev con medidas de soporte no acotado. No es difı́cil comprobar que bajo
estos supuestos el operador de multiplicación no está acotado. Además, es bien conocido
que en este caso los ceros de polinomios ortogonales no están uniformemente acotados,
ni en el caso de ortogonalidad estándar (es decir respecto a (1.1)). Aquı́, la acotación
de ceros se entiende en el sentido de que la distancia de los ceros a la envoltura convexa
del soporte de las medidas está uniformemente acotada.
En [22, Th. 1.1] se demuestra que para productos de Sobolev secuencialmente domi-
nados la distancia del conjunto de ceros de los respectivos polinomios ortogonales a la
envoltura convexa del soporte de las medidas está uniformemente acotada. En el caso
acotado este resultado coincide con los ya comentados, pero en el caso no acotado es la
primera condición suficiente al respecto. La demostración [22, Th. 1.1] fue notablemente
simplificada en [20, Th. 1.3] y [19, Lem. 3.1].

Para productos discretos, resulta curioso que a pesar de lo mucho que se ha trabajado
solo aparecen resultados generales sobre de localización de ceros, puntos de cambio de signo
y propiedades de intercalaciones en [2].

1.3. Propiedades asintóticas.


Dada una familia de polinomios ortogonales en el sentido estándar o no, el estudio de
sus propiedades asintóticas conjuntamente con la distribución asintótica de ceros constituye
uno de los problemas de mayor interés. Esto fundamentalmente se debe a las aplicaciones en
teorı́a de aproximación de funciones mediante polinomios o funciones racionales, interpretación
electrostática de ceros y convergencia de las series de Fourier asociadas a los sistemas de
funciones ortogonales que conforman dichos polinomios, entre otras.
En el caso de ortogonalidad estándar los surveys [55, 56] y el libro [101], resumen muy bien
el estado del arte. Sobre ortogonalidad no estándar en general [99] trata sobre los aspectos
principales y para ortogonalidad de tipo Sobolev, en la sección introductoria 1.1 se recogen
múltiples referencias ya comentadas.
Polinomios Ortogonales de Sobolev 12

Por propiedades asintóticas de polinomios ortogonales en un sentido general, se entienden


cada uno de los cuatro problemas que se exponen a continuación en relación con el tipo de
ortogonalidad que nos ocupa aquı́.

Asintótica comparativa. Comportamiento del cociente de dos familias de polinomios ortogo-


nales, generalmente ligadas a través del producto interior cuando se hace tender los
respectivos grados al infinito. En el caso Sobolev, generalmente se refiere a productos
discretos como (1.5), las familias de polinomios que se comparan son los polinomios Qn
ortogonales con respecto a (1.5) y los polinomios ortogonales en el sentido estándar con
respecto a la medida µ0 que aparece en la parte continua del producto.
En [62, 47] se determina dicho comportamiento cuando el soporte de µ0 es un subcon-
junto compacto de la recta real y en [13] cuando µ0 está soportada sobre una curva
rectificable de Jordan o un arco en el plano complejo.

Asintótica débil

Caso acotado. También llamada en dependencia del contexto, asintótica logarı́tmica o


asintótica de la raı́z enésima. Consiste en determinar el comportamiento lı́mite de la
raı́z enésima del módulo del polinomio enésimo cuando n tiende a infinito o equiva-
lentemente el lı́mite del logaritmo de módulo del polinomio enésimo entre n. Es un
problema que generalmente parte de la determinación de la distribución asintótica
de ceros de los polinomios ortogonales y mediante técnicas propias de la teorı́a de
potencial logarı́tmico (ver [36, 83, 91, 65]) obtener el resultado mencionado.
Para que los lı́mites sean uniformes sobre compactos contenidos en el complemento
de la envoltura convexa del soporte de la medida se requiere acotación uniforme de
ceros. Por consiguiente está muy relacionado con la solución de problemas como
los mencionados en el apartado Localización de ceros de esta sección.
En el caso de ortogonalidad tipo Sobolev con medidas cuyo soporte es un sub-
conjunto compacto de la recta real los resultados correspondientes aparecen en
[52, 51]. Sucesivas extensiones para polinomios extremales respecto a normas con
medidas soportadas sobre subconjuntos compactos de C con interior vacı́o apa-
recen en [50, 80, 81], siempre acompañados de resultados sobre localización de
ceros.
Caso no acotado. Como comentamos en el apartado Localización de ceros de la sección
introductoria, para medidas con soporte no acotado, los ceros de los polinomios
ortogonales correspondientes no están uniformemente acotados. En su lugar la que
si está uniformemente acotada es la distancia de los ceros a la envoltura convexa
del soporte de las medidas. Por tanto la forma natural de plantear el problema
es con respecto a los polinomios que se obtienen reescalando convenientemente.
Por lo general, las medidas consideradas son de la forma dµ(x) = e−ϕ(x) dx o
asintóticamente equivalentes a estas (ver [49, §1]). Existen dos casos de estudio
diferenciados: caso Freud cuando ϕ(x) es de crecimiento polinomial y caso Erdős
Polinomios Ortogonales de Sobolev 13

cuando ϕ(x) crece más rápido que un polinomio. En ambos casos el soporte es o
bien R o R+ .
Para productos de Sobolev respecto a pesos que asintóticamente se comportan
como el caso Freud el comportamiento asintótico logarı́tmico fue determinado en
[49]. En [20, 19] para soporte en R o R+ respectivamente, se estudia el mismo
problema mediante un procedimiento que permite resolverlo en el caso Freud y
Erdős a la vez o con mezclas de estos. Para ello se generalizan algunos resultados
de teorı́a de potencial logarı́tmico.

Asintótica fuerte. Consiste en determinar cuando n → ∞ la función a la que es asintóticamente


equivalente la familia de polinomios ortogonales. Generalmente se obtiene imponiendo
condiciones restrictivas sobre las medidas que intervienen en la definición del producto
interior (es decir que pertenezcan a la clase de Szegő, ver [25, §V.3] o [101, §1.3.1]).
Sobre las extensiones y las técnicas de trabajo en este problema para la ortogonalidad
usual son referencias destacadas [96, 103, 40, 39].
Para el caso Sobolev cuando todas las medidas tienen el mismo soporte compacto, ha
sido resuelto en un marco bastante general en los trabajos [64, 66, 48]. Para el caso no
acotado [59] resuelve el caso Laguerre–Sobolev.
Asintótica del cociente. Se refiere al comportamiento del cociente de dos polinomios consecu-
tivos de la misma familias de polinomios ortogonales, cuando se hace tender su grado a
infinito. En cualquiera de los surveys [55, 56] o el libro [101] puede verse que este resul-
tado para ortogonalidad estándar es relativamente reciente, ya que data de la década de
los ochenta. En su demostración puede verse que depende fuertemente de la relación de
recurrencia a tres términos que satisfacen los polinomios ortogonales. Quizás por esta
observación es que el problema equivalente para productos de Sobolev permanece abierto
aún. Recuérdese que como hemos comentado anteriormente esta relación de recurrencia
no se tiene para productos de Sobolev en general.

Algunas de las propiedades asintóticas mencionadas en el listado anterior implican otras


de las que aparecen. No obstante, los enunciados se refieren a obtener los resultados bajo las
hipótesis menos restrictivas posibles.

1.4. El problema de momentos de Sobolev.


Acerca del problema de momentos ordinario existen muchas referencias, pero las más
usuales son [5, 93], [42] y [102, Cap. 3]. En el caso de productos de Sobolev el tema se
trató por primera vez en [10] con el enfoque que comentamos a continuación.
Sea {µk }dk=0 , con d ∈ N fijo, un conjunto de d + 1 medidas positivas, donde para cada k,
0 ≤ k ≤ d, Supp (µk ) ⊂ ∆k ⊂ R.
Por h·, ·ik denotaremos el producto interior usual en el espacio de Hilbert L2 (µk ), es decir:
Z
hf, gik := f (x)g(x)dµk (x) , k = 0, 1, . . . , d.
∆k
Polinomios Ortogonales de Sobolev 14

Los momentos de orden l asociados a cada una de las medidas µk se denotan por mk,l , es
decir: Z
mk,l := xl dµk (x) , k = 0, 1, . . . , d y l = 0, 1, 2, . . . ,
∆k

mientras que Mk := (mk,l ) denotará la matriz de momentos asociada a las medidas µk .


Obviamente, cada Mk es una matriz de Hankel.
Sea h·, ·iS el producto de Sobolev asociado al conjunto de medidas {µk }dk=0 con µd 6= 0,
definido sobre el espacio P, como en (1.3). Llamaremos momentos de Sobolev , o en forma
abreviada S-Momentos a los números:

si,j := hx(i) , x(j) iS , i, j = 0, 1, . . . .

Denotemos por M = (si,j ) la matriz infinita cuyo elemento en la posición (i, j) es el


momento de Sobolev si,j ; en virtud de (1.3) es claro que M es simétrica. Si d = 0, M
coincide con la matriz de momentos o de Hankel asociada a la medida µ0 .
Sean dados a priori un sistema de d + 1 conjuntos ∆k , ∆k ⊂ R para k = 0, 1, . . . , d y una
matriz M = (si,j ) simétrica e infinita de números reales; entonces:

El problema de momentos de Sobolev o S-problema de momentos asociado a


(M; ∆0 , ∆1 , . . . , ∆d ) consiste en encontrar un sistema de d + 1 medidas positivas
µ0 , µ1 , . . . , µd con Supp (µk ) ⊂ ∆k , k = 0, 1, . . . , d tales que se cumpla (3.3).

Si el S-Problema de Momentos para (M; ∆0 , ∆1 , . . . , ∆d ) tiene al menos una solución,


diremos que está definido. En caso de que la solución (µ0 , µ1 , . . . , µd ) de un S-Problema de
Momentos definido sea única, diremos que el mismo está determinado.
En el caso ordinario se presentan tres casos de estudio, pero aquı́ se tiene los correspon-
dientes a esos tres y otras combinaciones posibles:

Sobolev-Hamburger. ∆k = (−∞, +∞) para todo 0 ≤ k ≤ d.


Sobolev-Stieltjes. ∆k = [0, +∞) para todo 0 ≤ k ≤ d.
Sobolev-Hausdorff. ∆k = [−1, 1] para todo 0 ≤ k ≤ d.
Otros. Combinaciones de los casos anteriores.

Utilizando (1.3) es posible encontrar la siguiente relación entre los momentos asociados a
cada una de las medidas µk y los momentos de Sobolev :
d
X
M= Dk Mk Dk t , Md 6= 0
k=0
∞
donde Dk = cki,j i,j=0
, Dk t es la transpuesta de Dk y para k = 0, . . . , d

i!
si i − j = k .

cki,j = (i − k)!
 0 en cualquier otro caso.
Polinomios Ortogonales de Sobolev 15

Tomando como base la descomposición anterior, en [10] se deduce la definición y/o deter-
minación en diversas situaciones de un problema de momentos de Sobolev por reducción a la
definición y/o determinación de d problemas de momentos ordinarios asociados a las matrices
Mk . Posteriormente en [60] se generalizan algunos de los resultados contenidos en [10] y
en [61] se propone un algoritmo alternativo para determinar cuando una matriz dada puede
interpretarse como una matriz de momentos de Sobolev. En [104] se extienden los resultados
contenidos en los trabajos mencionados en este párrafo para ortogonalidad de Sobolev discreta.
2 Métodos numéricos para
ortogonalidad de Sobolev.

2.1. Cálculo de polinomios ortogonales respecto a un producto


interno estándar.
Sea dµ0 una medida no negativa en la recta real R, con soporte acotado o no, y supondre-
mos que al menos el soporte de dµ0 contiene una cantidad infinita de puntos, y consideremos
el producto interno (1.3) con d = 0, es decir
Z
hf, gi = f (x)g(x)dµ0 (x), con f, g ∈ P, (2.1)
R

de manera que todos momentos


Z
m̄k = xk dµ0 (x), k = 0, 1, 2, . . . , (2.2)
R

existen y son finitos. Consideremos (1.4) con d = 0, entonces en este caso la norma nos queda
expresada por
Z 1/2
p 2
kf k = hf, f i = f (x)dµ0 (x) . (2.3)
R

Es conocido que cualquier sistema de polinomios ortogonales mónicos {Pk }, con respecto
a una medida µ0 , satisface una relación de recurrencia a tres términos de la forma:

Pk+1 (x) = (x − αk )Pk (x) − βk Pk−1 (x), k = 0, 1, 2 . . . , (2.4)


P−1 (x) = 0, P0 (x) = 1,

16
Métodos numéricos para ortogonalidad de Sobolev 17

donde
hxPk , Pk i
αk = , k = 0, 1, 2 . . . ,
hPk , Pk i
hPk , Pk i
βk = , k = 1, 2 . . . (2.5)
hPk−1 , Pk−1 i
Z
β0 := hP0 , P0 i = dµ0 (x).
R

La relación de recurrencia a tres términos (2.4) es muy importante pues nos permite calcular
de manera recursiva los polinomios ortogonales con respecto al producto interno estándar
(2.1). En los siguientes apartados describiremos los diferentes métodos numéricos que se han
desarrollado para calcular dichos polinomios.

Algoritmo de Stieltjes.
Versión Original.
Teniendo en cuenta las ecuaciones (2.4) y (2.5) Stieltjes observó que los polinomios
P1 , P2 , P3 , . . . pueden ser generados de la siguiente manera: Dado que P0 = 1, el coefi-
ciente α0 puede ser calculado de (2.5) con k = 0, el cual nos permite calcular P1 de (2.4).
Conociendo P0 , P1 , podemos obtener α1 , β1 de (2.5) y por tanto P2 de (2.4), etc. A este pro-
cedimiento recursivo entre las fórmulas (2.4) y (2.5) se le conoce como Algoritmo de Stieltjes.
Desafortunadamente, esta versión del algoritmo de Stieltjes es numéricamente inestable, pues
los errores de redondeo se propagan muy rápidamente. En este sentido, Gautschi en [27] repor-
ta que el rápido crecimiento de los errores es debido al mal condicionamiento de la aplicación
Kn : [µ0 , µ1 , . . . , µ2n−1 ] −→ [α0 , . . . , αn−1 , β0 , . . . , βn−1 ], la cual estudiaremos en la sección
2.2.

Generalidades de métodos de discretización


La idea básica que subyace en los métodos de discretización es bastante simple. Dada una
medida dµ, aproximarla por una medida discreta dµN de N puntos, calcular los coeficientes
de recursión αk,N = αk (dµN ), βk,N = βk (dµN ) de la medida discreta dµN , y hacer tender N
a infinito. Si las discretizaciones han sido hechas de manera correcta, el proceso deberá con-
verger, en el sentido de que para k fijo lı́mN →∞ αk,N = αk y lı́mN →∞ βk,N = βk , donde αk
y βk son los coeficientes asociados a la medida dµ. Siguiendo este orden de ideas, hay varias
consideraciones teóricas y prácticas que se deben tener en cuenta. La primera es la conver-
gencia, la segunda el problema de calcular los coeficientes de recursión de medidas discretas y
la tercera y posiblemente la más importante, la apropiada elección de las discretizaciones.
En primer lugar supongamos que la medida dµ está soportada en [−1, 1] y que los puntos
del soporte de dµN también están contenidos en [−1, 1], entonces definimos el siguiente
Métodos numéricos para ortogonalidad de Sobolev 18

producto interno discreto


Z N
X
hf, gidµN := f (x)g(x)dµN (x) = f (xk )g(xk )wk (2.6)
R k=1

donde xk y wk dependen de N . Es de esperar que los polinomios ortogonales discretos


Pn,N (dµN ) convergen a los polinomios ortogonales continuos Pn (dµ), cuando N → ∞, siem-
pre que lı́mN →∞ hf, gidµN = hf, gidµ para cualesquiera f, g ∈ P, esto es precisamente lo que
afirma el siguiente

Teorema 2.1.1. Dada dµ una medida positiva en [−1, 1] con momentos finitos de todos los
ordenes y dµN la medida discreta (2.6) con xk = xk,N números distintos en [−1, 1] y wk =
wk,N > 0 para cada N . Asumimos que

lı́m hf, gidµN = hf, gidµ , si f, g ∈ P. (2.7)


N →∞

Entonces, para cualquier k fijo, los coeficientes de recursión αk,N y βk,N de los polinomios
ortogonales discretos, con respecto a la medida dµN satisfacen

lı́m αk,N = αk , lı́m βk,N = βk , (2.8)


N →∞ N →∞

donde αk = αk (dµ), βk = βk (dµ). Además

lı́m Pn (x, dµN ) = Pn (x, dµ) (2.9)


N →∞

uniformemente para x ∈ [−1, 1].

Demostración: Ver [31, §2.2].


Las discretizaciones hf, gidµN de hf, gidµ se pueden obtener aplicando una fórmula de
cuadratura adecuada. Supongamos que dµ(x) = w(x)dx, donde w es continua en (−1, 1),
pero puede tener singularidades en ±1. Entonces se busca una aproximación de la forma
Z 1 N
h(x)w(x)dx ∼
X
= wk h(xk )w(xk ),
−1 k=1

la cual puede ser usada con h(x) = f (x)g(x), para obtener le producto interno discreto (2.6).
Otra
R 1 alternativa es Putilizar una fórmula de cuadratura de tipo interpolatorio, de manera que

h(x)w(x)dx = N
−1 k=1 wk h(xk ), y cuyos nodos sean densos cerca de los puntos ±1. Una
fórmula de cuadratura que satisface estos requerimientos, es la llamada fórmula de cuadratura
de Fejér cuyos nodos son:
2k − 1
xk = cos θk , θk = π, k = 1, 2, . . . , N (2.10)
2N
Métodos numéricos para ortogonalidad de Sobolev 19

y los pesos vienen dados explı́citamente por


 
[N/2]
2  X cos 2nθk 
wk = 1−2 , k = 1, 2, . . . , N (2.11)
N n=1
4n2 − 1

Fejér demostró que wk > 0 para todo k, y que por tanto la fórmula de cuadratura converge
cuando h es una función continua (en vista el teorema de Pólya), en particular convergerá para
cualquier polinomio h con w continua en [−1, 1].
Si la medida dµ contiene también una componente discreta, es suficiente sumar esta
componente a la aproximación discreta de la parte absolutamente continua de dµ, esto no
afecta de ninguna manera a las propiedades de convergencia de la discretización.
El caso en que la medida está soportada en un intervalo de la forma [a, b], −∞ ≤ a <
b ≤ ∞, se puede reducir al intervalo [−1, 1] a través de una transformación adecuada
Z b Z 1
f (x)w(x)dx = f (φ(t))w(φ(t))φ0 (t)dt. (2.12)
a −1

Si [a, b] es un intervalo finito, una transformación lineal será suficiente para tener (2.12), en
otro caso, se puede utilizar la siguiente transformación
 1
 2
(b − a)t + 12 (b + a) si −∞ < a < b < ∞,
 b − 1−t

si −∞ = a < b < ∞,
1+t
φ(t) = 1+t
a− si −∞ < a < b = ∞,
 t 1−t


1−t2
si −∞ = a < b = ∞,

Algoritmo de Stieltjes Discretizado


Si hf, gidµN denota el producto interno discreto definido en (2.6), se tiene análogamente al
caso continuo, que cualquier sistema de polinomios ortogonales mónicos {Pk,N }, con respecto
a una medida discreta dµN , satisfacen una relación de recurrencia a tres términos de la forma:
Pk+1,N (x) = (x − αk,N )Pk,N (x) − βk,N Pk−1,N (x), k = 0, 1, 2 . . . , (2.13)
P−1,N (x) = 0, P0,N (x) = 1,
donde
hxPk,N , Pk,N idµN
αk,N = , k = 0, 1, 2 . . . , (2.14)
hPk,N , Pk,N idµN
hPk,N , Pk,N idµN
βk,N = , k = 1, 2 . . . (2.15)
hPk−1,N , Pk−1,N idµN
XN
β0,N := hP0,N , P0,N idµN = wk .
k=1

Dado que P0,N = 1, el coeficiente α0,N puede ser calculado de (2.14) con k = 0, y también
β0,N = h1, 1idµN . Esto nos permite calcular P1,N (x) para todos los valores x = xk necesitados,
Métodos numéricos para ortogonalidad de Sobolev 20

usando (2.13) con k = 0. Una vez calculados P1,N (xk ) y P0,N (xk ), utilizamos las fórmulas
(2.14), (2.15) para obtener α1,N y β1,N . De nuevo, estos valores pueden ser usados en (2.13)
para generar P2,N . De esta manera, alternando entre (2.13) y (2.14), (2.15) podremos generar
todos los coeficientes de recursión que necesitemos para calcular los polinomios ortogonales
Pk,N (x), k = 0, 1, 2, . . ..
El procedimiento descrito no siempre es numéricamente estable. Por un lado, hay cierto
peligro de overflow o underflow durante la ejecución del algoritmo. Esto puede suceder por dos
razones: overlow (respectivamente underflow) de los pesos wk , u overlow (respectivamente
underflow) de las normas cuadráticas de los polinomios Pk,N . Como solución, se puede mul-
tiplicar todos los pesos por un número c suficientemente grande (respectivamente pequeño),
antes de iniciar el algoritmo.

Algoritmo de Chebyshev
Este método consiste en calcular αk y βk directamente en términos de las cantidades
Z
σk,l = Pk (x)xl dµ(x), (2.16)
R

para ello, multiplicamos a la ecuación (2.4) por xk−1 e integramos con respecto dµ y nos
queda:
Z Z Z
k−1
x Pk+1 (x)dµ(x) = x (x − αk )Pk (x)dµ(x) − βk xk−1 Pk−1 (x)dµ(x) (2.17)
k−1
R R R

En vista de que Pk (x) es ortogonal con respecto a dµ, tenemos


Z Z
k−1
x Pk+1 (x)dµ(x) = αk xk−1 Pk (x)dµ(x) = 0,
R R

por tanto la ecuación (2.17) nos queda en la forma:


Z Z
k
0 = x Pk (x)dµ(x) − βk xk−1 Pk−1 (x)dµ(x) (2.18)
R R
= σk,k − βk σk−1,k−1 , (2.19)
de esta manera
σk,k
βk = . (2.20)
σk−1,k−1
Análogamente, para expresar αk en términos de los coeficientes σk,l , multiplicamos por xk
relación de recurrencia (2.4) e integramos con respecto dµ
Z Z Z
k
x Pk+1 (x)dµ(x) = x (x − αk )Pk (x)dµ(x) − βk xk Pk−1 (x)dµ(x)
k
R ZR Z R Z
= x Pk (x)dµ(x) − αk x Pk (x)dµ(x) − βk xk Pk−1 (x)dµ(x)
k+1 k
R R R
= σk,k+1 − αk σk,k − βk σk−1,k
= 0.
Métodos numéricos para ortogonalidad de Sobolev 21

Por lo tanto
σk,k+1 σk−1,k
αk = − βk
σk,k σk,k
σk,k+1 σk−1,k
= − , k = 1, 2, . . . (por (2.20)). (2.21)
σk,k σk−1,k−1
Con las condiciones iniciales

β0 = σ0,0
σ0,1 σ−1,0
α0 = −
σ0,0 σ−1,−1
σ0,1 R
= , (Pues, σ−1,0 = P−1 (x)dµ(x) = 0, y σ−1,−1 6= 0) (2.22)
σ0,0 R

Además, es posible obtener a los coeficientes σk,l de manera recursiva a partir de los momentos
m̄l definidos en (2.2), para ello sustituimos k por k − 1 en la relación de recurrencia (2.4),
multiplicamos por xl e integramos con respecto dµ y nos queda:
Z Z Z
l
σk,l = x Pk (x)dµ(x) = x (x − αk−1 )Pk−1 (x)dµ(x) − βk−1 xl Pk−2 (x)dµ(x)
l
R ZR Z R

= xl+1 Pk−1 (x)dµ(x) − αk−1 xl Pk−1 (x)dµ(x)


R Z R

−βk−1 xl Pk−2 (x)dµ(x)


R
= σk−1,l+1 − αk−1 σk−1,l − βk−1 σk−2,l , (2.23)

donde l = k, k + 1, . . . , 2n − k − 1, junto con las condiciones iniciales:

σ−1,0 = 0, σ0,l = m̄l . (2.24)

Finalmente tenemos que partiendo de los primeros 2n momentos m̄0 , m̄1 , . . . , m̄2n−1 , se pue-
den calcular los coeficientes α0 , . . . , αn−1 y β0 , . . . , βn−1 , utilizando las ecuaciones (2.20),
(2.21), (2.23), junto a las condiciones inciales (2.22), (2.24). A este procedimiento se le llama
Algoritmo de Chebyshev.
Desafortunadamente, el algoritmo de Chebyshev es inestable cuando se implementa par-
tiendo de los momentos m̄l . Sin embargo, es posible en muchos casos estabilizar el algoritmo
introduciendo los momentos modificados en lugar de los momentos ordinarios.

Algoritmo de Chebyshev modificado


Sea {Lk (x)} cualquier sucesión de polinomios mónicos que satisfacen la relación de recu-
rrencia a tres términos

Lk+1 (x) = (x − ak )Lk (x) − bk Lk−1 (x), k = 0, 1, 2 . . . , (2.25)


L−1 (x) = 0, L0 (x) = 1,
Métodos numéricos para ortogonalidad de Sobolev 22

con ak ∈ R y bk ≥ 0. Sean
Z
mk := Lk (x)dµ(x), k = 0, 1, 2, . . . , (2.26)
R

los momentos modificados de la medida dµ. Si ak = bk = 0 para todo k, entonces Lk (x) = xk ,


y los momentos modificados se reducen a los momentos ordinarios m̄k . Introducimos los
“momentos mixtos” Z
σk,l = Pk (x)Ll (x)dµ(x), k, l ≥ −1, (2.27)
R
y de manera análoga al razonamiento hecho para la deducción del algoritmo de Chebyshev,
se obtiene el siguiente algoritmo, el cual nos permite calcular los coeficientes αk , βk , k =
0, 1, . . . , n − 1 a partir de los momentos modificados mk , k = 0, 1, . . . , 2n − 1:
Inicio:
α 0 = a0 + m1
m0
,
β0 = m0 ,
σ−1,l = 0, l = 1, 2, . . . , 2n − 2
σ0,l = ml , l = 0, 1, . . . , 2n − 1.
begin
(If n > 1)
for k = 1 to n − 1 do
for l = k, k + 1, . . . , 2n − k − 1 do
σkl = σk−1,l+1 − (αk−1 − al )σk−1,l − βk−1 σk−2,l + bl σk−1,l−1 ,
end
σ σk−1,k
αk = σk,k+1
k,k
− σk−1,k−1 + ak
σk,k
βk = σk−1,k−1 .
end
end
Algorithm 1: Algoritmo de Chebyshev modificado

2.2. Condicionamiento de los algoritmos de Stieltjes y Chebyshev


El estudio de la inestabilidad de los Algoritmos de Stieltjes y Chebyshev, se reduce a estudiar
el condicionamiento de las aplicaciones de momentos Gn y Kn . Esta sección está dedicada a
los resultados que nos proporcionan el condicionamiento de dichas aplicaciones.

Condición de aplicaciones no lineales


Definición 2.1. Si f : R → R es diferenciable en el punto x, entonces

(condabs f )(x) = |f 0 (x)|

es llamado el número de condición absoluto de f en el punto x.


Métodos numéricos para ortogonalidad de Sobolev 23

Definición 2.2. Si f : R → R es diferenciable en el punto x 6= 0 y y = f (x) 6= 0, entonces


0
xf (x)
(condrel f )(x) =
f (x)

es llamado el número de condición relativo de f en el punto x.

Definición 2.3. Una función f : R → R es llamada mal condicionada en el punto x si su


número de condición en x es mucho mayor que 1, y es llamada bien condicionada en otro
caso.

Supongamos ahora que f~ : Rm → Rn definida por ~y = f~(~x), donde f~ = [f1 , f2 , . . . , fn ]T


es un vector de n funciones no lineales a valores reales fk = fk (~x) en m variables reales
~x = [x1 , x2 , . . . , xm ]T . En este caso, el análogo a la definición de derivada es la derivada
Fréchet  ∂f1 ∂f1 ∂f1 
∂x1 ∂x2
· · · ∂x m
~ ∂f2 ∂f2 ∂f2 
∂ f (x)  ∂x1 ∂x2
 · · · ∂xm 
= . . ..  (x), (2.28)
∂x  . . .
. . 
∂fn ∂fn ∂fn
∂x1 ∂x2
· · · ∂x m

esto es, la transformación lineal definida por la matriz Jacobiana de f~ en ~x, lo que sugiere la
siguiente

Definición 2.4. Si f~ : Rm → Rn es Fréchet diferenciable en el punto ~x ∈ Rm , entonces



  ∂ f~(~x)
condabs f~ (~x) =

∂~x

es llamado el número de condición absoluto de f~ en el punto ~x ∈ Rm , donde la norma de la


derecha es una norma matricial apropiada.

Para el cálculo del número de condición consideraremos la norma infinito y la norma de


Frobenius:
∂ f~(~x) m
X ∂fk (~x)
= máx ∂xj , (2.29)

∂~x

1≤k≤n
∞ j=1

m X
n !1/2
∂ f~(~x) X ∂fk (~x) 2
= . (2.30)

∂~x ∂xj

F j=1 k=1

Análogamente a la definición 2.2, podemos definir el número de condición relativo de la


siguiente manera:
Métodos numéricos para ortogonalidad de Sobolev 24

Definición 2.5. Dada f~ : Rm → Rn una función Fréchet diferenciable en el punto ~x =


[x1 , x2 , . . . , xm ]T , donde xj 6= 0, j = 1, 2, . . . , m, e ~y = f~(~x) = [y1 , y2 , . . . , ym ]T es tal
que yk = fk (~x) 6= 0, k = 1, 2, . . . , n. Sea C(~x) ∈ Rn×m definida por

x (∂ f~ (~x)/∂x )
j k j
C(~x) = [ck,j (~x)] , ck,j (~x) = , k = 1, . . . , n; j = 1, . . . , m.
fk (~x)

Entonces, el número de condición relativo de f~ en ~x, puede ser definido por


 
condrel (f~) (~x) = kC(~x)k, (2.31)

donde la norma de la derecha es una norma matricial apropiada. Si alguno de los componentes
de ~x o de f~(~x) se anulan, ck,j (~x) se puede redefinir de la siguiente manera

mo(x )(∂ f~ (~x)/∂x )
j k j
ck,j (~x) = , (2.32)

mo(fk (~x))

siendo mo(x) la función definida por



1 if |x| < 1,
mo(x) = (2.33)
|x| en otro caso.

Las aplicaciones de momentos Gn y Kn


Existen varias aplicaciones de momentos de interés en el cálculo de los polinomios orto-
gonales, dependiendo de la información de los momentos de la que se disponga.RLa primera
aplicación, que denotaremos por Gn : R2n → R2n , relaciona a los momentos m̄k = R xk dµ(x),
con los pesos µ1 , µ2 , . . . , µn y nodos x1 , x2 , . . . , xn de una fórmula de cuadratura Gaussiana,
y viene dada por
Gn : m̄ −→ γ. (2.34)
donde m̄ = [m̄0 , m̄2 , . . . , m̄2n−1 ]T y γ = [µ1 , µ2 , . . . , µn , x1 , x2 , . . . , xn ]T . Otra aplicación en
general mejor condicionada y también denotada por Gn , está definida mediante:

Gn : m −→ γ, (2.35)

donde m = [m0 , m2 , . . . , m2n−1 ]T es el vector de momentos modificados, cuyas componentes


2n−1
vienen dados por (2.26), siendo {Lk }k=0 (en el caso más general) una base del espacio de
los polinomios P2n−1 .

Ejemplo 2.2.1. Si Lk (x) = xk , k = 0, 1, . . . , 2n − 1, tenemos en este caso que m = m̄, por


tanto las aplicaciones (2.34) y (2.35) coinciden.

Otra elección Lk (x) muy usada, es tomar Lk (x) = Lk (x, dl), k = 0, 1, . . . , 2n − 1, los
primeros 2n polinomios ortogonales mónicos con respecto a la medida dl; de manera que dl
Métodos numéricos para ortogonalidad de Sobolev 25

esté en algún sentido, cerca de dµ y además que Gn de (2.35) esté mejor condicionada que
(2.34).
El segundo tipo de aplicación Kn , está relacionada con el cálculo de los 2n primeros
coeficientes de recursión αk , βk k = 0, 1, . . . , 2n − 1 de la relación de recurrencia tres términos
de los polinomios ortogonales mónicos (2.4) y viene dada por
Kn : R2n → R2n m̄ (resp. m) −→ ρ, (2.36)
donde, como antes, m̄ y m son los vectores de momentos y momentos modificados respecti-
vamente, y el vector ρ = [α0 , . . . , αn−1 , β0 , . . . , βn−1 ]T .
Por otro lado, la aplicación Kn puede ser representada como la composición de las aplica-
ciones
Kn = Hn ◦ Gn , (2.37)
donde Gn es la aplicación Gn : m̄ → γ. definida en (2.34) (respectivamente (2.35)) y Hn es
la aplicación
Hn : R2n → R2n γ −→ ρ. (2.38)
En general la aplicación Hn está bien condicionada (ver [31, §3.1.1]). Los resultados acerca del
condicionamiento de la aplicación Gn para los momentos ordinarios (2.34) (respectivamente
la aplicación Gn momentos modificados (2.35)) los demostró W. Gautschi en el artı́culo de
1968 [27] (respectivamente [28]), mientras que los resultados que estiman el condicionamiento
de la aplicación Kn son más recientes y fueron demostrados por H.J. Fischer en [24].

Condición de Gn : m̄ −→ γ
Sea n ≥ 1 un entero fijo, y dµ una medida definida positiva en P. Entonces se tiene que la
sucesión de polinomios ortogonales Pn (dµ) existe y depende continuamente de los momentos
m̄k , k = 0, 1, . . . , 2n − 1 (ver [31, págs 2 y 53]). De esta manera se tiene que los ceros xk de
Pk , es decir los nodos y también los pesos µk de la fórmula de cuadratura Gaussiana, dependen
de los momentos. Ası́, tiene sentido considerar la condición de la aplicación Gn : m̄ → γ en
m̄(dµ).
En vista de la definición 2.4, tenemos el número de condición absoluto de Gn

∂Gn (m̄)
(cond Gn ) (m̄) = ,
∂ m̄
donde k.k es la norma infinito (2.29). Dado que la fórmula de cuadratura Gaussiana es exacta
en P2n−1 y teniendo en cuenta (2.2), se tiene
Z Xn
k
x dµ(x) = µj xkj = m̄k , k = 0, 1, . . . , 2n − 1. (2.39)
R j=1

Ası́, la aplicación Gn es equivalente a resolver el sistema no lineal (2.39) para µ1 , . . . , µn , x1 , . . . , xn .


Si Fn denota la aplicación γ → m̄ definida en (2.39), entonces por la definición de derivada
de Fréchet (2.28) tenemos
∂Fn
= XΛ,
∂γ
Métodos numéricos para ortogonalidad de Sobolev 26

donde Λ ∈ R2n×2n es la matriz diagonal

Λ = diag(1, . . . , 1, µ1 , . . . , µn ) (2.40)

y X una matriz de Vandermonde


 
1 ··· 1 0 ··· 0
 x1
 · · · xn 1 ··· 0 

 x2 · · · xn 2
2x1 ··· 2xn
X= .

1
 .. .. .. .. 
 . . . . 
2n−1
x1 2n−1
· · · xn (2n − 1)x12n−2 · · · (2n − 1)x2n−2
n

Dado que la aplicación Gn es la inversa de Fn , tenemos


 −1
∂Gn ∂Fn
= = Λ−1 X −1 , (2.41)
∂ m̄ ∂γ
y entonces
(cond Gn ) (m̄) = Λ−1 X −1 .

(2.42)
Si el soporte de la medida dµ está contenido en los números reales positivos R+ , se tiene la
siguiente cota inferior para el número de condición (2.42).

Teorema 2.2.1. Sea dµ una medida definida positiva con soporte de R+ y sea Pn el polinomio
ortogonal mónico de grado n con respecto a dµ. Entonces, el número de condición absoluto
(2.42) satisface

(Pn (−1))2
 
1
(cond Gn ) (m̄) ≥ mı́n 1, . , (2.43)
máxk µk mı́n1≤k≤n {(1 + xk )[Pn0 (xk )]2 }

donde µk y xk son los pesos y nodos de la fórmula de cuadratura Gaussiana de n nodos.

Demostración: En vista de que µk > 0, de (2.42) tenemos


 
1 −1
(cond Gn ) (m̄) ≥ mı́n 1, X . (2.44)
máxk µk

La norma infinito de X −1 ha sido estimada por Gautschi en [27], donde demostró


 

 n 
Y 1 + xj  2 

−1
X ≥ máx (1 + xk ) .
1≤k≤n 
 j=1
xk − xj  
j6=k

pero Qn
Y  1 + xj 2 j=1 (1 + xj )
2
(1 + xk ) = Q
j=1
xk + xj (1 + xj ) j6=k (xk − xj )2
j6=k
Métodos numéricos para ortogonalidad de Sobolev 27

Qn n
Qn 0
Qn además P n (x) = j=1 (x − x j ), entonces P n (−1) = (−1) j=1 (1 + xj ) y Pn (xk ) =
j6=k (xk − xj ) y nos queda

−1
X ≥ (Pn (−1))2
,
mı́n1≤k≤n {(1 + xk )[Pn0 (xk )]2 }
que junto a (2.44), prueban el teorema.

Observación 2.2.1. La cota inferior (2.43) es invariante cuando se multiplica al polinomio


Pn por cualquier constante cn , por lo tanto no depende de la normalización del polinomio
ortogonal.

Ejemplo 2.2.2. Consideremos los polinomios Chebyshev de primer tipo Tn (x) = cosnθ, n =
0, 1, . . . , los cuales son ortogonales con respecto a la medida dµ(x) = (1 − x2 )−1/2 , para x ∈
[−1, 1]. Para la medida de Chebyshev en [0, 1], calcularemos la cota inferior de (cond Gn ) (m̄)
utilizando el resultado (2.43). Entonces dµ(x) = [x(1 − x)]−1/2 dx y teniendo en cuenta la
observación 2.2.1 podemos tomar Pn (x) = Tn (2x − 1), siendo Tn (2x − 1) los polinomios de
Chebyshev de primer tipo “trasladados”. Ası́

[Pn (−1)]2 = [Tn (−3)]2 = [Tn (3)]2 , (2.45)

dado que los nodos de la fórmula de cuadratura Gaussiana para la medida de Chebyshev vienen
dados por
1 2k − 1
xk = (1 + cos θk ), θk = π, (2.46)
2 2n
tenemos
Pn0 (xk ) = 2Tn0 (2xk − 1) = 2Tn0 (cos θk ).
Derivando la identidad Tn (cos θ) = cos nθ nos queda Tn0 (cos θ) = n sin nθ/ sin, y podemos
escribir    2
0 2 3 1 2 sin nxk
(1 + xk )[Pn (xk )] = + cos θk 4n .
2 2 sin xk
El mı́nimo de esta expresión tomado sobre todo k = 1, 2, . . . , n es menor o igual a su valor
para cualquier k = k0 fijo. Tomando k0 = [ n2 ] + 1, entonces sin nθk0 = (−1)k0 , y cos θk0 = 0,
√ cos θk0 = − sin(π/2n), sin θk0 = cos(π/2n) si n es par, se tiene,
sin θk0 = 1 si n es impar,
usando cos(π/2n) ≥ 1/ 2 para n ≥ 2, lo siguiente

mı́n{(1 + xk )[Pn0 (xk )]2 } ≤ (1 + xk0 )[Pn0 (xk0 )]2 ≤ 12n2 , n ≥ 2. (2.47)
k

Por otro lado, en este caso los pesos de la fórmula de cuadratura Gaussiana son µk = π/n,
es decir µk < 1 si n ≥ 4, y entonces
 
1
mı́n 1, = 1, n ≥ 4. (2.48)
máxk µk
Ası́ usando (2.45), (2.47) y (2.48) en (2.43) nos queda
Métodos numéricos para ortogonalidad de Sobolev 28

[Tn (3)]2
(cond Gn ) (m̄) ≥ , n ≥ 4. (2.49)
12n2
Teniendo en cuenta que los polinomios de Chebyshev de primer tipo Tn (x) satisfacen una
la relación de recurrencia tres términos, se obtiene que yk = Tk (3) satisface

yk+1 = 2xyk − yk−1 , k = 1, 2, . . . , donde y0 = 1, y y1 = x,

se puede obtener una cota inferior más cuantitativa notando que yk = Tk (3) satisface

yk+1 − 6yk + yk−1 = 0, y0 = 1, y1 = 3,

ası́ de la teorı́a de ecuaciones en diferencias de primer orden con coeficientes constantes se


obtiene
1 √ √
yn = Tn (3) = (xn1 + xn2 ), x1 = 3 + 8, x2 = 3 − 8.
2
1 n
Por tanto, Tn (3) > 2 x1 , y de (2.49) nos queda finalmente

(17 + 6 8)n
(cond Gn ) (m̄) > , n ≥ 4. (2.50)
48n2
Para medidas soportadas en un intervalo infinito, hasta el momento no se tienen cotas del
tipo (2.43), además es posible tener un rápido crecimiento de los momentos m̄k , ası́ quizás es
más apropiado considerar un número de condición relativo como en (2.31):

Teorema 2.2.2. Dada dµ una medida positiva. Entonces el número de condición relativo de
Gn (m̄), de acuerdo con (2.31) y (2.32), viene dado por

(condrel (Gn ))(m̄) = kC(m̄)k,

donde
C(m̄) = [cij (m̄)]2n
i,j=1 ,

mo(m̄j−1 )(T −1 )ij mo(m̄j−1 )(T −1 )n+i,j


cij (m̄) = , cn+i,j (m̄) = , (2.51)
mo(µi ) µi mo(xi )
i = 1, 2, . . . , n; j = 1, 2, . . . , 2n. (2.52)

Aquı́, (T −1 )ij denota el elemento i, j de la matriz T −1 y mo(x) la función (2.33).

Una definición más global del número de condición relativo aplicada a Gn , cuando se usa
norma infinito tiene la forma:
kµk∞ kΛ−1 T −1 k∞
(condGn ) (µ) = . (2.53)
kγk∞
Métodos numéricos para ortogonalidad de Sobolev 29

Condición de Gn : m −→ γ
Consideremos los momentos modificados definidos en (2.26) en términos de los polinomios
ortogonales mónicos Lk (x) con respecto a la medida positiva dl, cuyo soporte puede ser
acotado o no acotado y no necesariamente debe coincidir con el soporte de la medida dµ.
Se asume que todos los momentos de la medida dl existen. Por otro lado, es conveniente
considerar la aplicación ligeramente modificada
en : R2n → R2n ,
G e → γ,
m

donde m
e = [m
e 0, m e 2n−1 ]T es el vector de momentos modificados normalizados
e 1, . . . , m
Z
1
me k = √ mk , dk = L2k (x)dl(x), k = 0, 1, . . . , 2n − 1, (2.54)
dk R

con mk definido como en (2.26). Como veremos, es ventajoso teóricamente que m e k sea
independiente de la normalización de los polinomios ortogonales {Lk }. Por otro lado, si xk y
µk son los nodos y pesos de la fórmula de cuadratura de Gaussiana con respecto a la medida
dµ, y denotamos por hk , zk a los polinomios de interpolación de Hermite elementales, los
cuales satisfacen
hk (xk ) = δk,j , h0k (xk ) = 0,
k, j = 1, 2, . . . , n, (2.55)
zk (xk ) = 0, zk0 (xk ) = δk,j ,

tenemos la siguiente estimación del número de condición de la aplicación G


en

Teorema 2.2.3. El número de condición absoluto de la aplicación G en , en el sentido de la


definición 2.4, con k.k la norma de Frobenius, viene dado por
  Z 1/2
cond Gn (m)
e e = gn (x; dµ)dl(x) , (2.56)
R

donde n  
X
2 1 2
gn (x; dµ) = hk (x) + 2 zk (x) (2.57)
k=1
µk
y hk , zk son los polinomios de interpolación de Hermite elementales asociados con los nodos
x1 , . . . , x n .
Demostración: Ver [31, págs 65-67].
El teorema 2.2.3 muestra que para un n dado el número de condición de G
en depende de las
dos medidas dµ y dl. Concretamente, la dependencia de dµ se manifiesta a través de los nodos
xk = xk (dµ) y pesos µk = µk (dµ), los cuales determinan unı́vocamente a los polinomios de
Hermite hk y zk . La influencia de la medida dl es menos notoria pues sólo interviene como
medida de integración en la integral de (2.56).
El polinomio gn = gn (dµ) tiene algunas propiedades notables: es positivo,

gn (x) > 0 en R, (2.58)


Métodos numéricos para ortogonalidad de Sobolev 30

y de (2.55) se tiene

gn (xk ) = 1, gn0 (xk ) = 0, k = 1, 2, . . . , n. (2.59)

Teniendo en cuenta que gn fuera del soporte de dµ tiene un crecimiento muy rápido, es
conveniente que el soporte de dl esté contenido (o sea igual) en el soporte de dµ.

Teorema 2.2.4. El número de condición relativo de G


en , de acuerdo con (2.31) y (2.32) , viene
dado por  
cond G en (m)e = kC(m)k,e (2.60)
donde
C(m) e 2n
e = [ck,j (m)]k,j=1

y
p e j−1 )|ak,j |
mo(m p e j−1 )|bk,j |
mo(m
ck,j (m)
e = dj−1 , cn+k,j (m)
e = dj−1 , k = 1, . . . , n.
mo(µk ) µk mo(xk )
(2.61)
aquı́, ak,j y bk,j son los coeficientes en las expansiones
2n
X 2n
X
hk (x) = akj Lj−1 (x), zk (x) = bkj Lj−1 (x), (2.62)
j=1 j=1

dj−1 las constantes definidas en (2.54), y mo(.) la función definida en (2.33).

Condición de Kn : m −→ ρ
Aunque la aplicación Kn puede ser expresada en términos de la composición de aplicaciones
Gn y Hn (2.37), es posible analizar el condicionamiento de Kn directamente, de hecho para
lo momentos modificados arbitrarios como los definidos en la sección 2.2.
Notemos que los primeros 2n momentos modificados (2.26) se pueden expresar linealmente
en términos de los primeros 2n momentos ordinarios (2.2), siendo la matriz de la transfor-
mación no singular debido a que hemos supuesto que los polinomios Lk forman una base de
P2n−1 . Recı́procamente, los primeros 2n momentos ordinarios se pueden expresar como una
transformación lineal no singular de los primeros 2n momentos modificados. De (2.5) se tiene
que los coeficientes de recursión αk y βk , k = 0, 1, . . . , n − 1, son funciones racionales de
los primeros 2n momentos ordinarios, con polinomio denominador positivo en alguna vecindad
de los momentos dados m̄. Lo mismo, es entonces válido para los momentos modificados.
De esta manera, tiene sentido considerar el condicionamiento (cond Kn )(m) de la aplicación
Kn : m → ρ en el vector de momentos modificados m = m(dµ).
En vista de que {Lj }2n−1
j=0 es una base de P2n−1 , cualquier polinomio real q ∈ P2n−1 se
puede expresar de manera única
2n−1
X
q(x) = cj [q]Lj (x) (2.63)
j=0
Métodos numéricos para ortogonalidad de Sobolev 31

en términos de los polinomios pj , donde los coeficientes cj son funcionales lineales continuos
cj : P2n−1 → R. Para calcular la matriz Jacobiana ∂Kn /∂m, el siguiente lema será útil

Lema 2.1. Sea q ∈ P2n−1 un polinomio que depende de los 2n primeros momentos modificados
m0 , m1 , . . . , m2n−1 y tiene derivadas parciales continuas en una vecindad de algún punto
m
~ = [m0 , m1 , . . . , m2n−1 ]. Entonces,
Z Z
∂ ∂q(x)
q(x)dµ(x) = ck [q] + dµ(x). (2.64)
∂mk R R ∂mk

Teorema 2.2.5. Sea pk (.) = pk (.; dµ) los polinomios ortonormales con respecto a la medida
dµ, entonces
" #
∂α    
∂Kn ∂m
~ ∂α ∂αj n×2n ∂β ∂βj
= ∂β , = ∈R , = ∈ Rn×2n , (2.65)
∂m~ ∂m
~
∂m~ ∂mk ∂m~ ∂mk

donde
   
∂αj ∂βj
= ck [ψ̃2j+1 ], = ck [ψ̃2j ], j = 0, 1, . . . , n − 1; k = 0, 1, . . . , 2n − 1,
∂mk ∂mk
(2.66)
y ψ̃o , ψ̃1 , . . . , ψ̃2n−1 son polinomios definidos mediante

ψ̃2j = βj (p2j (x) − p2j−1 (x))


p p
ψ̃2j+1 = βj+1 pj (x)pj+1 (x) − βj pj−1 (x)pj (x), (2.67)
j = 0, 1, . . . , n − 1,
R
con p−1 = 0 y β0 = R dµ(x). (Note que ψ̃k es un polinomio de grado exacto k para
k = 0, 1, . . . , 2n − 1.)
 
Corolario 2.1. Sea Ψ̃ ∈ R2n×2n la matriz cuyos elementos Ψ̃ = ck [ψ̃j ], k = 0, 1, . . . , 2n −
j,k
1 j = 0, 1, . . . , 2n − 1. Entonces, el número de condición absoluto de Kn en el punto m,
~ con
la norma infinito o la norma de Frobenius, viene dado por

~ = kΨ̃k.
(cond Kn ) (m) (2.68)

Especı́ficamente,

2n−1 2n−1
!1/2
X X 2n−1
X 2

Ψ̃ = máx ck [ψ̃j ] , Ψ̃ = ck [ψ̃j ] . (2.69)

∞ 1≤j≤2n−1 F
k=1 j=1 k=1

Corolario 2.2. El número de condición relativo de Kn en el sentido de (2.31) y (2.32) viene


dado por
(cond Kn ) (m)~ = kC(m)k,
~ (2.70)
Métodos numéricos para ortogonalidad de Sobolev 32

donde
2n−1
C(m)
~ = [cj,k (m)]
~ j,k=0
y

mo(mk )ck [ψ̃2j+1 ] mo(mk )ck [ψ̃2j ]


cj,k (m)
~ = , cj+n,k (m)
~ = , j = 0, 1, . . . , n − 1. (2.71)
mo(αj ) mo(βj )

Aquı́, los polinomios ψ̃0 , ψ̃1 , . . . , ψ̃2n−1 son los definidos en (2.67) y mo(x) es la función
definida en (2.33).

Corolario 2.3. Si Pk (x) = Pk (x, dµ) denotan los polinomios ortogonales mónicos con respecto
a la medida dµ y definimos
1
Pj2 (x) − βj Pj−1
2

ψ2j (x) = (x) (2.72)
β0 , β1 , . . . , βj−1
1
ψ2j+1 (x) = (Pj (x)Pj+1 (x) − βj Pj−1 (x)Pj (x)) , (2.73)
β0 , β1 , . . . , βj
j = 0, 1, . . . , n − 1, (2.74)

donde para j = 0 el producto de los β’s en la primera relación es tomado igual a 1. Si


Ψ ∈ R2n×2n definida por (Ψ)lk = ck [ψl ], se tiene

~ = kΨk,
(cond Kn ) (m) (2.75)

con la norma k.k como en el Corolario 2.1.

Es importante resaltar la dependencia que tiene el condicionamiento de Kn de la medida dµ,


ası́ como de los polinomios ψ̃ (respectivamente ψ). La elección de los momentos modificados
es reflejada en los funcionales lineales ck .
Veamos algunos resultados que nos permitan estimar el condicionamiento de la aplicación
Kn para algunas medidas particulares:

Ejemplo 2.2.3. Consideremos los polinomios de Chebyshev de primer tipo, Tn (cos nθ), n =
0, 1, . . . . definidos en el ejemplo 2.2.2; usando propiedades de los polinomios de Chebyshev se
puede demostrar que en este caso los polinomios ψj definidos en el corolario 2.3 vienen dados
por 
 1 si j = 0
1
ψ2j = T
2 2
si j = 1 (2.76)
 1
4
(T2j − T2j−2 ) si j > 1
y 
T1 si j = 0
ψ2j+1 = 1 (2.77)
2
(T2j+1 − T2j−1 ) si j > 0
Métodos numéricos para ortogonalidad de Sobolev 33

En el caso de los polinomios de Chebyshev en [0, 1], Pn (x) = Tn (2x − 1) tenemos de (2.67)
las siguientes relaciones
1
ψ̃2j (x) = ψ2j (2x − 1) para j ≥ 1
4
1
ψ̃2j+1 (x) = ψ2j+1 (2x − 1) para j ≥ 0,
2
y las fórmulas explı́citas en términos de los polinomios de Chebyshev son:

 1 si j = 0
1
ψ̃2j = P
8 2
si j = 1 (2.78)
 1
16
(P2j − P2j−2 ) si j > 1
y
1

P
2 1
si j = 0
ψ̃2j+1 = 1 (2.79)
4
(P2j+1 − P2j−1 ) si j > 0
Ejemplo 2.2.4. Consideremos los polinomios de Chebyshev de segundo tipo, los cuales están
definidos mediante
sin(j + 1)θ
Uj (cos θ) = , j = 0, 1, . . . .
sin θ
Estos polinomios son ortogonales con respecto a la medida dµ(x) = π2 (1 − x2 )−1/2 dx para
x ∈ [−1, 1]. Usando las propiedades de los polinomios de Chebyshev de segundo tipo se puede
demostrar que 
1 si j = 0
ψ2j = 1 (2.80)
U
4 2j
si j > 0
y
1
ψ2j+1 = U2j+1 . (2.81)
2
Como en el caso de los polinomios de Chebyshev de primer tipo, consideramos los polinomios
trasladados, los cuales son ortogonales con respecto a dµ(x) = π8 x(1−x)−1/2 dx para x ∈ [0, 1],
y las fórmulas explı́citas para los polinomios ψ̃ son

1 si j = 0 1
ψ̃2j = 1 , ψ̃2j+1 = Ũ2j+1 . (2.82)

16 2j
si j > 0 4

donde Ũn es el polinomio de Chebyshev trasladado de segundo tipo

Ũn = Un (2x − 1).

Para el caso especial en el que la medida m = m̄, es decir Lj (x) = xj , y ck [q] = q (k) (0)/k!
en (2.63), tenemos los siguientes resultados para los polinomios de los ejemplos 2.2.3 y 2.2.4.
Métodos numéricos para ortogonalidad de Sobolev 34

Teorema 2.2.6. Sea dµ(x) una medida definida como la del ejemplo 2.2.3 (polinomios de
Chebyshev de primer tipo). Entonces la norma infinito de ∂K n
∂ m̄
viene dad por

∂Kn
∂ m̄ = 4Un−2 (3) para n ≥ 2. (2.83)

En el caso de los polinomios de Chebyshev trasladados de primer tipo la norma es



∂Kn
∂ m̄ = 4U2n−3 (3) para n ≥ 2. (2.84)

Para los polinomios de segundo tipo (ejemplo 2.2.4 ) tenemos



∂Kn
∂ m̄ = Un−1 (3) para n ≥ 2. (2.85)

finalmente para los polinomios de Chebyshev trasladados de segundo tipo la norma infinito es

∂Kn 1
∂ m̄ = 4 U2n−1 (3) para n ≥ 2. (2.86)

Demostración: Ver [24, pág 229-230].


De la ecuación (2.84), se obtiene la siguiente estimación

√ 2n−2 2(17 − 6 8) √

∂Kn 1

∂ m̄
≈4 √ (3 + 8) = √ (17 + 6 8)n , (2.87)
∞ 2 8 8
la cual tiene el mismo comportamiento de la estimación del número de condición obtenida en
(2.50) √
(17 + 6 8)n
(cond Gn ) (m̄) > , n ≥ 4,
48n2
sin embargo la cota inferior (2.87), crece mucho más rápido que la cota (2.50).
Ejemplo 2.2.5. Consideremos la medida de Chebyshev en [−1, 1] y Lk (x) igual a los polinomios
de interpolación de Lagrange En [24, teorema 5] se demuestra
(cond Kn ) (m̄) ≤ 2n, (2.88)
independientemente de la elección de los nodos de interpolación. El crecimiento lineal del
número de condición luce muy atractivo nuḿericamente, sin embargo la estimación
R sólo tiene
utilidad teórica, pues el cálculo numérico de los “momentos de Lagrange” li (x)dµ(x) es
difı́cil de obtener aún en el caso de medidas dµ muy simples.
Teorema 2.2.7. Sea Lk (.) = Lk (.; dl) los polinomios ortonormales con respecto a una medida
dl, y pk (.) = pk (.; dµ) los polinomios ortonormales con respecto a la medida dµ; entonces en
este caso se tiene cj (q) = q(x)Lj (x)dl(x) y la norma de Frobenius de ∂K
R n
∂ m̄
es
Z 1/2
∂Kn
∂ m̄ = wn (x)dl(x) ,

F
Métodos numéricos para ortogonalidad de Sobolev 35

donde
2n−1
X n−1
X
wn (x) = ψ̃j2 (x) = 2
{ψ̃2j 2
(x) + ψ̃2j+1 (x)},
j=0 j=0

y ψ̃o , ψ̃1 , . . . , ψ̃2n−1 son los polinomios definidos mediante (2.67).


En la mayorı́a de las aplicaciones, la medida dl es una medida clásica, soportada en un
intervalo contenido en el soporte de la medida dµ, pues en caso contrario se espera un número
de condición alto, debido a que fuera del soporte de dµ los polinomios ortonormales pn crecen
exponencialmente con n . Para el caso en que Supp (dµ) = Supp (dl) y es un intervalo tenemos
la siguiente desigualdad tipo Markov
Corolario 2.4. Si Supp (dµ) = Supp (dl) y es un intervalo, supongamos que para algunas
constantes c0 > 0 y s > 0 se tiene
µ(B(x, r)) ≥ c0 rs , x ∈ S, 0 ≤ r ≤ 1,
donde B(x, r) denota la bola cerrada de centro x y radio r. Entonces existen constantes C > 0
y γ que satisfacen
∂Kn γ
∂ m̄ ≤ Cn .

F

2.3. Cálculo de los polinomios de Sobolev.


Sean dµk , k = 0, 1, . . . , d, medidas positivas en la recta real R, con soporte acotado o no
acotado. Consideremos el producto interno de Sobolev definido en (1.3) junto con la norma
Sobolev dada por la expresión (1.4). Si asumimos que dµ0 tiene infinitos puntos de crecimiento,
se tiene que el producto interno (1.3) es definido positivo en P, y define una única sucesión
de polinomios ortogonales mónicos P0 , P1 , P2 , . . .

hPk , Pl iS = 0, k 6= l k, l = 0, 1, 2, . . .
k
Pk (x) = x + términos de menor grado, k = 0, 1, 2, . . . . (2.89)
A los polinomios dados por (2.89), se les conoce como polinomios ortogonales de tipo Sobolev
y se puede demostrar que satisfacen la siguiente relación de recurrencia:
k
X
Pk+1 (x) = xPk (x) − βjk Pk−j (x), k = 0, 1, 2, . . . (2.90)
j=0

donde βjk son coeficientes de recursión, que pueden ser generados a través de varios métodos
computacionales que serán analizados en esta memoria.
La relación de recurrencia (2.90) puede ser escrita en forma matricial para k = 0, 1, . . . , n−
1 de la siguiente manera:
xP T (x) = P T (x)Bn + Pn (x)eTn , eTn = (0, 0, . . . , 1) ∈ Rn (2.91)
Métodos numéricos para ortogonalidad de Sobolev 36

donde
P T (x) = (P0 (x), P1 (x), . . . , Pn−1 (x)) (2.92)

n−2 n−1
β00 β11 β22
 
··· βn−2 βn−1
n−2 n−1

 1 β01 β12 ··· βn−3 βn−2 

n−2 n−1
 0 1 β02 ··· βn−4 βn−3 
Bn =   (2.93)

 ··· ··· ··· ··· ··· ··· 

 0 0 0 ··· β0n−2 β1n−1 
0 0 0 ··· 1 β0n−1
La importancia de los coeficientes βjk , radica no sólo en que nos permite calcular a los
polinomios ortogonales de tipo Sobolev a través de (2.90), sino que además es posible obtener
los ceros de Pn (x) calculando los autovalores de la matriz Hessenberg superior de n × n, Bn .
En efecto, si denotamos por ξ1 , ξ2 , . . . , ξn a los ceros de Pn (x), tendremos que Pn (ξk ) = 0
para k = 0, 1, . . . , n − 1, entonces de (2.91) se tiene

ξk P T (ξk ) = P T (ξk )Bn , (2.94)

donde el vector P T (ξk ) es no nulo pues su primera componente es P0 (ξk ) = 1. Ası́ queda
demostrado que ξk es un autovalor de Bn .

2.4. El algoritmo modificado de Chebyshev.


Consideremos el producto interno general (1.3) con d ≥ 1,
d Z
X
hp, qiS = p(i) (x)q (i) (x)dµi (x), p, q ∈ P. (2.95)
i=0 R

Nuestro objetivo, en esta sección, es usar la información de los momentos dada en las medidas
dµ0 , dµ1 , . . . , dµd para generar los coeficientes de recursión βjk de (2.90). En vista de que los
momentos ordinarios producen mal condicionamiento, utilizaremos los momentos modificados,
los cuales por simplicidad los definiremos para una sucesión Lk de polinomios, es decir
Z
i
mk = Lk (x)dµi (x), k = 0, 1, 2, . . . ; i = 0, 1, 2, . . . , d. (2.96)
R
Asumimos que los polinomios Lk satisfacen la relación de recurrencia a tres términos

Lk+1 (x) = (x − ak )Lk (x) − bk Lk−1 (x), k = 0, 1, 2, . . . , (2.97)


L0 (x) = 1, L−1 (x) = 0,

con coeficientes conocidos ak , bk . El caso de los momentos ordinarios está incluido aquı́, si
elegimos ak = bk = 0. Sin embargo, en general los ak son reales, no nulos necesariamente, y
bk > 0.
Métodos numéricos para ortogonalidad de Sobolev 37

En lo que sigue, usaremos la notación


Z
hp, qii = p(x)q(x)dµi (x), i = 0, 1, . . . , d, (2.98)
R

tal que
d
X
(i) (i)
hp, qiS = p ,q i. (2.99)
i=0

Definición 2.6. Para k, l = 0, 1, 2, . . . y u, v = 0, 1, . . . , d, definimos

σk,l := hPk , Ll iS , (2.100)


D E
(u,v) (u) (v)
µk,l,i := Pk , Ll , i = 0, 1, . . . , d, (2.101)
i

donde {Pk } es la sucesión de polinomios ortogonales de tipo Sobolev asociada con el pro-
ducto interno (2.95), y {Ll } son los polinomios (2.97), definidos por los momentos modificados
(2.96).
Las siguientes proposiciones nos darán las expresiones explı́citas de los coeficientes σk,l ,
que a su vez nos permitirá calcular los coeficientes βjk .

Proposición 2.4.1. Para k = 1, 2, . . . , n − 1; l = k, k + 1, . . . , 2n − k − 1, se tiene


d
X  k−1
 X
(i−1,i) (i,i−1)
σk,l = σk−1,l+1 + al σk−1,l + bl σk−1,l−1 + i µk−1,l,i − µk−1,l,i − βjk−1 σk−1−j,l . (2.102)
i=1 j=0

Demostración: Por (2.100), (2.99) y (2.90) (reemplazando k por k − 1), tenemos


d
X k−1
X
(i)
σk,l = hPk , Ll iS = hxPk−1 , Ll i0 + h(xPk−1 )(i) , Ll ii − βjk−1 σk−1−j,l .
i=1 j=0

Escribimos el primer término de la derecha como hPk−1 , xLl idµ0 , y para el segundo término
notemos que
D E D E
(i) (i) (i) (i−1) (i)
(xPk−1 ) , Ll = xPk−1 + iPk−1 , Ll
i
D E D i E
(i) (i) (i−1) (i)
= Pk−1 , xLl + i Pk−1 , Ll
i i
D E  
(i) (i) (i−1,i) (i,i−1)
= Pk−1 , (xLl ) + i µk−1,l,i − µk−1,l,i .
i

Ahora usamos (2.97) y su versión derivada en la forma


(i) (i) (i)
xLl = Ll+1 + al Ll + bl Ll−1 , (xLl )(i) = Ll+1 + al Ll + bl Ll−1

para obtener (2.102).


Métodos numéricos para ortogonalidad de Sobolev 38

Proposición 2.4.2. Para i = 1, 2, . . . , d; u = 0, 1, . . . , i; v = 0, 1, . . . , i; k = 1, 2, . . . , n −


1; l = k, k + 1, . . . , 2n − k − 2, se tiene
k−1−u
X
(u,v) (u,v) (u,v) (u,v) (u−1,v) (u,v−1) (u,v)
µk,l,i = µk−1,l+1,i + al µk−1,l,i + bl µk−1,l−1,i + uµk−1,l,i − vµk−1,l,i − βjk−1 µk−1−j,l,i ,
j=0
(2.103)
donde los términos cuarto y quinto son cero si u = 0 y v = 0, respectivamente.
Demostración: En vista de la definición (2.101) y de (2.90), tenemos
D E D E k−1
X D E
(u,v) (u) (v) (v) (u) (v)
µk,l,i = Pk , Ll = (xPk−1 )(u) , Ll − βjk−1 Pk−1−j , Ll . (2.104)
i i i
j=0

Por la regla del Leibnitz la podemos escribir


D E D E
(v) (u) (u−1) (v)
(xPk−1 )(u) , Ll = xPk−1 + uPk−1 , Ll
i i
D E D E
(u) (v) (u−1) (v)
= xPk−1 , Ll + u Pk−1 , Ll
i
D Ei D E
(u) (v) (v−1) (v−1) (u−1) (v)
= Pk−1 , xLl + vLl − vLl + u Pk−1 , Ll
i i
D E D E
(u) (v) (u) (v−1)
= Pk−1 , (xLl ) − v Pk−1 , Ll
i i
D E
(u−1) (v)
+ u Pk−1 , Ll , (2.105)
i

(v) (v−1)
donde la ecuación (2.104) está justificada pues xLl +vLl = (xLl )(v) . Teniendo en cuenta
(u)
que Pk−1−j = 0 si u > k − 1 − j, los términos de la suma del lado derecho de (2.104) para
j > k − 1 − u son nulos, ası́ la ecuación (2.104) nos queda en la forma
D E D E D E
(u,v) (u) (u−1) (v) (u) (v−1)
µk,l,i = Pk−1 , (xLl )(v) + u Pk−1 , Ll − v Pk−1 , Ll
i i i
k−1−u
X D E
(u) (v)
− βjk−1 Pk−1−j , Ll
i
j=0

(v)
finalmente, usando la definición (2.101) y (2.97) para k = l, es decir (xLl )(v) = Ll+1 +
(v) (v)
al Ll + bl Ll−1 obtenemos

D E k−1−u
X
(u,v) (u) (v) (v) (v) (u−1,v) (u,v−1) (u,v)
µk,l,i = Pk−1 , Ll+1 + al L l + bl Ll−1 + uµk−1,l,i − vµk−1,l,i − βjk−1 µk−1−j,l,i ,
i
j=0

lo que nos da (2.103).


El siguiente resultado nos da las expresiones de los coeficientes βjk de la fórmula de recu-
rrencia (2.90) de los polinomios ortogonales de Sobolev mónicos.
Métodos numéricos para ortogonalidad de Sobolev 39

Proposición 2.4.3. Tenemos


σ0,1
β00 = + a0 ,
σ0,0
y para k = 1, 2, . . . , n − 1,
σk,k+1 σk−1,k
β0k = + ak − , (2.106)
σk,k σk−1,k−1
para j = k − 1, k − 2, . . . , 1 (si k ≥ 2)
k−1
k σj,k+1 σj,k σj,k−1 σj−1,k X
l σl,k
βk−j = + ak + bk − − βl−j , (2.107)
σj,j σj,j σj,j σj−1,j−1 l=j
σl,l

k−1
σ0,k+1 σ0,k σ0,k−1 X l σl,k
βkk = + ak + bk − βl . (2.108)
σ0,0 σ0,0 σ0,0 l=0
σl,l

Demostración: Usando hPj , Pj iS = hPj , Lj iS = σj,j , tenemos


k−1
X σj,k
Lk = Pk + Pj , k = 0, 1, 2, . . . (2.109)
j=0
σj,j

La ecuaciones (2.97) y (2.109) junto a la definición 2.6, nos dan

σj,k+1 = hPj , Lk+1 iS = hPj , xLk iS − ak σj,k − bk σj,k−1


* k−1
!+
X σl,k
= Pj , x Pk + Pl − ak σj,k − bk σj,k−1
l=0
σl,l
S
k−1
X σl,k
= hPj , xPk iS + hPj , xPl iS − ak σj,k − bk σj,k−1 .
l=0
σl,l

En vista de la ecuación (2.90)

k hPj , xPk iS
βk−j = , j ≤ k, (2.110)
hPj , Pj iS
nos queda
k−1
k
X σl,k
σj,k+1 = βk−j σj,j + hPj , xPl iS − ak σj,k − bk σj,k−1 , j ≤ k.
l=0
σl,l

Eligiendo j = k = 0 obtenemos (2.106), pues σ0,−1 = 0. Si j = 0 < k, entonces hP0 , xPl iS =


βll σ0,0 por (2.110), y de esta manera obtenemos (2.108). Supongamos ahora que 0 ≤ j ≤ k.
Entonces, como hPj , xPl iS = 0 si l + 1 < j, obtenemos usando hPj , xPj−1 iS = hPj , Pj iS =
σj,j y (2.110) lo siguiente
k−1
k σj−1,k X σl,k
l
σj,k+1 = βk−j σj,j + σj,j + βl−j σj,j − ak σj,k − bk σj,k−1 .
σj−1,j−1 l=j
σl,l
Métodos numéricos para ortogonalidad de Sobolev 40

k
Dividiendo ambos lados de la ecuación por σj,j y despejando βk−j , obtenemos

k−1
k σj,k+1 σj,k σj,k−1 σj−1,k X
l σl,k
βk−j = + ak + bk − − βl−j ,
σj,j σj,j σj,j σj−1,j−1 l=j
σl,l

donde, para j = k la última suma es igual a cero, y σk,k−1 = 0. Esto completa la prueba de
(2.107).
Ahora obtendremos los coeficientes de inicio del algoritmo de Chebyshev modificado, para
ello, notemos que por la definición 2.6

σ0,k = m0k , k = 0, 1, . . . , 2n − 1,
(0,0)
µ0,k,i = mik , k = 0, 1, . . . , 2n − 2, i = 1, 2, . . . , d,

los cuales son los momentos de entrada (2.96) con respecto a las medidas dµ0 , dµ1 , . . . , dµd .
En el corolario 2.5 mostraremos como calcular
D E Z
(0,v) (v) (v)
µ0,k,i = P0 , Lk = Lk (x)dµi (x), k = 1, 2, . . . , 2n − 2,
i R
i = 1, 2, . . . , d, v = 1, 2, . . . , i.
(u,0)
Es claro que µ0,k,i = 0 para u = 1, 2, . . . , i. Ahora expresamos L0k como una combinación
lineal de Lj ,
k−1
X
L0k (x) = τjk Lj (x), (2.111)
j=0

y encontraremos una relación de recurrencia para τjk . Definimos τjk = 0 si j ≥ k o j < 0.

Proposición 2.4.4. Para k = 0, 1, . . . , 2n − 3 ; j = 0, 1, . . . , k, tenemos

τjk+1 = τj−1
k k
+ τj+1 bj+1 + τjk (aj − ak ) − bk τjk−1 + δj,k ,

donde δj,k es la delta de Kronecker.

Demostración: Derivando en (2.97) y usando (2.111), tenemos

L0k+1 (x) = Lk (x) + (x − ak )L0k (x) − bk L0k−1 (x)


k−1
X k−2
X
= Lk (x) + τjk (x − ak )Lj (x) − bk τjk−1 Lj (x).
j=0 j=0

Por (2.97),

(x − ak )Lj (x) = (x − aj )Lj (x) + (aj − ak )Lj (x)


= Lj+1 (x) + bj Lj−1 (x) + (aj − ak )Lj (x).
Métodos numéricos para ortogonalidad de Sobolev 41

Entonces,
k−1
X k−2
X
L0k+1 (x) = Lk (x) + τjk (Lj+1 (x) + bj Lj−1 (x) + (aj − ak )Lj (x)) − bk τjk−1 Lj (x)
j=0 j=0
k
X k−2
X k−1
X k−2
X
= Lk (x) + k
τj−1 Lj (x) + k
bj+1 τj+1 Lj (x) + τjk (aj − ak )Lj (x) − bk τjk−1 Lj (x)
j=1 j=0 j=0 j=0
k k k
= (1 + τk−1 )Lk (x) + (τk−2 + τk−1 (ak−1 − ak ))Lk−1 (x)
k−2
X
+ k
(τj−1 k
+ bj+1 τj+1 + τjk (aj − ak ) − bk τjk−1 )Lj (x) + (b1 τ1k + τ0k (a0 − ak ) − bk τ0k−1 )L0 (x).
j=1

Comparando los coeficientes comunes con los de (2.111), y reemplazando k por k +1, tenemos

τkk+1 = 1 + τk−1
k
, si k ≥ 0,
k+1 k k
τk−1 = τk−2 + τk−1 (ak−1 − ak ) si k ≥ 1,

y para j = 1, 2, . . . , k − 2 , k ≥ 3,

τjk+1 = τj−1
k k
+ bj+1 τj+1 + τjk (aj − ak ) − bk τjk−1 ,

τ0k+1 = b1 τ1k + τ0k (a0 − ak ) − bk τ0k−1 , si k ≥ 2.

Corolario 2.5. Tenemos para k = 1, 2, . . . , 2n − 2,


k−1
X
(0,v) (0,v−1)
µ0,k,i = τjk µ0,j,i , v = 1, 2, . . . , i.
j=v−1

Demostración: Por (2.101) y (2.111),

D E k−1
X D E
(0,v) (v) (v−1)
= P0 , (L0k )(v−1) i = τjk P0 , Lj


µ0,k,i = P0 , Lk .
i i
j=0

(v−1)
Dado que Lj = 0 si v − 1 > j, y usando (2.101), se obtiene el resultado.
En resumen tenemos el siguiente:
Métodos numéricos para ortogonalidad de Sobolev 42

Inicio:
for l = 0 to 2n − 1 do
(0)
σ0,l = ml
β00 = σσ0,1
0,l
+ a0
end
if n = 1 then
Stop
end
τ01 = 1
Algorithm 2: Algoritmo Modificado de Chebyshev (Inicio)

Algoritmo Modificado de Chebyshev.


Dado n ≥ 1, calcular los coeficientes {βjk }0≤j≤k en (2.90) para k = 0, 1, . . . , n − 1, usando
los coeficientes de recursión aj , bj , 0 ≤ j ≤ 2n − 2 para los polinomios {Lk } y los momentos
(0) (i)
modificados mj , 0 ≤ j ≤ 2n − 1, y mj , 0 ≤ j ≤ 2n − 2 (si n ≥ 2), i = 1, 2, . . . , d.
Notación: τjk = 0 si j ≥ k, o j < 0.
Métodos numéricos para ortogonalidad de Sobolev 43
Métodos numéricos para ortogonalidad de Sobolev 44

for k = 1 to 2n − 3 do
for j = 0 to k do
τjk+1 = τj−1
k
+ τj+1k
bj+1 + τjk (aj − ak ) − bk τjk−1 + δj,k
end
end
for i = 1 to d do
for u = 0 to i do
for v = 0 to i do
for k = 0 to 2n − 2 do
if u = 0 then
if v = 0 then
(u,v)
µ0,k,i = mik
else
(u,v) k (0,v−1)
µ0,k,i = k−1
P
j=v−1 τj µ0,j,i
end
else
(u,v)
µ0,k,i = 0
end
end
end
end
end
for k = 1 to n − 1 do
for l = k, k + 1, . . . , 2n − k − 1 do
σk,l =
Pd  (i−1,i) (i,i−1)
 P
σk−1,l+1 + al σk−1,l + bl σk−1,l−1 + i=1 i µk−1,l,i − µk−1,l,i − k−1 k−1
j=0 βj σk−1−j,l
end
σ σk−1,k
β0k = σk,k+1
k,k
+ ak − σk−1,k−1
for j = k − 1, k − 2, . . . , 1 (if k ≥ 2) do
k σ σ σj,k−1 σj−1,k Pk−1 l σl,k
βk−j = j,k+1
σj,j
+ ak σj,kj,j
+ b k σ j,j
− σj−1,j−1
− l=j βl−j σl,l
end
σ σ σ l σl,k
βkk = σ0,k+1 − k−1
P
0,0
+ ak σ0,k0,0
+ bk 0,k−1σ0,0 l=0 βl σl,l
end
if k < n − 1 then
for i = 1 to d do
for u = 0, 1, . . . , i do
for v = 0, 1, . . . , i do
for l = k, k + 1, . . . , 2n − k − 2 do
(u,v) (u,v) (u,v) (u,v) (u−1,v) (u,v−1)
µk,l,i = µk−1,l+1,i + al µk−1,l,i + bl µk−1,l−1,i + uµk−1,l,i − vµk−1,l,i −
Pk−1−u k−1 (u,v)
j=0 βj µk−1−j,l,i
end
end
end
end
end
Métodos numéricos para ortogonalidad de Sobolev 45

2.5. El algoritmo de Stieltjes.


El algoritmo de Chebyshev expuesto en la sección 2.4 tiene la complicación de que nos obliga
a emplear sólo operaciones racionales a los datos de entrada. Además los coeficientes βjk son
calculados en su totalidad usando operaciones racionales, en términos de la información dada
por los momentos de las medidas dµ0 , dµ1 , y en términos de ciertos coeficientes de recursión.
En vista de que en los últimos años se han desarrollado varios métodos constructivos y software
para polinomios ortogonales, el algoritmo de Stieltjes consiste usar estos métodos, en especial
fórmulas de cuadratura Gaussiana, para calcular los coeficientes βjk de una manera más simple
aunque más costosa computacionalmente que el algoritmo de Chebyshev.
Por simplicidad consideramos el caso d = 1, y usando la ortogonalidad de los polinomios
Pk (x), expresamos el coeficiente −βjk en (2.90) como los coeficientes de Fourier-Sobolev de
Pk+1 (x) − xPk (x), es decir
hxPk , Pk−j i1
βjk = , j = 0, 1, . . . , k (2.112)
kPk−j k21
y calcular los productos internos del numerador y denominador usando fórmulas de cuadratura
Gaussianas (u otro tipo apropiado de cuadratura). Especı́ficamente, asumimos que cada medida
dµ0 , dµ1 tiene una parte absolutamente continua y una parte discreta de la siguiente manera:
r(i)
X
dµi (x) = dµac
i (x) + yρ(i) δ(x − x(i)
ρ )dx, yρ(i) > 0, x(i)
ρ ∈ R, i = 0, 1. (2.113)
ρ=1

Donde r(i) son enteros no negativos; si r(i) = 0, entonces dµi no tiene componente discreta.
Si hacemos la restricción k < n, entonces ambos productos internos de (2.112) involucran
polinomios de grado menor o igual a 2n − 1, y pueden ser calculados exactamente (salvo
errores de redondeo) por la fórmula de cuadratura Gaussiana de n puntos para dµac ac
0 y dµ1 .
Concretamente si p, q ∈ Pn−1
n
X r
X
hxp, qi1 = ωm ξm p(ξm )q(ξm ) + yρ ξρ p(ξρ )q(ξρ ) (2.114)
m=1 ρ=1
n r0
X X
0 0 0 0 0
+ ωm [ξm p (ξm ) + p(ξm )]q 0 (ξm
0
) + yρ0 [x0ρ p0 (x0ρ ) + p(x0ρ )]q 0 (x0ρ ),(2.115)
m=1 ρ=1

0 0
y similarmente para hp, qi1 , donde ξm , ωm respectivamente ξm , ωm son los nodos y pesos
de la fórmula de cuadratura de Gauss de n puntos para dµ0 respectivamente dµac
ac
1 ; y en
(0) (1) 0 (0)
donde hemos escrito por simplicidad r = r, r = r , xρ = xρ , etc. Por otro lado, los
polinomios que intervienen en (2.112), son calculados sucesivamente con la ayuda de la fórmula
de recurrencia (2.90), que contiene a los coeficientes βjk ya calculados. Este es precisamente
el análogo del algoritmo para el cálculo de polinomios ortogonales del caso estándar atribuido
a Stieltjes. En el contexto de los polinomios de Sobolev, lo seguiremos llamando de la misma
manera.
Métodos numéricos para ortogonalidad de Sobolev 46

Para obtener los valores de inicio del algoritmo tenemos en cuenta que

hxP0 , P0 i1 hx, 1idµ0


β00 = 2
= = α0 (dµ0 ). (2.116)
kP0 k1 h1, 1idµ0

Los nodos y coeficientes de la fórmula de cuadratura Gaussiana para dµac i , se calculan


como los autovalores de la matriz tridiagonal simétrica de Jacobi Jn×n , cuyos elementos de la
(i) (i)
diagonal
q qprincipal son α0 , α1 , . . ., y los elementos de las diagonales inferior y superior son
(i) (i) (i) (i) (i) (i)
β1 , β2 , . . ., donde αk = αk (dµi ) y βk = βk (dµi ) son los coeficientes de la relación
de recurrencia
(i) (i)
pk+1 (x) = (x − αk )pk (x) − βk pk−1 (x), k = 0, 1, 2 . . . ,
p−1 (x) = 0, p0 (x) = 1,

de los polinomios ortogonales mónicos pk (·) = pk (·; dµac ac


i ), asociados con la medida dµi ), i =
0, 1, para más detalles ver [31].

Algoritmo modificado de Stieltjes


Objetivo: Dado n ≥ 1, calcular los coeficientes {βjk } de (2.90) para k = 0, 1, . . . , n − 1,
(i)
usando las fórmulas de cuadratura Gaussiana de n puntos para obtener los nodos {ξm }nm=1 y
Métodos numéricos para ortogonalidad de Sobolev 47

(i)
coeficientes {ωm }nm=1 , donde dµi , i = 0, 1.
(0)
0 (1)
Notación: ξm = ξm , ξm = ξm , etc
Inicio:
for m = 1 to n do
0
P0 (ξm ) = P0 (ξm )=1
0 0 0
P0 (ξm ) = P0 (ξm ) = 0
end
β00 = α0 (dµ0 )
if n = 1 then
Stop
end
begin
for k = 1 to n − 1 do
for j = 0 to k do
for i = 0, 1 do
for m = 1 to n do
(i) (i) (i) (i)
Pk (ξm ) = ξm Pk−1 (ξm ) − k−1 k−1
P
l=0 βl Pk−1−l (ξm )
(i) (i) (i) 0 (i) (i)
Pk0 (ξm ) = Pk−1 (ξm ) + ξm Pk−1 (ξm ) − k−1 k−1 0
P
l=0 βl Pk−1−l (ξm )
end
end
num = nr=1 ωm ξm Pk−j (ξm ) + ωm 0 0
Pk0 (ξm
0 0 0 0
P 
[ξm ) + Pk (ξm )] Pk−j (ξm )
den = nr=1 ωm [Pk−j (ξm )]2 + ωm 0 0 0
P 
[Pk−j (ξm )]2
βjk = num/den
end
end
end
Algorithm 4: Algoritmo Modificado de Stieltjes
3 Matrices de Hankel–Sobolev

No obstante a las notaciones y conceptos introducidos previamente en esta memoria (en


especial en la sección 1.4), por la importancia de este capı́tulo, nosotros introduciremos nue-
vamente.

3.1. Momentos de Sobolev


Sea {µk }dk=0 , con d ∈ N fijo, un conjunto de d + 1 medidas positivas, tal que para cada k
Supp (µk ) ⊂ ∆k ⊂ R , k = 0, 1, . . . , d .
Por h·, ·ik denotaremos el producto interior usual en el espacio de Hilbert L2 (µk ), es decir:
Z
hf, gik := f (x)g(x)dµk (x) , k = 0, 1, . . . , d.
∆k

Los momentos de orden l asociados a cada una de las medidas µk , se denotan por mk,l ,
donde: Z
mk,l := xl dµk (x) , k = 0, 1, . . . , d y l = 0, 1, 2, . . . , (3.1)
∆k

mientras que Mk := (mk,l ) denotará la matriz infinita de momentos asociada a las medidas
µk , k = 0, 1 , . . . , d. Como es bien conocido, para cada k (k = 0, 1, . . . , d) la matriz Mk
es una matriz de Hankel infinita y cada una de sus secciones principales de orden n, que
denotaremos Mk,n , es una matriz de Hankel de orden n.
Dado el conjunto de medidas {µk }dk=0 , µd 6= 0, llamaremos producto interior de Sobolev,
h·, ·iS , sobre el espacio P de todos los polinomios, a
Xd Xd Z
(k) (k)
hf, giS := hf , g ik = f (k) (x)g (k) (x)dµk (x) , (3.2)
k=0 k=0 ∆k

donde f (k) es la derivada k-ésima del polinomio f . Además, llamaremos momentos de Sobolev,
o en forma abreviada S-Momentos a los números:
si,j := hxi , xj iS , i, j = 0, 1, . . . . (3.3)

48
Matrices de Hankel–Sobolev 49

Denotemos por M = (si,j ) la matriz infinita cuyo elemento en la posición (i, j) es el


momento de Sobolev si,j ; en virtud de (3.2)–(3.3) es claro que M es simétrica. Si d = 0, M
coincide con la matriz de momentos o de Hankel M0 asociada a la medida µ0 . En general,
M = (si,j ) no es una matriz de Hankel como muestra el siguiente ejemplo.
Z 1 Z 1
Ejemplo 3.1.1. Sea hf, giS := f (x)g(x)dx + f 0 (x)g 0 (x)dx, luego
0 0

1 ij
si,j = hxi , xj iS = +
i+j+1 i+j−1
1 (i − 1)(j + 1)
si−1,j+1 = hxi−1 , xj+1 iS = +
i+j+1 i+j−1
j−i+1
si,j − si−1,j+1 =
i+j−1
Notemos que si,j = si−1,j+1 si y solo si i = j + 1, es decir solo si si,j está en la diagonal
inferior a la diagonal principal de la matriz. En otras palabras M = (si,j ) no es una matriz de
Hankel.

Nuestro primer objetivo será describir la estructura de la matriz M = (si,j ). Comencemos


entonces por establecer nexos entre los momentos asociados a cada una de las medidas µk
(3.1) y los momentos de Sobolev (3.3). Usando (3.2) puede verse que:

d δ Z
X
i (k) j (k)
X i! j!
si,j = h(x ) , (x ) ik = xi+j−2k dµk (x)
k=0 k=0
(i − k)! (j − k)! ∆k
δ
X i! j!
= mk,i+j−2k . (3.4)
k=0
(i − k)! (j − k)!

donde δ = mı́n{i, j, d} , i, j = 0, 1, . . . .
Considerando ahora el producto formal entre matrices infinitas, la representación matricial
de la igualdad (3.4) será:
d
X
M= Dk Mk Dk t , Md 6= 0 (3.5)
k=0

donde Mk es la matriz infinita de Hankel formada la sucesión de momentos mk,l definidos en


k ∞
(3.1), Dk = ci,j i,j=0 , Dk t es la transpuesta de Dk y para k = 0, . . . , d



i!
si i − j = k .

cki,j = (i − k)! (3.6)
 0 en cualquier otro caso.
Matrices de Hankel–Sobolev 50

Ası́, por ejemplo:


     
1 0 0 0 ··· 0 0 0 0 ··· 0 0 0 0 ···
 0 1 0
 0 ··· 


 1 0 0 0 ··· 


 0 0 0 0 ··· 

D0 =  0 0 1
 0 ···  , D1 = 
  0 2 0 0 ···  y D2 = 
  2 0 0 0 ··· .

 0 0 0 1 ···   0 0 3 0 ···   0 6 0 0 ··· 
.. .. .. .. .. .. .. .. .. .. .. ..
     
.. .. ..
. . . . . . . . . . . . . . .

3.2. Unicidad de la descomposición.


La descomposición (3.5) es fundamental para nuestro propósito. Por ello en lo que sigue
estudiaremos la unicidad de dicha descomposición y las condiciones que debe cumplir una
matriz infinita M (no necesariamente de momentos) para que exista una familia de matrices
de Hankel {Mk : k = 0, 1, . . . , d} tal que se cumpla (3.5). Los aspectos que se tratarán
son puramente algebraicos y por ello temporalmente no impondremos la condición de que las
matrices Mk sean matrices de momentos. En primer lugar analizaremos la consistencia de la
mencionada descomposición, es decir su unicidad.

Teorema 3.2.1 (unicidad de la descomposición (3.5)). Sean M = (si,j ) una matriz infinita
y Mk , k = 0, 1, . . . , d , matrices infinitas de Hankel tales que (3.5) se cumple y Md 6= 0.
Entonces dicha descomposición es única.

Demostración. Supongamos que M f0 , M f0 son d + 1 matrices infinitas de Hankel


f1 , . . . , M
d
con respecto a las cuales también se cumple (3.5), M0d 6= 0. Probaremos que:

d = d0 y Mk = M
fk , k = 0, . . . , d .

Supongamos sin pérdida de generalidad que d ≤ d0 (si d ≥ d0 la demostración se obtiene con


los mismos argumentos). Si d < d0 , completemos la familia de matrices M fk con matrices
0
nulas para k = d + 1, · · · , d.
Nótese que para cualquier matriz A, los elementos correspondientes a las primeras k filas
y las primeras k columnas de Dk ADk t , k = 1, . . . , d , son todos ceros. Luego como:
d
X d
X
t t f0 D0 t + fk Dk t
M = D0 M0 D0 + Dk Mk Dk = D0 M Dk M (3.7)
k=1 k=1
y
M0 = D0 M0 D0 t , Mf0 = D0 M f0 D0 t

se sigue que la primera fila de M0 y la de M


f0 coinciden con la primera fila de M. Como M0
yM f0 son matrices de Hankel obtenemos que M0 = M f0 .
De aquı́ y de (3.7), tendremos:
d
X d
X
M − D0 M0 D0 t = D1 M1 D1 t + Dk Mk Dk t = D1 M
f1 D1 t + fk Dk t .
Dk M
k=2 k=2
Matrices de Hankel–Sobolev 51

Los elementos de la segunda fila de


d
X d
X
t fk Dk t
Dk Mk Dk y Dk M
k=2 k=2

son todos iguales a cero; por consiguiente, las segundas filas de D1 M1 D1 t y D1 M f1 D1 t coin-
ciden con la segunda fila de M − D0 M0 D0 t . Identificando los elementos por la operación
de matrices indicada, se sigue que las primeras filas de M1 y M f1 son idénticas. Como estas
matrices son de Hankel, entonces coinciden totalmente. Repitiendo los mismos argumentos
obtenemos que Mk = M fk , k = 0, . . . , d . Es claro entonces que d < d0 no es posible pues
Md 6= 0 = M fd . Luego d = d0 y consecuentemente Mk = M fk , k = 0, . . . , d , con lo que
queda demostrado el teorema.

3.3. Caracterización de la descomposición


En el próximo resultado, se obtienen las condiciones bajo las cuales una matriz infinita M
verifica (3.5).
Teorema 3.3.1. Sea M = (si,j )∞ i,j=0 una matriz infinita real. Una condición necesaria y su-
ficiente para que existan matrices infinitas de Hankel M0 , M1 , . . . , Md que cumplan la
descomposición (3.5) es que:
Pd 
si,j = k=0 αk (i, j)sk,i+j−k , ∀i, j ∈ N , i, j > d, (3.8)
si,j = sj,i , ∀i, j = 0, 1, . . . ,

donde
(−1)d−k (i + j − 2k) (i + j − k − d − 1)! i! j!
αk (i, j) := (3.9)
k! (d − k)! (i − k) (j − k) (i + j − k)! (i − d − 1)! (j − d − 1)!
Antes de demostrar el teorema anterior, necesitaremos de algunos lemas previos sobre
números combinatorios. Por ello, los ı́ndices y variables que intervienen han sido tomados del
teorema, pero la validez de los resultados no depende de cualquier interpretación de los mismos
que se haya hecho de dichos ı́ndices o variables con anterioridad.
Lema 3.1. Para todo i, j ∈ N se cumple que:
i
X (−1)k−ν (i + j − ν − k − 1)!
= 0 , ν = 0, 1, . . . , i − 1 , j ≥ i . (3.10)
k=ν
(k − ν)! (i − k)!(j − k)!

Demostración. Consideremos el polinomio


 j−ν
i−ν−1 i+j−2ν−1 z
p(z) := (1 + z) = (1 + z) 1− .
1+z
Matrices de Hankel–Sobolev 52

Teniendo en cuenta la fórmula de los coeficiente binomiales, p(z) puede expresarse como:
j−ν  
n j −ν
X
p(z) = (−1) z n (1 + z)i+j−2ν−n−1
n=0
n
j−ν   i+j−2ν−n−1  
n j −ν i + j − 2ν − n − 1 m+n
X X
= (−1) z .
n=0
n m=0
m

Ya que deg (p(z)) = i − ν − 1, el coeficiente correspondiente a z i−ν en la expresión anterior


es igual a cero, es decir:
i−ν   
X
n j−ν i + j − 2ν − n − 1
0= (−1) .
n=0
n i−ν−n

Tomando n = k − ν se obtiene (3.10), con lo que queda demostrado el lema.

La identidad que sigue a continuación será utilizada posteriormente en varias ocasiones. A


pesar de lo confusa que puede parecer en su formulación, por el exceso de ı́ndices que inter-
vienen en la misma, su demostración es atractiva. En ella intervienen las funciones especiales
Gamma (Γ(x)) y Beta (β(a, b)), (ver [82], Capı́tulo 2, páginas 8-19) por lo que es conveniente
recordar que:

Z ∞
Γ(x) := e−t tx−1 dt , para x > 0, (3.11)
0
Z 1
β(a, b) := ta−1 (1 − t)b−1 dt , para 0 < a, b . (3.12)
0

Y se cumple que

Γ(x + 1) = x Γ(x) , (3.13)


Γ(n) = (n − 1)! para n ∈ N, (3.14)
Γ(a) Γ(b)
β(a, b) = . (3.15)
Γ(a + b)

Como se dijo anteriormente el siguiente lema es fundamental para el trabajo posterior.


Lema 3.2. Sea d ∈ Z+ fijo. Para todo i, j, ν ∈ Z+ tales que i, j > d y 0 ≤ ν ≤ d se cumple
que:
d
X (−1)d−k i + j − 2k (i + j − k − d − 1)! (i − d − 1)! (j − d − 1)!
= .
k=ν
(k − ν)!(d − k)! (i − k)(j − k) (i + j − k − ν)! (i − ν)! (j − ν)!
Matrices de Hankel–Sobolev 53

Demostración. Primeramente, probemos que la identidad del Lema 3.2 se cumple para ν = 0;
es decir:
d
(−1)d−k
 
X 1 1 (i + j − k − d − 1)! (i − d − 1)! (j − d − 1)!
+ = . (3.16)
k=0
k! (d − k)! i − k j − k (i + j − k)! i! j!

Denotemos
d
X (−1)d−k 1 (i + j − k − d − 1)!
ri (i + j, d) := .
k=0
k!(d − k)! i − k (i + j − k)!
De (3.14) y (3.15) tendremos que:
d
(−1)d−k d Γ(i − k + j − d)Γ(d + 1)
 
1 X
ri (i + j, d) =
Γ2 (d + 1) k=0 i − k k Γ(i − k + j + 1)
d  
1 X
d−k d 1
= (−1) β(i − k + j − d, d + 1) .
Γ2 (d + 1) k=0 k i−k

Usando ahora (3.12), llegamos a que:


d   Z 1 i−k
1 X
d−k d x
ri (i + j, d) = 2
(−1) xj−d−1 (1 − x)d dx
Γ (d + 1) k=0 k 0 i−k
d  Z 1 Z x 
1 X
d−k d j−d−1 d i−k−1
= (−1) x (1 − x) t dt dx
Γ2 (d + 1) k=0 k 0 0
Z 1 "Z d
! #
x  
1 X d d−k
= 2
xj−d−1 (1 − x)d ti−d−1 (−1)d−k t dt dx
Γ (d + 1) 0 0 k=0
k
Z 1 Z x 
1 j−d−1 d i−d−1 d
= x (1 − x) t (1 − t) dt dx . (3.17)
Γ2 (d + 1) 0 0

Análogamente,
Z 1 Z t 
1 i−d−1 d j−d−1 d
rj (i + j, d) = 2 t (1 − t) x (1 − x) dx dt . (3.18)
Γ (d + 1) 0 0

Entonces, las fórmulas (3.17) y (3.18) (después de intercambiar las integrales en (3.18))
nos permiten escribir el lado izquierdo de la identidad del Lema 3.16 como:
Matrices de Hankel–Sobolev 54

Z 1 Z x
1 j−d−1 d
ri (i + j, d) + rj (i + j, d) = 2
x (1 − x) ti−d−1 (1 − t)d dtdx +
Γ (d + 1) 0 0
Z 1 Z 1 
j−d−1 d i−d−1 d
+ x (1 − x) t (1 − t) dtdx
0 x
Z 1  Z 1 
1 j−d−1 d i−d−1 d
= x (1 − x) t (1 − t)
Γ2 (d + 1) 0 0
1
= 2
β(j − d, d + 1)β(i − d, d + 1)
Γ (d + 1)
Γ(j − d)Γ(i − d)
= ,
Γ(j + 1)Γ(i + 1)

lo que prueba la identidad del Lema 3.2 para ν = 0.


Sea ahora ν ∈ {1, 2, . . . , d}, el cambio k = k + ν , d = d + ν , i = i + ν , j = j + ν
permite reducir el lado izquierdo de la expresión del Lema 3.2 al caso ya estudiado. Es decir,
el lado izquierdo de la expresión del Lema 3.2 es igual a:
d
X (−1)d−k i + j − 2k (i + j − k − d − 1)! (i − d − 1)!(j − d − 1)!
= (3.19)
k!(d − k)! (i − k)(j − k) (i + j − k)! i!j!
k=0

con i , j > d, lo que es equivalente a la expresión de la derecha en la identidad del Lema 3.2
y con ello concluye la demostración.

Demostración del Teorema 3.3.1. Primeramente probaremos que la condición (3.8) es nece-
saria. Como las matrices de Hankel M0 , M1 , . . . , Md son simétricas, de (3.5) tendremos que
M es una matriz simétrica y la segunda parte de (3.8) se cumple. Además, si (3.5) se cumple
con Mk = mki,j , i, j = 0, 1, . . . , para cada k = 0, 1, . . . , d , entonces como Mk es una
matriz de Hankel existe una sucesión de números {mk,p } , p = 0, 1, . . . , tal que mki,j = mk,p
cuando i + j = p. Por la definición de los números mk,p , se tiene en virtud de (3.5) que (3.4)
se cumple para todo si,j . En particular, para cada k = 0, 1, . . . , d fijo y i, j ≥ d,
k
X k! (i + j − k)!
sk,i+j−k = mν,i+j−2ν . (3.20)
ν=0
(k − ν)! (i + j − k − ν)!

Además, de (3.4), el Lema 3.2 y (3.9), para i, j > d obtenemos:


Matrices de Hankel–Sobolev 55

d
X i! j!
si,j = mν,i+j−2ν
ν=0
(i − ν)! (j − ν)!
d  
X i! j! (i − d − 1)!(j − d − 1)!
= mν,i+j−2ν
ν=0
(i − d − 1)! (j − d − 1)! (i − ν)!(j − ν)!
d
X i! j!
= mν,i+j−2ν
ν=0
(i − d − 1)! (j − d − 1)!
" d #
X (−i)d−k i + j − 2k (i + j − k − d − 1)!
.
k=ν
(k − ν)!(d − k)! (i − k)(j − k) (i + j − k − ν)!
d
X i! j! (−1)d−k i + j − 2k (i + j − k − d − 1)!
=
k=0
(i − d − 1)! (j − d − 1)! (d − k)! (i − k)(j − k) k!(i + j − k)!
" k
#
X k! (i + j − k)!
. mν,i+j−2ν .
ν=0
(k − ν)! (i + j − k − ν)!

Entonces, teniendo en cuenta la definición (3.9) de αk tenemos


d k
X X k! (i + j − k)!
si,j = αk (i, j) mν,i+j−2ν , i, j > d .
k=0 ν=0
(k − ν)! (i + j − k − ν)!

Usando (3.20) llegamos a (3.8).


Ahora, demostraremos
 que la condición (3.8) es suficiente. Definamos las matrices de
Hankel Mk = mkl,n para k = 0, 1, . . . , d , donde mkl,n = mk,j si l + n = j y mk,j se define
como:
k
X (−1)k−ν (j + 2k − 2ν)(j + k − ν − 1)!
mk,j := sν,j+2k−ν . (3.21)
ν=0
ν!(k − ν)! (j + 2k − ν)!
Nuestro propósito es probar que (3.8) se cumple, para ello tomemos:
d
X
M
f= Dk Mk Dk t . (3.22)
k=0

Si M
f = (e
si,j ), de (3.22) obtenemos
δ
X i! j!
sei,j = mk,i+j−2k , i, j = 0, 1, . . . , (3.23)
k=0
(i − k)! (j − k)!
Matrices de Hankel–Sobolev 56

donde δ = mı́n{i, j, d}. Usando la expresión para mk,i+j−2k dada en (3.21) y sustituyendo en
(3.22), encontramos que
δ k
X (−1)k−ν (i + j − 2ν)(i + j − k − ν − 1)!
X i! j!
sei,j = sν,i+j−ν
k=0
(i − k)! (j − k)! ν=0 ν!(k − ν)! (i + j − ν)!
δ δ
X i!j!(i + j − 2ν) X (−1)k−ν (i + j − k − ν − 1)!
= sν,i+j−ν .
ν=0
ν!(i + j − ν)! k=ν (k − ν)! (i − k)!(j − k)!
(3.24)

Ahora debemos probar que sei,j = si,j , i, j = 0, 1, . . . . Como M es una matriz simétrica
(ver (3.8)) es suficiente suponer que i ≤ j. Primeramente, si i ≤ d tenemos δ = i y
i−1 i
X i!j!(i + j − 2ν) X (−1)k−ν (i + j − k − ν − 1)!
sei,j = si,j + sν,i+j−ν .
ν=0
ν!(i + j − ν)! k=ν
(k − ν)! (i − k)!(j − k)!

En virtud de (3.10) en el Lema 3.1, obtenemos

sei,j = si,j . (3.25)

Por el contrario, si d < i de (3.8) y (3.23), ya que sek,i+j−k = sk,i+j−k para k ≤ d (ver (3.25)),
se tiene:
d
X
si,j = αk (i, j)e
sk,i+j−k =
k=0
d k
X X k!(i + j − k)!
= αk (i, j) mν,i+j−2ν
k=0 ν=0
(k − ν)!(i + j − k − ν)!
d d
!
X X k!(i + j − k)!
= αk (i, j) mν,i+j−2ν
ν=0 k=ν
(k − ν)!(i + j − k − ν)!
d
X i! j!
=
ν=0
(i − d − 1)! (j − d − 1)!
d
!
X (−1)d−k i + j − 2k (i + j − k − d − 1)!
. mν,i+j−2ν .
k=ν
(d − k)! (i − k)(j − k) (i + j − k − ν)!(k − ν)!

Ası́, del Lema 3.2 obtenemos


d
X i! j!
si,j = mν,i+j−2ν ,
ν=0
(i − ν)! (j − ν)!

que es sei,j por (3.23).


Matrices de Hankel–Sobolev 57

3.4. Matrices de Hankel-Sobolev

Notemos que si M es una matriz infinita (no necesariamente de momentos), para la que
es posible encontrar una descomposición del tipo (3.5) en término de d + 1 matrices de Hankel
(M0 , . . . , Md ), entonces: dicha descomposición es única (Teorema 3.2.1) y M es una matriz
simétrica con elementos reales. En el caso d = 0, obviamente esta afirmación es trivial y M
es de Hankel. Además, aplicando el Lema 3.2 para ν = 0 puede verse que:
d
X
αk (i, j) = 1
k=0

para cada par de ı́ndices (i, j). Es decir, por el Teorema 3.3.1 conocemos que es posible escribir
cada elemento si,j de una antidiagonal como la combinación lineal (3.8) de los primeros d + 1
elementos en esa antidiagonal, s0,i+j , s1,i+j−1 , . . . , sd,i+j−d . En otras palabras, estas matrices
generalizan el concepto de matriz de Hankel y en concordancia introducimos el siguiente
concepto:

Definición 3.1. Llamaremos matriz de Hankel-Sobolev a toda matriz simétrica infinita real
cuyos elementos {si,j } satisfacen las relaciones (3.8)-(3.9).

Luego, el Teorema 3.3.1 da una caracterización de las matrices de Hankel-Sobolev. El


siguiente resultado es una consecuencia de la demostración de la suficiencia del Teorema 3.3.1
y del Teorema 3.2.1.
Corolario 3.4.1. Supongamos que M = (si,j ) admite una descomposición de la forma (3.5),
entonces para cada k = 0, . . . , d, la sucesión {mk,j } , j = 0, 1, . . . , que determina la matriz
de Hankel Mk = mkl,n donde mkl,n = mk,j , si l + n = j está dada para M0 , . . . , Md por la
fórmula
k
X (−1)k−ν (j + 2k − 2ν)(j + k − ν − 1)!
mk,j := sν,j+2k−ν . (3.26)
ν=0
ν!(k − ν)! (j + 2k − ν)!

Demostración. En efecto, si existen matrices (M0 , . . . , Md ) tales que M tiene una descom-
posición de tipo (3.5), entonces (3.8) se cumple. En este caso, en la demostración del Teorema

3.3.1, se probó que M también satisface (3.5) para M f0 , . . . , M fk = mk y
fd , donde M
l,n

k
X (−1)k−ν (j + 2k − 2ν)(j + k − ν − 1)!
mkl,n = mk,j = sν,j+2k−ν , si m + n = j .
ν=0
ν!(k − ν)! (j + 2k − ν)!

Pero de acuerdo al Teorema 3.2.1 la descomposición de M en la forma (3.5) es única,


ası́ Mk = M
fk y los elementos de Mk están dados por la fórmula (3.21), es decir (3.26).
Matrices de Hankel–Sobolev 58

Sea h·, ·iS un producto interior de Sobolev como (3.2) y denotemos por Mn la n-ésima
sección principal de la matriz M formada por los S-momentos
Sd (3.3).
De la definición de producto de Sobolev y como i=0 Supp (µi ) contiene una cantidad
infinita de puntos, es obvio que h· , ·iS define una forma cuadrática real definida positiva sobre
el espacio de todos los polinomios de grado menor o igual a n − 1. Luego su representación
matricial, Mn , en la base {1, x, . . . , xn−1 } es una matriz real definida positiva. En particular,
por el Teorema de Sylvester, para cada n ∈ N, tendremos que Det[Mn ] > 0 (aquı́ y en lo
sucesivo Det[W] denota el determinante de la matriz W). De lo anterior se deduce una de
las propiedades más significativas de las matrices de Hankel-Sobolev:
Teorema 3.4.1. Dada una matriz infinita de Hankel-Sobolev M, para cada sección principal
de orden n, Mn , existe una única factorización de Cholesky:

Mn = Tn Tnt , (3.27)

donde Tn es una matriz triangular inferior.


Es fácil ver que la sección n de Tn+1 es Tn . Luego podemos construir una matriz triangular
infinita T  
t0,0
 t1,0 t1,1 
 . .
.. . . .

T =  .. , (3.28)
 
 ti,0 ti,1 · · · ti,i
 

.. .. ..
. . .
ti,j ∈ R , i, j = 0, 1, . . . y ti,i > 0 , i = 0, 1, . . . , cuya sección principal n-ésima es Tn .
El siguiente resultado es importante, porque nos permite obtener los coeficientes de los
polinomios ortogonales de Sobolev resolviendo un sistema lineal de ecuaciones donde la matriz
asociada es triangular inferior:
Teorema 3.4.2. Para cada n = 1, 2, . . . se tiene que:
   
q0 (z) 1
 q1 (z)   z 
Tn   =  ..  , para todo z ∈ C (3.29)
   
..
 .   . 
qn−1 (z) z n−1

m
X
m
Demostración. Sea z = βmk qk (z) , m = 0, 1, . . . . Nótese que βm,m > 0 , para todo
k=0
m = 0, 1, . . . . Entonces
j
i X
X
i j
si,j = hz , z iS = βik βjr hqk , qr iS
k=0 r=0
Matrices de Hankel–Sobolev 59

donde hqk , qr iS = δk,r , k, r = 0, 1, . . . . Ası́


mı́n{i,j}
X
si,j = βik βjk .
k=0

Por otra parte, de (3.27) y (3.28) obtenemos que:


mı́n{i,j}
X
si,j = ti,k tj,k .
k=0

Ası́, por la unicidad de la factorización de Cholesky (3.27), tendremos que βik = ti,k , i, k =
0, 1, . . . . Es decir,
Xi
i
z = ti,k qk (z) , i = 0, 1, . . . ,
k=0

lo que es equivalente a (3.29).


Corolario 3.4.2. Los coeficientes a0 , a1 , . . . , ak del polinomio ortonormal de Sobolev de grado
k, qk (z) = a0 + a1 z + · · · + ak z k con 0 ≤ k ≤ n − 1, se pueden calcular resolviendo el siguiente
sistema de ecuaciones lineales:
Tnt y = ek , (3.30)
donde y = (a0 , a1 , . . . , ak )t y ek es el k-ésimo vector canónico etk = (0, . . . , 1, . . . , 0)t ∈ Rn .

Demostración. Denotamos a la inversa de la matriz triangular Tn mediante


 
t̂0,0 0 0 ··· 0
 t̂1,0
 t̂1,1 0 ··· 0 

−1  .. . . . . .
.
Tn =  . , (3.31)

. . .
 
 t̂n−2,0 t̂n−2,1 t̂n−2,2 · · · 0 
t̂n−1,0 t̂n−1,1 t̂n−1,2 · · · t̂n−1,n−1

por el teorema 3.4.2 tenemos


   
q0 (z) 1
 q1 (z)   z 
−1 
 = Tn  ..  , para todo z ∈ C (3.32)
  
 ..
 .   . 
qn−1 (z) z n−1
 
t̂0,0
 t̂1,0 + t̂1,1 z 
 
2
=  t̂2,0 + t̂2,1 z + t̂2,2 z , (3.33)
 
 .. 
 . 
t̂n−1,0 + t̂n−1,1 z + t̂n−1,2 z 2 + · · · + t̂n−1,n−1 z n−1
Matrices de Hankel–Sobolev 60

es decir las filas de la matriz Tn−1 son los coeficientes de los polinomios q0 (z), q1 (z), . . . , qn−1 (z).
−1 t
Teniendo en cuenta que (Tnt ) = (Tn−1 ) y la ecuación (3.30) nos queda
−1
y = Tnt ek (3.34)
t
= Tn−1 ek

(3.35)
t̂0,0 t̂1,0 t̂2,0 · · · t̂n−1,0
 
 0 t̂1,1 t̂2,1 · · · t̂n−1,1 
.
 
=  0 0 t̂2,2 . . t̂n−1,2  ek (3.36)
 
 . . . . .
 .. .. .. .. ..


0 0 0 · · · t̂n−1,n−1
 
t̂k,0
 t̂k,1 
 
 .. 
=  .  , con 0 ≤ k ≤ n − 1 (3.37)
 
 t̂k,k−1 
t̂k,k

De esta manera y = (t̂k,0 , t̂k,1 , · · · , t̂k,k )t = (a0 , a1 , . . . , ak )t es el vector que contiene los
coeficientes del polinomio qk (z) = a0 + a1 z + · · · + ak z k con 0 ≤ k ≤ n − 1.

3.5. Fórmula de recurrencia


En vista de que la matriz Mn es definida positiva, podemos garantizar la existencia de
una solución única, (an,0 , an,1 , . . . , an,n−1 ) , para el sistema lineal de ecuaciones:
n−1
X
an,k hxk , xi iS = −hxn , xi iS , i = 0, 1, . . . , n − 1 .
k=0

En otras palabras existe un único polinomio mónico Qn de grado n,


n−1
X
n
Qn (x) = x + an,k xk ,
k=0

tal que
hQn , xi iS = 0 , i = 0, 1, . . . , n − 1 .
Entonces {Qn } , n = 0, 1, . . . , es la sucesión de polinomios ortogonales (mónicos) con res-
pecto al producto interior (3.2). Nótese que por ejemplo Q0 (x) = 1 y Q1 (x) = x − ss0,0 1,0
.
p
Sea kQj kS = hQj , Qj iS , j = 0, 1, . . . . Podemos entonces introducir la sucesión
{qn } , n = 0, 1, . . . , de polinomios ortonormales,

Qn (z)
qn (z) = , n = 0, 1, . . . .
kQn kS
Matrices de Hankel–Sobolev 61

1
donde claramente q0 (z) = s0,0 .
Escribamos ahora el polinomio zqn−1 (z) en la siguiente forma
n
X
zqn−1 (z) = hzqn−1 , qj iS qj (z) , n ≥ 1. (3.38)
j=0

La fórmula anterior establece una relación de recurrencia que nos permite calcular los elementos
de la sucesión de polinomios ortonormales {qn }∞ n=1 a partir de q0 .
En el caso particular d = 0, (3.38) es la conocida relación de recurrencia a tres términos
para los polinomios ortogonales usuales. Aquı́, la relación tiene una cantidad de términos que
crece con n.
Sea ahora R la matriz de Hessenberg
 
hzq0 , q0 iS hzq1 , q0 iS hzq2 , q0 iS · · ·
 hzq0 , q1 iS hzq1 , q1 iS hzq2 , q1 iS · · · 
R= (3.39)
 
 hzq 1 , q2 iS hzq 2 , q2 i S · · · 

... ... ...

y denotemos por Rm , m = 1, 2, . . ., a la m-ésima sección principal de R y por Rtm la


transpuesta de Rm . La relación (3.38) escrita en forma matricial se expresa como
(Rtm − zIm )q m (z) = −hzqm−1 , qm iS qm (z) em (3.40)
donde Im es la matriz identidad de orden m,
q m (z)t = (q0 (z), q1 (z), . . . , qm−1 (z)) y etm = (0, 0, . . . , 0, 1), em ∈ R m .
Notemos que cada cero λ ∈ C de qm es un valor propio de Rtm y q m (λ) es un vector propio
asociado al mismo, es decir
σ(Rm ) = {λ : qm (λ) = 0} , (3.41)
donde σ(Rm ) es el espectro de la matriz Rm .
Observación 3.5.1. La matriz de Hessenberg Bn de la relación de recurrencia (2.91) corres-
pondiente a los polinomios de Sobolev mónicos es equivalente a la enésima sección principal
Rn , de la matriz de Hessenberg R (3.39) correspondiente a la relación de recurrencia de los
polinomios ortonormales de Sobolev (3.38).
Sobre las propiedades de la matriz R y sus nexos con el problema de momentos de So-
bolev tratan [10, §4] [84, 85]. Nosotros aquı́ estamos interesados en la búsqueda de fórmulas
adecuadas para el cálculo de Rn .
−1
Teorema 3.5.1. Rn = Tn−1 M0n Tnt , donde M0n es la n-ésima sección principal de la matriz
infinita  
s0,1 s0,2 · · ·
M0 =  s1,1 s1,2 · · · 
 
.. .. . .
. . .
que se obtiene eliminando la primera columna de M.
Matrices de Hankel–Sobolev 62

Demostración. Si
i
X
qi (z) = κi,h z h , i = 0, 1, . . . .
h=0

De (3.29) tenemos que:


 
κ0,0
 κ1,0 κ1,1 
Tn−1 =  .
 
.. .. ..
 . . . 
κn−1,0 κn−1,1 · · · κn−1,n−1

Por consiguiente, para cualquier j ∈ {0, 1, . . .} fijo,


j
X
zqj (z) = κj,r z r+1 .
r=0

Sea n ≥ i, j. El elemento (i, j) de Rn dado por hzqj , qi i (ver (3.39)) satisface


j
i X j
i X
X X
h r+1
hqi , zqj iS = κi,h κj,r hz , z iS = κi,h κj,r sr+1,h .
h=0 r=0 h=0 r=0

t
Por tanto, hzqj , qi i es el elemento (i, j) de la matriz Tn−1 M0n Tn−1 para todo n ≥ i, j .

Como consecuencia inmediata del teorema 3.5.1 se tiene la siguiente fórmula para los ceros
de los polinomios ortogonales de Sobolev:
Corolario 3.5.1. Sea zn ∈ σ(Rn ) y wn un vector propio unitario asociado a zn . Entonces
D    E
0 t −1 t −1
zn = Mn Tn wn , Tn wn .

Demostración. En efecto, como zn ∈ σ(Rn ) y wn es un vector propio unitario asociado, se


tiene que Rn wn = zn wn con kwn k = 1. Luego
D E D    E
−1 −1 −1
zn = hRn wn , wn i = Tn −1 M0n Tnt wn , wn = M0n Tnt wn , Tnt wn .

Con esto queda demostrado el corolario.


Matrices de Hankel–Sobolev 63

3.6. Algoritmo de Hankel-Sobolev.


En esta sección planteamos un algoritmo que nos permite obtener los coeficientes del
polinomio ortonormal de Sobolev qk (z) = a0 + a1 z + · · · + ak z k con 0 ≤ k ≤ n − 1 y además
se analiza la complejidad (número de operaciones punto flotante) y la estabilidad de dicho
algoritmo.
Entrada: La matriz de momentos de Sobolev
Mn = si,j = hx(i) , x(j) iS , i, j = 0, . . . , n − 1 ..
Iteración:

Aplicar la factorización de Cholesky a la matriz Mn , para obtener

Mn = T n T n t .

Usar la conclusión del corolario 3.4.2 para escribir

Tn t y = ek

donde
y = (a0 , a1 , . . . , ak )t , y etk = (0, . . . , 1, . . . , 0)t ∈ Rn

Resolver el sistema lineal de ecuaciones anterior usando sustitución regresiva y


de esta manera obtener los coeficientes del polinomio ortonormal de Sobolev
qk (z) = a0 + a1 z + · · · + ak z k .

Algorithm 5: Algoritmo propuesto

3.7. Comparación preliminar de algoritmos


A continuación hacemos un análisis preliminar de la estabilidad y número de operaciones
del algoritmo para el cálculo de los coeficientes de los polinomios ortogonales de Sobolev
propuesto en esta memoria:

El algoritmo de Chebyshev modificado tiene un buen comportamiento cuando las medidas


involucradas están soportadas en intervalos finitos, sin embargo los resultados son menos
satisfactorios cuando el soporte de las medidas es infinito. Por otro lado, en [29] se ha
encontrado que cuando se usa medidas de Jacobi combinadas con medidas discretas
soportadas en ±c, c > 0 es decir
1 (α,β)
dλ0 (x) = ω (x)dx + γ0 [δ(x − c) + δ(x + c)]dx,
β0
dλ1 (x) = γ1 [δ(x − c) + δ(x + c)], α, β > −1, γ0 ≥ 0, γ1 ≥ 0,
R1
donde ω (α,β) es la función peso de Jacobi en [−1, 1] y β0 = −1 ω (α,β) (x)dx; la aproxi-
mación se deteriora rápidamente cuando c crece. Este comportamiento no ocurre con
Matrices de Hankel–Sobolev 64

el algoritmo de Stieltjes, el cual se mantiene estable cuando c y n crecen, aunque su


convergencia es mucho más lenta. El algoritmo propuesto en esta memoria es estable
una vez se han calculado los momentos de Sobolev, pues utiliza el método de Cholesky
y una sustitución regresiva, los cuales son algoritmos regresivamente estables.

El coste computacional del algoritmo propuesto es básicamente el coste del algoritmo


de Cholesky el cual es 31 n3 de operaciones de punto flotante. En [29] se reporta que la
complejidad de los algoritmos de Chebyshev y Stieltjes es O(n3 ) y O(n4 ) respectivamen-
te, con lo cual el algoritmo de Hankel-Sobolev es mucho más rápido que el algoritmo de
Stieltjes y tiene el mismo orden de convergencia que el algoritmo de Chebyshev.
4 Conclusiones y perspectivas

Esta tesis de master es el preámbulo para un trabajo de mayor envergadura que esperamos
conforme una tesis doctoral. En el primer capı́tulo se recoge el estado del arte de la ortogo-
nalidad respecto a productos de Sobolev con énfasis en el llamado caso continuo. El segundo
capı́tulo está dedicado a resumir los principales métodos numéricos conocidos para el cálculo
de polinomios ortogonales (caso estándar o caso Sobolev) y sus ceros.
En el capı́tulo tercero se hace un estudio detallado de la matriz de momentos de Sobolev
y su estructura (Hankel–Sobolev). Algunos de los resultados de carácter algebraico contenidos
en este capı́tulo son nuevos, en otros su demostración ha sido perfeccionada o se han enfocado
desde un punto de vista numérico y no desde el problema de momentos que fue su origen.
Como consecuencia de los problemas estudiados en el capı́tulo, en la sección 3.6 se propone un
pseudocódigo que en análisis preliminares recogidos en la sección 3.7 muestra ciertas bondades
para el cálculo de polinomios ortogonales de Sobolev.
Teniendo en cuenta los problemas abiertos de interés que se recogen el resumen sobre
ortogonalidad de Sobolev del primer capı́tulo, los métodos numéricos que se han desarrollado
hasta el momento para el cómputo de polinomios ortogonales de Sobolev y sus ceros, cuya
esencia aparece recogida en el capı́tulo dos; ası́ como la estructura especifica que posee uno de
los elementos básicos de los métodos de numéricos para polinomios ortogonales (la matriz de
momentos) que se estudia en detalle en el tercer capı́tulo de esta memoria, nos proponemos
en perspectiva estudiar los siguientes problemas:

I.- Número de condición de las matrices de Hankel–Sobolev. Una de las mayores dificultades
en el cómputo de polinomios ortogonales y sus ceros está en el mal condicionamiento de
las respectivas matrices de momentos, que en el caso estándar tienen la estructura de
matrices de Hankel (matrices simétricas donde los elementos de las antidiagonales son
constantes). Los trabajos [100, 11], realizan una estimación del número de condición
de las matrices de Hankel. En el caso de ortogonalidad Sobolev (excluyendo el caso
particular de ortogonalidad estándar, es decir, cuando en el producto de Sobolev no
aparecen derivadas) la matriz de momentos no es una matriz de Hankel. La estructura
de dichas matrices de momentos es estudiada en el capitulo 3 de esta memoria, Matrices
de Hankel-Sobolev. En tal sentido nos proponemos estudiar los siguientes problemas.

65
Conclusiones y perspectivas 66

a) Estimar el número de condición de las matrices de Hankel–Sobolev.


b) Estudiar posibles variaciones de la matriz de momentos, como por ejemplo la in-
troducción de los momentos modificados como en el capı́tulo 2, para mejorar el
condicionamiento de la matriz de momentos de Hankel–Sobolev. Esto necesitarı́a
de una extensión de los resultados contenidos en el capı́tulo 3 para momentos
modificados.

II.- Algoritmo de Hankel–Sobolev para cálculo polinomios de Sobolev. En [31, 30] se realiza
una extensión de los métodos de cómputo utilizados en la ortogonalidad estándar para
la ortogonalidad tipo Sobolev. estas implementaciones no tienen en cuenta la estructura
de matriz de momentos de la forma Hankel–Sobolev. Una alternativa serı́a la utilización
del seudocódigo contenido en la sección 3.6, que de acuerdo a el estudio preliminar que
se recoge en la sección 3.7 puede ser prometedor en comparación con los empleados en
[31, 30].

a) Estudiar en profundidad el método introducido en la sección 3.6 en términos de


estabilidad, coste computacional, orden de operaciones, etc.
b) Realizar un estudio comparativo entre las versiones computacionales de los métodos
anteriores con los datos que se poseen de [31, 30].

III.- Algoritmo para cálculo de ceros de polinomios de Sobolev. Como en [30], es más intere-
sante en términos de aplicaciones (además de conjeturar resultados teóricos), el cálculo
de los ceros de polinomios ortogonales de Sobolev que los propios polinomios. El méto-
do casi universal para alcanzarlo es el cálculo de los valores propios de la matriz de
coeficientes de la fórmula de recurrencia (3.39). Dicha matriz en el caso estándar tiene
estructura tridiagonal, pero en el caso Sobolev la estructura es de matriz de Hessenberg
general.
El teorema 3.5.1 y su corolario 3.5.1, ofrecen una alternativa al procedimiento anterior
que proponemos estudiar desde el punto de vista numérico.

VI.- Problemas análogos para el caso discreto. Los problemas enunciados anteriormente, están
fundamentalmente enfocados al caso de ortogonalidad de Sobolev continua. No obstante
sobre los momentos para el caso discreto existe un estudio realizado en [104] y dos
trabajos importantes sobre métodos numéricos [8, 9]. Estos últimos se basan en la
extensión de los métodos conocidos para la ortogonalidad estándar, conociendo que
los polinomios ortogonales de Sobolev en el caso discreto, a diferencia del continuo,
satisfacen fórmulas de recurrencia con un número finito fijo de términos.

a) Estudiar el condicionamiento de las matrices de momentos de Sobolev en el caso


discreto.
b) Utilizando la estructura de las matrices de momentos de Sobolev en el caso discreto,
introducir un nuevo método equivalente al Hankel–Sobolev de la sección 3.6.
Bibliografı́a.

[1] R. A. Adams, Sobolev Spaces, Academic Press Inc., San Diego, 1978.

[2] M. Alfaro, G. López and M.L. Rezola, Some properties of zeros of Sobolev–type ortho-
gonal polynomials, J. Comp. Appl. Math., 69 (1996), 171–179.

[3] M. Alfaro, F. Marcellán y M.L. Rezola, Orthogonal polynomials on Sobolev spaces: Old
and new directions, J. Comp. Appl. Math., 48 (1993), 113–131.

[4] P. Althammer, Eine Erweitterung des Ortogonalitdtsbegriffes bei Polynomen und deren
Anwendung auf die beste Approximation, J. Reine Angew. Math., 211 (1962), 192–204.

[5] N. I. Akhiezer, The Classical Moment Problem and Some Related Questions in Analysis,
Oliver and Boyd, Edinburgh, 1965.

[6] R. Askey, Orthogonal Polynomials and Special Functions, SIAM, NH, 1994.

[7] J. Baik, T. Kriecherbauer, K. T.-R. McLaughlin and P. D. Miller, Discrete Orthogonal


Polynomials: Asymptotics and Applications, Princeton Univ. Press., Princeton NJ, 2007.

[8] R. Barrio, B. Melendo and S. Serrano, Generation and evaluation of orthogonal polyno-
mials in discrete Sobolevspaces I: algorithms, J. Comp. Appl. Math., 181 (2005) 280–298.

[9] R. Barrio and S. Serrano, Generation and evaluation of orthogonal polynomials in discrete
Sobolevspaces II: numerical stability, J. Comp. Appl. Math., 181 (2005) 299–320.

[10] D. Barrios, G. López, and H. Pijeira, The moment problem for a Sobolev inner product,
J. Approx. Theory, 100 (1999), 364-380.

[11] B. Beckermann, The condition number of real Vandermonde, Krylov and positive definite
Hankel matrices, Numer. Math., 85 (2000), 553–577.

[12] J. Borrego and H. Pijeira, Orthogonality with respect to a Jacobi differential operator
and a fluid dynamics model, submitted to Ann. Mat. Pura Appl..

67
Conclusiones y perspectivas 68

[13] A. Branquinho, A. Foulquié, F. Marcellán, Asymptotic behavior of Sobolev-type orthogo-


nal polynomials on a rectifiable Jordan curve or arc, Constr. Approx. 18 (2002) 161–182.
[14] A. Bultheel, P. Gonzalez Vera, B. Hendriksen, O. Njastad, Orthogonal Rational Functions,
Cambridge Univ. Press, Cambridge, 1999.
[15] P.L. Chebyshev, Théorie des mécanismes connus sous le nom de parallélogrammes, Mém.
des sav. étr. prés. à lAcad. de St. Péters. 7 (1854), 539-568. [17, Vol. 1, pp. 109–143],
Read on 28. 1. 1853.
[16] E.W. Cheney, Introduction to Approximation Theory, Chelsea, 1982.
[17] T. S. Chihara, An Introduction to Orthogonal Polynomials, Gordon and Breach, NY,
1978.
[18] P. Deift, Orthogonal Polynomials and Random Matrices: a Riemann–Hilbert Approach,
Amer. Math. Soc. , Providence RI, 2000.
[19] C. Dı́az, R. Orive and H. Pijeira, Zeros and Logarithmic Asymptotics of Contracted
Sobolev Orthogonal Polynomials for Exponential Weights, J. Comp. Appl. Math., 233
(2009) 691-698.
[20] C. Dı́az, R. Orive and H. Pijeira, Asymptotically extremal polynomials with respect to
varying weights and application to Sobolev orthogonality, J. Math. Anal. Appl. 346 (2008)
480-48.
[21] A.J. Duran, A generalization of Favard’s Theorem for polynomials satisfying a recurrence
relation, J. Approx. Theory, 74 (1993), 83–109.
[22] A. Duran and E. Saff, Zero Location for Nonstandard Orthogonal Polynomials, J. Approx.
Theory, 113 (2001), 127–141.
[23] W. D. Evans, L. L. Littlejohn, F. Marcellán, C. Markett, A. Ronveaux; On recurrence
relations for Sobolev orthogonal polynomials, SIAM J. Math. Anal., 26 (1995), 446–467.
[24] H.-J Fischer, On the condition of orthogonal polynomials via modified moments, Z. Anal.
Anwendungen, 15(1), (1996), pp 223-244 .
[25] G. Freud, Orthogonal Polynomials, Pergamon Press, Oxford, 1971.
[26] A. Fundora, H. Pijeira and W. Urbina, Asymptotic Behavior of Orthogonal Polynomials
Primitives, Marg. Math. en mem. de J.J. (Chicho) Guadalupe, Serv. de Pub. Univ. de La
Rioja, (2001), 626-632.
[27] W. Gautschi, Construction of Gauss-Christoffel quadrature formulas, Math. Comp.,
22(1968), pp 432-436 .
[28] W. Gautschi, On the construction of Gauss quadrature rules from modified moments,
Math. Comp., 24(1970), pp 245-260 .
Conclusiones y perspectivas 69

[29] W. Gautschi y M. Zhang, Computing orthogonal polynomials in Sobolev spaces, Numer.


Math. 71 (1995), 159–183.

[30] W. Gautschi y A. B. J. Kuijlaars, Zeros and critical poins of Sobolev orthogonal polyno-
mials, J. Approx. Theory, 91 (1997), 117–137.

[31] W. Gautschi, Orthogonal Polynomials: Computation and Approximation, Oxford, 2004.

[32] Ya. L. Geronimus, Polynomials Orthogonal on a Circle and an Interval, Pergamon Press,
Oxford, 1960.

[33] Ya. L. Geronimus, Orthogonal Polynomials, Consultants Bureau, N. York, 1961.

[34] F.A. Grünbaum, Variations on a theme of Heine and Stieltjes: an electrostatic interpre-
tation of the zeros of certain polynomials, J. Comp. Appl. Math., 99 (1998), 189–194.

[35] F.A. Grünbaum, Electrostatics Interpretation for the Zeros of Certain Polynomials and
the Darboux Process. J. Comp. Appl. Math., 133 (2001), 397–412.

[36] L.L. Helms , Introduction to Potential Theory, Wiley–Interscience, NY, 1969.

[37] M.E.H. Ismail, Classical and quantum orthogonal polynomials in one variable, Cambridge
Univ. Press, Cambridge, 2005.

[38] D. Jackson, Fourier Series and Orthogonal Polynomials, Math. Assoc. Amer., Carus Math.
Monog. series 6, Ohio, 1948.

[39] V.A. Kaliaguine, A note on the orthogonal polynomials on a complex arc: The case of a
measure with a discrete part, J. Approx. Theory, 80 (1995) 138–145.

[40] V.A. Kaliaguine, R. Benzine, Sur la formule asymptotique des polynômes orthogonaux
associés à une mesure concentrée sur un contour plus une partie discrète finie, Bull. Soc.
Math. Belg. Ser. B 41 (1989) 29–46.

[41] E. Koelink and W. Van Assche (Eds.), Orthogonal Polynomials and Special Functions,
LNM 1817, Springer-Verlag, Berlin, Heidelberg, 2003.

[42] M. G. Krein, A. A. Nudelman, The Markov moment problem and extremal problem,
Transl. of Math. Monographs, Vol. 50, Amer. Math. Soc., Providence, RI, 1977.

[43] A. Kufner, B. Opic, How to define reasonably Weighted Sobolev Spaces. Comment. Math.
Univ. Carolin., 25 (3), (1984), 537–554.

[44] A. Kufner, Weighted Sobolev Spaces, John Wiley and Sons , Wiley-Interscience, N. York,
1985.

[45] A. Kufner, Some Applications of Weighted Sobolev Spaces, Anna-Margarete Sanding


Corp., 1987.
Conclusiones y perspectivas 70

[46] E. Levin and D. S. Lubinsky, Orthogonal Polynomials for Exponential Weights, CMS
Books in Mathematics 4, Springer-Verlag, NY, 2001.

[47] G. López, F. Marcellán y W. Van Assche, Relative asymptotics for orthogonal polynomials
with respect to a discrete Sobolev inner product, Constr. Approx., 11 (1995), 107–137.

[48] G. López, A. Martı́nez, I. Pérez and H. Pijeira, Strong Asymptotics for Sobolev Orthogonal
Polynomials, J. Math. Anal. Appl., 340 (2008), 521-535.

[49] G. López, F. Marcellán and H. Pijeira, Logarithmic asymptotic of contracted Sobolev


extremal polynomials on the real line, J. Approx. Theory, 143 (2006), 62-73.

[50] G. López, I. Pérez and H. Pijeira, Asymptotic of extremal Sobolev polynomials in the
complex plane, J. Approx. Theory, 137 (2005), 226-237.

[51] G. López, H. Pijeira and I. Pérez, Sobolev orthogonal polynomials in the complex plane,
J. Comp. Appl. Math., 127 (2001), 219-230.

[52] G. López and H. Pijeira, Zero location and n-th root asymptotics de Sobolev orthogonal
polynomials, J. Approx. Theory, 99 (1999), 30-43.

[53] G. López and H. Pijeira, Condiciones para la convergencia de los aproximantes multi-
puntuales de Padé para funciones meromorfas de tipo Markov, Rev. Ciencias Téc., Fı́s. y
Mat., ACC, 5 (1984), 75-97.

[54] G. López, H. Pijeira, Polinomios Ortogonales, Decimocuarta Escuela Venezolana de


Matemáticas, Centro de Estudios Avanzados–Instituto Venezolano de Investigaciones
Cientı́ficas, Caracas, 2001.

[55] D. S. Lubinsky, A survey of general orthogonal polynomials for weights on finite and
infinite intervals, Acta Appl. Mathe., 10 (1987), 237–296.

[56] D. S. Lubinsky, Asymptotics of Orthogonal Polynomials: Some Old, Some New, Some
Identities, Acta Appl. Mathe., 61 (2000), 207–256.

[57] F. Marcellán, A. Martı́nez–Finkelshtein and P. Martı́nez, Electrostatic models for zeros


of polynomials: old, new, and some open problems, J. Comp. Appl. Math., 207 (2007)
258–272.

[58] F. Marcellán and J.J. Moreno, Asymptotics and zeros of Sobolev orthogonal polynomials
on unbounded supports, Acta Appl. Math. 94 (2006) 163–192.

[59] F. Marcellán and J.J. Moreno, Strong and Plancherel–Rotach Asymptotics of Non-
diagonal Laguerre–Sobolev Orthogonal Polynomials, J. Approx. Theory 110 (2001), 54–
73.

[60] F. Marcellán, F.H. Szafraniec, The Sobolev-type moment problem, Proc. Amer. Math.
Soc. 128 (2000), 2309–2317.
Conclusiones y perspectivas 71

[61] F. Marcellán, F.H. Szafraniec, A matrix algorithm towards solving the moment problem
of Sobolev type, Linear Algebra Appl. 331 (2001), 155–164.
[62] F. Marcellán and W. Van Assche, Relative asymptotics for orthogonal polynomials, J.
Approx. Theory 72 (1993), 193–209.
[63] M. Marden, Geometric of Polynomials, Mathematical Surveys, Number 3, Amer. Mat.
Soc., Providence, RI, 1966.
[64] A. Martinez Finkelshtein, BernsteinSzegős theorem for Sobolev orthogonal polynomials,
Constr. Approx. 16(2000), 73–84.
[65] A. Martinez Finkelshtein, Equilibrium Problems of Potential Theory in the Complex Plane,
F. Marcellán and W. Van Assche (Eds.): LNM 1883, Springer, (2006), 79–117.
[66] A. Martı́nez and H. Pijeira, Strong asymptotics for Sobolev orthogonal polynomials, J.
d’Analyse Mathematique, 78 (1999), 143-156.
[67] A. Martı́nez, J. J. Moreno, and H. Pijeira, Strong asymptotics for Gegenbauer-Sobolev
orthogonal polynomials, J. Comp. Appl. Math., 81 (1997), 211-216.
[68] A. Martı́nez, J. J. Moreno, and H. Pijeira, Asymptotics for Gegenbauer-type polynomials,
Complex Meth. in Approx. Th., (1997), 85-91.
[69] A. Martı́nez Finkelshtein, Asymptotic properties of Sobolev orthogonal polynomials, J.
Comp. Appl. Math., 99 (1998), 491–510.
[70] A. Martı́nez Finkelshtein, Analytic aspects of Sobolev orthogonal polynomials revisited,
J. Comp. Appl. Math., 127 (2001), 255–256.
[71] H. G. Meijer, A short history of ortogonal polynomials in a Sobolev space. I. The non-
discrete case, Nieuw Arch. Wiskd., 14 (1996), 113–131.
[72] F. J. Muñoz, V. Ramı́rez and P. Sablonnière, On conservative approximation by linear
polynomial operators: An extension of the Bernstein operator, Approx. Theory Appl., 11
(1995), 62–71.
[73] P. Nevai, Orthogonal Polynomials, Mem. Amer. Math. Soc. 213, Providence RI, 1979.
[74] P. G. Nevai, Géza Freud, orthogonal polynomials and Christoffel functions. A Case Study,
J. Approx. Theory, 48 (1986), 3–167.
[75] A. F. Nikiforov, S. K. Suslov y V. B. Uvarov, Classical Orthogonal Polynomials of a
Discrete Variable, Springer-Verlag, 1991.
[76] B. Osilenker, Fourier Series in Orthogonal Polynomials, World Scientific, Singapore, 1999.
[77] H. Pijeira, J. Bello and W. Urbina, Sobolev–Gegenbauer type orthogonality and a hy-
drodynamical interpretation, submitted to Integral Transforms Spec. Funct.
Conclusiones y perspectivas 72

[78] H. Pijeira, J. Bello and W. Urbina, On Polar Legendre Polynomials, accepted in Rocky
Mountain J. Math.

[79] H. Pijeira, Y. Quintana and W. Urbina, Zero location and asymptotic behavior of ortho-
gonal polynomials of Jacobi-Sobolev, Rev. Colombiana Mat., 35 (2001), 77-97.

[80] A. Portilla, J. M. Rodrı́guez, E. Touris, The multiplication operator, zero location and
asymptotic for non–diagonal Sobolev norms, Acta Appl. Math., 2010, (in press).

[81] A. Portilla, Y. Quintana, J. M. Rodrı́guez, E. Touris, Zero location and asymptotic beha-
vior for extremal polynomials with non-diagonal Sobolev norms, J. Approx. Theory , 2010,
submiteed.

[82] E. D. Rainville, Special Functions, Chelsea Pub. Co., New York, 1960.

[83] T. Ransford, Potential Theory in the Complex Plane, Cambridge Univ. Press, 28, Cam-
bridge, 1995.

[84] L. Robert, L. Santiago, The finite sections method for Hessenberg matrices, J. Approx.
Theory. 123 (2003) 69–88.

[85] L. Robert.and Santiago, On a class of Sobolev scalar products in the polynomials, J.


Approx. Theory, 125 (2003), 169–189.

[86] J.M. Rodrı́guez, Multiplication operator in Sobolev spaces with respect to measures, J.
Approx. Theory, 109 (2001), 157–197.

[87] J.M. Rodrı́guez, V. Alvarez, E. Romera and D. Pestana Generalized weighted Sobolev
spaces and applications to Sobolev orthogonal polynomials I, Acta Appl. Math., 80
(2004), 273–308.

[88] J.M. Rodrı́guez, V. Alvarez, E. Romera and D. Pestana Generalized weighted Sobolev
spaces and applications to Sobolev orthogonal polynomials II, J. Approx. Theory Appl.,
18 (2002),1–32.

[89] J.M. Rodrı́guez, D. Pestana, V. Alvarez and E. Romera Weighted Sobolev spaces on
curves, J. Approx. Theory, 119 (2002), 41–85.

[90] J.M. Rodrı́guez, V. Alvarez, E. Romera and D. Pestana Generalized weighted Sobolev
spaces and applications to Sobolev orthogonal polynomials: A Survey, Electron. Trans.
Numer. Anal., 24 (2006), 88–93.

[91] E. Saff and V. Totik, Logarithmic Potentials with External Fields, Grundlehren der mat-
hematischen Wissenschaften. A Series of Comphrehensive Studies in Mathematics, vol.
316, Springer-Verlag, Heidelberg, 1997.

[92] B. Simon, Orthogonal polynomials on the unit circle, I and II, Amer. Math. Soc., Provi-
dence RI, 2005.
Conclusiones y perspectivas 73

[93] J. A. Shohat y J. D. Tamarkin, The Problem of Moments, Mathematical Surveys, Vol.


I, Amer. Math. Soc., Providence, RI, 1963.

[94] H. Stahl and V. Totik, General Orthogonal Polynomials, Cambridge Univ. Press, Cam-
bridge, 1992.

[95] T. J. Stieltjes, Sur certains polynômes que vérifient une équation différentielle linéaire du
second ordre et sur la théorie des fonctions de Lamé, Acta Math. 6 (1885), 321–326.

[96] P.K. Suetin, Fundamental properties of polynomials orthogonal on a contour, Russ. Math.
Surv., 21, (1966), 35–83.

[97] G. Szegő, Orthogonal Polynomials. Amer. Math. Soc. Colloq. Publ. 23, fourth edition,
Amer. Math. Soc., Providence RI, 1975.

[98] L. Tartar, An Introduction to Sobolev Spaces and Interpolation Spaces, Springer Verlag,
Berlin Heidelberg, 2007.

[99] V. Totik, Orthogonal Polynomials, Surv. Approx. Theory, 1, (2005) , 70–125.

[100] E.E. Tyrtyshnikov, How bad are Hankel matrices?, Num:T. Math., 67 (1994), 261–269.

[101] W. Van Assche, Asymptotics for Orthogonal Polynomials, Lec. Notes in Math. 1265,
Springer-Verlag, Berlin, 1987.

[102] D.V. Widder, The Laplace Transform, Princeton Univ. Press., Princeton Math. Series,
Princeton NJ, 1941.

[103] H. Widom, Extremal polynomials associated with a system of curves in the complex
plane, Adv. Math., 3 (1969), 127–232.

[104] S.M. Zagorodnyuk, On the Moment Problem of Discrete Sobolev Type, Ukr. Math.
Bull., 2 (2005), 351–367.