Sunteți pe pagina 1din 26

LA ENTROPÍA DE KOLMOGOROV; SU SENTIDO FÍSICO Y SU

APLICACIÓN AL ESTUDIO DE LECHOS FLUIDIZADOS 2D.

José Antonio Martínez Pons


joseantonio.martinez@uah.es
Francisco Alejandro Vinagre Benito
Departamento de Química Analítica e Ingeniería Química.
Universidad de Alcalá
Alcalá de Henares ( Madrid) España

Resumen: El análisis de sistemas dinámicos desde la perspectiva de la teoría del caos


significa la evaluación de una serie de parámetros. Entre ellos por la claridad de sus
resultados cuantitativos y la relativa facilidad de implementación, la entropía de
Kolmogorov, que mide la perdida de información a lo largo de la evolución del sistema
tiene una importancia capital, especialmente en su aplicación a sistemas de los que no
se dispone más que de series temporales de valores de alguna variable que se considera
significativa.
En este trabajo se explica el sentido físico del parámetro y se aplica al estudio de
lechos fluidizados , sistemas cuya alta complejidad dinámica sugiere la posibilidad de
que se trate de sistemas caóticos.
2

INTRODUCCIÓN: IDEAS GENERALES SOBRE EL CAOS Y SUS


PARÁMETROS CARACTERÍSTICOS.

El concepto de caos, concreta e impropiamente, caos determinista, va ligado al de sistema

dinámico, esto es, sistema en evolución. Un sistema dinámico puede presentar caos , aunque las

leyes por las que se rige son deterministas, si es muy sensible a las condiciones iniciales, de

modo que al cabo de un tiempo suficientemente largo, pequeñas diferencias en estas

condiciones pueden llevar a resultados muy diferentes.

Por otra parte, un sistema puede mantenerse de forma estable fuera del equilibrio, en el que

no hay cambio, siempre que se le suministre la energía suficiente: se trata de sistemas

disipativos. Muchos de los sistemas reales son disipativos y se rigen por leyes físicas no lineales,

de modo que raras veces es posible encontrar una solución exacta de sus ecuaciones de

evolución que, en consecuencia, deberá obtenerse por medio de cálculos numéricos

dependientes del tiempo, del modelo y de la capacidad de la herramienta utilizada, tanto física, -

ordenador-, como lógica, -programa o algoritmo-. El proceso iterativo se verá afectado por

numerosas fuentes de variación y, en consecuencia, aunque no sea más que por esta razón, el

sistema será, de hecho, caótico. En realidad muchos fenómenos tienen comportamientos

regulares junto a otros caóticos.

Epistemológicamente, el paradigma del caos determinista afecta al propio método científico,

entre otras razones, debido a la pérdida de predictibilidad de los sistemas a la par que a la

constatación de las limitaciones de la mente humana tanto desde el punto de vista conceptual

como operativo. Además, el caos exige que los sistemas analizados estén en constante

evolución, saliendo del marco estático que imponía el viejo mecanicismo. Su validez

metodológica, aunque nacida en el campo de la física, se puede extrapolar a cualquier disciplina


3

del conocimiento, desde la biología hasta la economía, de las que puede extraer modelos y

técnicas operativas (modelos de redes neuronales, por citar un ejemplo tópico).

Para el estudio del caos se requiere la utilización de herramientas adecuadas, teóricas y

experimentales, así como equipos informáticos, tanto para la captura como para el posterior

tratamiento de los datos experimentales.

Es difícil dar una definición de comportamiento caótico. La idea intuitiva se ha expuesto en los

párrafos anteriores. Varios autores han intentado dar una definición concreta, aunque ninguna es

completamente satisfactoria. Por ejemplo según Devaney (1989),

“ Sea una X un espacio métrico y sea f una aplicación f(X)→X, se dirá que f es caótica en X

si,

1) f es transitiva

2) los puntos periódicos de f forman un conjunto denso en X

3) f es sensible a las condiciones iniciales “

A esta definición han objetado Banks, y otros (1992) que la tercera condición puede deducirse

como consecuencia de las dos primeras, aunque sea precisamente la principal y más

inmediatamente observable de un comportamiento caótico. En la práctica, más que definir un

sistema caótico, lo interesante es identificarlo y ello se hace a partir de una serie de propiedades

características del sistema.

Se empieza por concretar la información disponible. Cuando se conocen las ecuaciones del

fenómeno estudiado, si se trata de un sistema hamiltoniano se podrá integrar por aplicación de

teorema de Liouville, lo que no siempre es fácil.

Una vez más hay que insistir en que la integrabilidad es lo “anormal”, como señaló Poincaré

(1892) y se confirmó cuando Kolmogorov, Arnold y Moser (1962) demostraron el llamado


4

“teorema KAM”, según el cual ningún movimiento en el espacio de las fases, espacio geométrico

en que se representan las variables dinámicas de las que depende el sistema, excluido el

tiempo, es completamente regular ni completamente irregular, sino que el tipo de trayectoria

seguida depende muy sensiblemente de la elección de las condiciones iniciales y, en

consecuencia, el movimiento estable es más bien excepción que regla.

En los demás casos, habrá que recurrir a otros indicadores de caos, sabiendo que el caos

puede presentarse en cualquier sistema natural. Siegel probó que cualquier entorno de un

hamiltoniano H contiene algún H’ no integrable, es decir, que mientras que el conjunto de

hamiltonianos integrables no es denso el de los no integrables sí lo es.

Un sistema no lineal determinado puede o no presentar un comportamiento caótico. Para

poder predecir el fenómeno es preciso identificarlo y detectar el paso de un comportamiento

regular a otro caótico. Para que un sistema disipativo presente un comportamiento caótico es

necesario que sea abierto y que se den ciertos parámetros específicos que indiquen el régimen y

la transición como se detallará a continuación.

En la práctica experimental se suele operar con series de señales que miden propiedades

significativas del fenómeno en estudio. Las técnicas instrumentales permiten conseguir señales

de gran fiabilidad a intervalos de tiempo altamente regulares. Normalmente estas señales

adolecen de un cierto nivel de ruido dependiente del equipo y de la sensibilidad del sistema de

medida e incluso del propio programa informático de control y captura de datos.

El sensor o transductor convierte la señal física en variación de tensión eléctrica que se

acondiciona, -amplía o reduce, digitaliza y se filtra si es el caso- para entrar y ser procesada en

el equipo informático. Todo ello supone nuevas condiciones iniciales que pueden a su vez verse

afectadas por la sensibilidad del proceso a estas condiciones.


5

Los indicadores objetivos de caos son varios y pueden clasificarse de modo laxo en dos grandes

grupos: aquellos que miden de algún modo como se pierde la información a lo largo de la

evolución, como el exponente de Lyapunov, la entropía de Kolmogorov, incluso la transformada

de Fourier o los que se refieren al carácter fractal ya sea de la propia señal ya de su atractor en

el espacio de fases.

En este trabajo se tratará del primer tipo de indicadores y especialmente de la entropía de

Kolmogorov, debido por una parte a la facilidad del procesamiento de su cálculo y por otra al

rico caudal de información que aporta.

EXPONENTE DE LYAPUNOV
El mecanismo por el cual se genera el caos puede resumirse en dos operaciones sobre el

espacio de fases,

a) Un estiramiento en el cual las trayectorias se separan de modo exponencial, es decir,

las ecuaciones actúan como una especie de microscopio.

b) Un plegamiento de este espacio de fases que hace que las trayectorias se mezclen,

perdiéndose por tanto la relación con las condiciones iniciales.

El exponente de Lyapunov proporciona una medida cuantitativa de la primera operación, (a).

Sea un sistema caótico descrito por una ecuación recurrente del tipo

xn+1 = f(xn),

El exponente de Lyapunov, λ(x0) representa la separación exponencial entre dos trayectorias,

inicialmente próximas, al cabo de N pasos o iteraciones.

ε N iteraciones εeNλ

x0 x0 +ε fN(x0) fN(x0+ε)

Figura 1.- Explicación gráfica del significado del exponente de Lyapunov.


6

De la figura 1 se deduce que

ε eλ(x0) = |fN(x0+ε)-fN(x0)| (1)

despejando y tomando límites cuando N→∞ y ε→0 se obtiene una definición formal del

exponente de Lyapunov

λ (x 0 ) = lim lim
1
log
f N
(x 0 + ε ) − f N (x 0 ) = lim
df N
(x 0 )
(2)
N →∞ ε → 0 N ε N →∞ dx 0

ε eλ(x0) representa el valor promedio de separación entre dos trayectorias al cabo de una

iteración, lo que expresado en función de la variable temporal ε eλt representa la separación de

dos puntos inicialmente próximos al cabo de un tiempo t.

ENTROPÍA DE KOLMOGOROV
Es un parámetro que permite determinar el contenido y ganancia de información en un

sistema determinado.

Se fundamenta en la llamada teoría de información1 de Shannon (Shannon y Weaver, 1949)

en la que se definen y analizan los conceptos de capacidad de almacenamiento y ganancia de

información.

a) Capacidad de almacenamiento de información

1
Se sigue un desarrollo de la teoría de la información “clásica”, existe la posibilidad de un desarrollo
semejante dentro el formalismo de la mecánica cuántica que permite la explicación de fenomenos tales
como el “encriptado” o la “teletransportación”. Galindo (2000)
7

00 01 Supuesto un sistema que pueda ocupar únicamente dos

estados, evidentemente su descripción será suficiente


10 11
asignando “0” a uno de ellos y “1” al otro. Así, su estado queda

descrito por un número binario de una cifra y almacenará un bit


Figura 2 Ilustración de la de información (bit a partir de ahora será un dígito binario).
teoría de la información

Si el sistema pudiera ocupar uno de cuatro estados, (para fijar ideas, supóngase que se

pretende situar un punto, estado real del sistema, en una de las celdillas, posibles estados, de un

cuadrado de lado 2, para la descripción del sistema se precisa un número binario de dos dígitos,

es decir, dos bit,( figura 2). En general, si se pretende localizar un estado en un cuadrado de lado

n, el número de estados posibles será 2n y se precisará de n dígitos binarios, n bit, y

generalizando, si un sistema puede ocupar N estados, el máximo de información que este

sistema contiene, expresado en bit, es

I = log 2 N ( 3)

b) Ganancia de información

Una vez más se recurrirá a un ejemplo sencillo: el lanzamiento de una moneda tiene la misma

probabilidad de caer cara que cruz e igual a 0,5. La ganancia de información que se obtendrá

conociendo el resultado del lanzamiento será 1 lo que se justifica porque son posibles dos

estados y la probabilidad de cada uno es ½ y puede escribirse,

1 1 1 1
I = − ∑ p i log 2 p i = − log 2 + log 2  =1 (4)
i
 2 2 2 2

Si la moneda está trucada de modo que p1 ≠ p2 y que se desea saber la cantidad promedio

de información que se gana después de muchos lanzamientos. Sea, ahora, pi = r/q la

probabilidad de un estado determinado, expresada en su forma irreducible, y m el número de

eventos para los cuales mr/q es entero.


8

Según la teoría de permutaciones y considerando sólo el número de caras o cruces obtenidos

y no su orden, el número total de estados posibles, N, es

m!
N = ( 5)
( p 1 m )!( p 2 m )!

Si m es suficientemente grande (m→∞), se puede aplicar la aproximación de Stirling2 a los

factoriales con lo que la información media vale aproximadamente,

1 1  m  m  e  p1m  e  p 2 m 
I = log 2 N = log 2        = − ( p 1 log 2 p 1 + p 2 log 2 p 2 )
m m  e   p 1 m   p 2 m  
( 6)

La Figura 3 representa el fenómeno. Si una de las probabilidades es cero, evidentemente se

sabe el resultado y por tanto, al proceder al lanzamiento no se gana ninguna información. Sin

embargo, cuando ambas probabilidades son iguales entre sí e iguales a ½ la ganancia de

información es máxima y su valor es precisamente la unidad, es decir, el experimento

proporciona la máxima información.

Generalizando, si de un determinado sistema se sabe a priori que únicamente pueden ocurrir

n eventos, o estados del mismo sistema, y además se conocen las probabilidades respectivas pi

de cada uno de estos estados, que deberán ser mutuamente excluyentes y en consecuencia la

suma de probabilidades pi debe ser necesariamente 1, el sistema deberá ocupar alguno de estos

estados. Si se puede medir de algún modo el estado j que el sistema ocupa, (o sucede el evento

j), y se repite n veces el experimento, la ganancia de información en promedio que se obtiene es,

n
I = − ∑ p i log 2 p i ( 7)
i =1

Si un sistema puede ocupar n estados equiprobables, la expresión anterior se simplifica

puesto que pi = 1/n y en consecuencia la expresión queda,

2
n!= 2πn n n e − n
9

n
1 1
I = −∑ log 2 ( 6)
i =1 n n

INFORMACIÓN

1
0,9
0,8
0,7
información/bit

0,6
0,5 I
0,4
0,3
0,2
0,1
0
0 0,2 0,4 0,6 0,8 1

p1

Figura 3 : Representación gráfica de la ganancia de información al


realizar el experimento, frente a la probabilidad de obtener un
determinado resultado. Obsérvese por ejemplo como al realizar el
experimento de resultado único, seguro, o imposible no se gana
ninguna información.

La mecánica estadística demuestra que si un sistema puede ocupar un conjunto n de

estados con probabilidad Pi respectivamente de ocupar cada uno de ellos, la entropía S del

sistema será,

S ∝ ∑ Pi log Pi ( 9)
i

De acuerdo con las ideas de Shannon la entropía proporciona un valor sobre la cantidad de

información que se necesita para localizar el sistema en un determinado estado. Por semejanza

con el concepto termodinámico, la entropía de Kolmogorov se define a partir de la fórmula de

Shannon, como la cantidad de información que el sistema va perdiendo a lo largo del tiempo.

Supóngase una función lineal, f(x) = ax, sus valores y los errores asociados cambian en un

factor a = |f’(x)|, lo que produce una variación de información,


10

n /a n
a a 1 1
∆I = − ∑ log 2 + ∑ log 2 = − log 2 a = − log 2 | f ' (x )| (10)
l n n l n n

si |f’(x)| > 1 hay pérdida de información puesto que la resolución disminuye. En promedio,

n −1
∆I = lim ∑ log 2 | f ' (x k )|
n →∞
0 ( 11)
λ (x 0 ) = − ∆I log 2

Según (9), se pone de manifiesto la relación entre la entropía de Kolmogorov y otro de los

parámetros típicos en el estudio del caos, el exponente de Lyapunov, λ . Éste es proporcional a

la pérdida de información. Cuando λ > 0 el movimiento es caótico, se pierde información, lo cual

es evidente si se considera que cada vez la predicción es menos exacta y, por tanto, la pérdida

de información es mayor. Un sistema con exponente de Lyapunov positivo va perdiendo

progresivamente la información que poseía inicialmente, hasta que llega un momento en que la

ha perdido toda y a partir de este momento es imposible hacer ninguna predicción.

La entropía de Kolmogorov se calcula, según Farmer (1982) del siguiente modo :

Sea una trayectoria x(t) =


l
[x1(t), x2(t),...xd(t)] (Figura 4) en el espacio

de fases de dimensión d de un sistema

dinámico. Supóngase este espacio

dividido en cajas de tamaño ld siendo d

Figura 4. Explicación gráfica del método propuesto la dimensión del espacio, y que se mide el
por Farmer para el cálculo de la entropía de
Kolmogorov. La línea azul representa una estado del sistema a intervalos de tiempo
trayectoria en el espacio de fases
τ uniformemente separados. Sea P0....n la

probabilidad conjunta de que en el instante t = 0 el sistema se encuentre en la caja i0, en t = τ en

i1..... y en nτ en in. Aplicando la teoría de Shannon, la magnitud Kn definida por


11

K n = − ∑ P1.......n log P0.....n (12)


0...n

es proporcional a la información necesaria para localizar el sistema en una trayectoria especial

que recorra las cajas i0........in con una precisión determinada.

Kn+1 - Kn representa la información adicional necesaria para saber en qué celda in+1 se

encontrará el sistema que previamente se encontraba en i0.............in. En consecuencia, Kn+1 - Kn

mide la pérdida de información sobre el sistema cuando se pasa del tiempo nτ a (n+1)τ.

La entropía de Kolmogorov es el promedio de pérdida de información cuando l y τ se hacen

todo lo pequeños que se desee, es decir, tienden a cero.

1
K = lim lim lim
τ → 0 l → 0 n →∞ nτ
∑P
0Kn
0Kn log P0Kn . (13)

Por razones prácticas, primero debe tomarse el límite cuando n→∞ y después l→0, así se

elimina la dependencia de la partición elegida. Hacer tender τ a cero sólo es necesario en

sistemas continuos. Las propiedades del sistema condicionan el valor de K de la siguiente forma:

• Si el sistema es regular, K = 0, no se pierde información.

• Si es aleatorio, K = ∞

• Si es caótico, 0 < K < ∞

RELACION DE LA ENTROPÍA DE KOLMOGOROV CON LOS


EXPONENTES DE LYAPUNOV
Más arriba se ha expuesto como el exponente de Luyapunov se relaciona con la pérdida de

información , a continuación se compara con la entropía de Kolmogorov

Cuando el sistema es de orden 1, K coincide con el exponente de Lyapunov, y en sistemas

de dimensión mayor de 1 la pérdida de información está determinada sólo por los exponentes de

Lyapunov positivos. La pérdida de información en promedio es igual a la suma media de


12

exponentes de Lyapunov positivos, (Pesin 1997). Además, la entropía de Kolmogorov se

relaciona con la densidad invariante según:

r r
K = ∫ d d x ρ (x ) ∑ λ i+ (x ) ( 14)
i

La figura 9 ilustra lo expuesto: en un espacio bidimensional, sea δ la incertidumbre inicial

representada por el círculo de puntos y P0=δ2 la probabilidad de que el sistema se encuentre

inicialmente en la casilla dibujada es. Supóngase un exponente de Lyapunov negativo en el eje x

y positivo en el eje y, lo cual no significa


δeλ
δeλ pérdida de generalidad. Si transcurre una
y
δ
unidad de tiempo, la incertidumbre se

representa ahora por la elipse de ejes δ eλ- <

δ y δ eλ+ > δ. Al reducirse la cota de


x
incertidumbre en el eje x, la información

sobre el estado del sistema se queda dentro


Figura 5.- Relación entre la entropía de
Kolmogorov y el exponente de Lyapunov de la misma casilla, por tanto, esta reducción

no aporta nada nuevo. Sin embargo, el exponente positivo involucra las casillas limítrofes, hay

una perdida de información y

P0,1 = δ2eλ y K = λ+ ( 15)

Si K es positiva, la información sobre el sistema va perdiéndose, de modo que depende de K

y de la precisión inicial. Cuando K alcance el valor cero, no se podrá decir nada del sistema a

partir de este momento.

Considérese, por ejemplo, un sistema dinámico confinado en un cuadrado unidad de R2, [0,1]

y en el que δ es la imprecisión en x0. La incertidumbre crece con el tiempo según, ∆=δ eλt
13

cuando ∆ = 1 la imprecisión alcanza a todo el cuadrado y ya no se puede saber nada sobre la

trayectoria. Sea Tm este tiempo para el cual ∆ = 1, entonces,

1 1
1 = δ e λT m ⇒ T m = ln (16)
λ δ

Es decir, que para un tiempo t, tal que t > Tm sólo son posibles predicciones estadísticas.

Si el sistema tiene más de una dimensión entonces la idea puede generalizarse sustituyendo

el exponente de Lyapunov por la entropía de Kolmogorov

1 1
Tm = ln (16b)
K δ

En síntesis, la entropía de Kolmogorov, también llamada “entropía K”, mide el promedio de

información sobre el estado de un sistema dinámico que se pierde con el tiempo. En sistemas

unidimensionales es igual al exponente de Lyapunov, mientras que en sistemas de dimensión

mayor es la suma de los exponentes de Lyapunov positivos. En todo caso es inversamente

proporcional al tiempo en el cual el estado de un sistema caótico se puede predecir.

La estimación de la entropía de Kolmogorov en la práctica no es inmediata, de modo que se

han propuesto distintas técnicas. En este trabajo se sigue la técnica de máxima verosimilitud

propuesta por Schouten y otros (1994), incluida en el paquete Rrchaos3.

3
Véase Schouten J.C., F. Takens y Cor M. van den Bleek. (1994) “Maximum-Likelihood Estimation Of
The Entropy Of An Attractor.”
14

APLICACIÓN A LECHOS FLUIDIZADOS.


Una moderna e interesante aplicación de las teorías del caos, aún en desarrollo, es el estudio

del complejo comportamiento de los lechos fluidizados.

Los primeros trabajos se deben a Tam y Devine (1989, 1992) y Daw y Hallow (1993), que

estudian las oscilaciones de presión de un lecho fluidizado según las teorías del caos. Trabajan

con series de 10.000 puntos tomados a intervalos entre 10 y 2 ms e Otra escuela es la de

Schouten y otros (1992 a 2000) investigan también oscilaciones de presión, y han generado

además un conjunto muy interesante y efectivo de algoritmos que se resumen en el paquete

informático Rrchaos, utilizado en el presente trabajo.

Dentro de esta línea se han publicado abundantes trabajos como los de Daw y otros (1990 a

2000) intentan la extrapolación a escala semi-industrial de reactores de carbón Skrzycke y otros

(1993), Hay y otros (1995), Larachi y otros (1995), Huilin y otros (1995) Segarra (1995) , Aragón,

Bai y otros (1996). Kikuchi y otros (1996) , Martínez Pons ( 2000), Villa Briongos ( 2003)

Abashar y Elnashaie (1997) sugieren que el comportamiento del lecho fluidizado, no obstante

presentar un atractor extraño, se debe más bien a complejas oscilaciones periódicas, lo que

sería consecuencia de una dinámica compleja, pero no caótica.

EXPERIMENTACIÓN:
Es este trabajo se ha utilizado un lecho fluidizado gas –sólido bidimensional, midiendo la

transmitancia láser a de las capas superiores del lecho

El conjunto experimental, figura 6, consta del sistema de fluidización –

columna rectangular, construida con dos planchas de metacrilato de metilo de 8 mm de

espesor, 300 mm de largo y 160 mm de ancho, separadas entre sí 30 mm, es decir, el lecho

fluidizado tiene una sección transversal de 160× 30 mm,


15

• Relleno, formado por mezclas de microesferas de vidrio (“ballotini”) de diametro

comprendido entre 450 y 500 µm y de densidad 2.550 kg m-3 y acero entre 125 y 210 µm

de diámetro y 7.393 kg m-3 de densidad.

La proporción de acero en la mezcla total vidrio-acero utilizada en la experimentación es de,

en % en peso:

0 - 10 -15 -20 - 25 -30

La introducción de acero en la mezcla se justifica, primero para minimizar efectos de

electrización que conducirían, entre otros inconvenientes, a la adherencia de relleno a las

paredes de la columna, lo que podría enmascarar las medidas reales, y también para estudiar

los efectos que pueden tener las distintas características ópticas del relleno, siempre dentro

de unos límites moderados, próximos a las condiciones reales de trabajo.

La cantidad de relleno es la correspondiente a las alturas siguientes de lecho fijo, H0, en

mm.

40, 80, 120

Emisor de rayos láser, láser He-Ne de 5 mW de potencia, , cuyo calibrado da una longitud de

onda dominante de 630,7±9,5 nm. Con lente colimadora que genera un rayo láser vertical de 4

cm de alto por 1 mm de ancho ( ver figuras 6 y 7)


16

COLUMNA Y RELLENO
LENTE
SENSOR LÁSER

FUENTE Y AMPLIFICADOR DE SEÑAL

ENTRADA DE AIRE A PRESIÓN

A LA RED

CONVERSOR AD Y ORDENADOR

Figura 6: Dispositivo experimental.

ESPESOR DEL R1 V1
LECHO, 30 mm

SENSOR PSD
LENTE
V0

ZI

ZLE R2 V2

H0 ZLF PLACA PERFORADA

H0: Altura de lecho fijo


ZLF: Zona ocupada por el lecho fijo
ZLE: Zona de expansión del lecho fluidizado
ZI : Zona iluminada por el rayo Láser

Figura 7: Esquema del modo de operación del sensor y lecho fluidizado y del sensor PSD

Sensor (Fotodiodo analógico tipo PSD, “Positional System Detection”, de 4 cm de altura).

Lleva incorporado un filtro interferencial, que permite el trabajo a luz normal


17

• Los datos se toman siempre en el plano medio de la columna, con lo que se eliminan

los posibles efectos de borde, con la ventaja de que en caso de una incorrecta ubicación del

rayo o del sensor, las paredes de la columna no distorsionan el camino óptico del rayo como

podría ocurrir en el caso de una columna cilíndrica.

c) Toma de datos y tratamiento de la señal. El sensor PSD mide la posición del centro de

gravedad óptico de la zona estudiada. Ser ha procedido al análisi de series de unos

10.000 datos tomados con un periodo de 6,5 ms.

H0=40 mm , Ur=1,56, Acero= 0% H0=120 mm , Ur=1,47, Acero= 0%

18 35

16
30

14

25
12
Altura , (mm)

Altura , (mm)
20
10

8
15

6
10

5
2

0 0
0 2 4 6 8 10 12 14 16 18 20 0 2 4 6 8 10 12 14 16 18 20
Tiempo, (s) Tiempo, (s)

H0=80 mm , Ur=1,15, Acero= 25% H0=40mm , Ur=2,49, Acero= 30%

30 14

12
25

10
20
Altura , (mm)

Altura , (mm)

15

10
4

5
2

0 0
0 2 4 6 8 10 12 14 16 18 20 0 2 4 6 8 10 12 14 16 18 20
Tiempo, (s) Tiempo, (s)

Figura 8. -Algunas señales representativas en distintas condiciones de fluidización.

RESULTADOS: Entropía de Kolmogorov


Los valores son siempre mayores que cero, lo que indica existencia de caos (excepto algún

ensayo a velocidad reducida muy próxima a la unidad). Los resultados se mantienen en un

entorno de 30-40 Bit/s, con una media de 34,43 y una desviación típica de 10,82 . Aplicado el

mismo algoritmo, por vías comparación a series aleatorias se obtienen valores de unos 170 Bit/s,

En series deterministas el resultado es prácticamente cero. No se observa una clara disminución


18

en aquellas series como los ensayos a H0 = 40 mm que en el análisis de Fourier muestra

espectros con muy pocas frecuencias dominantes, lo que quita valor al espectro de Fourier cómo

indicador de caos.

En las figuras 12a y 12b se recoge la evolución de la entropía de Kolmogorov con la

velocidad reducida, Ur. La entropía en Bit/s muestra una cierta tendencia inicial a crecer con la

velocidad reducida, alcanzando un máximo pronunciado cuando H0 = 120 mm, o mucho más

suave en las restantes alturas, para después variar de forma más atenuada.

La medida de la entropía de Kolmogorov implica una normalización ya sea referida a un ciclo

medio ya a una unidad de tiempo, el segundo, en este caso. El ciclo es distinto para cada ensayo

y, en general, cuanto más próximo a la aleatoriedad es el comportamiento del sistema, menor es

el número de puntos en cada ciclo, tabla 2, en consecuencia, la entropía por ciclo se reduce, y

así, no se aprecia de forma clara la discordancia a bajas velocidades reducidas, que aparece si

se mide en Bit/s, puesto que el número de puntos por ciclo es menor, véase tabla 2, por lo que

en general, para comparar los diferentes ensayos es más significativa la entropía en Bit/s, al

referirse a un patrón común, la unidad de tiempo. En algunos casos, no obstante, la medida en

Bit/ciclo permite un seguimiento más claro del cambio de régimen, véase por ejemplo la gráfica

correspondiente a H0 = 40 mm.

Lo dicho pone de manifiesto que para un análisis completo del comportamiento de un

sistema, es conveniente tener en cuenta el mayor número de parámetros que, en cierto modo,

son complementarios entre sí.

80 7

0%
70
0% 6 10%

H0 = 40mm
10% 15%
15% 20%
60
20% 25%
Entropía de Kolmogorov, (Bit/ciclo)

5
30%
Entropía de Kolmogorov, (Bit/s)

25%
30%
50
4

40

3
30

2
20

1
10

0 0
1 1,2 1,4 1,6 1,8 2 2,2 2,4 2,6 1 1,2 1,4 1,6 1,8 2 2,2 2,4 2,6
Ur Ur
19

50 8

45
7

H0 = 80mm
40
6

Entropía de Kolmogorov (bit/ciclo)


35

Entropía de Kolmogorov, (Bit/s)


5
30

0%
25 4
10%
15%
20%
20 0% 3
25%
10%
30%
15 15%
20% 2
25%
10 30%
1
5

0
0
1 1,2 1,4 1,6 1,8 2 2,2 2,4 2,6
1 1,2 1,4 1,6 1,8 2 2,2 2,4 2,6
Ur
Ur

50,000 8,000

45,000
7,000

40,000
6,000

H0 = 120mm

Entropía de Kolmogorov, (Bit/ciclo)


35,000
Entropía de Kolmogorov,(Bit/s)

5,000
30,000

0%
25,000 4,000 10%
15%
20%
20,000
0% 3,000 25%
10% 30%
15,000 15%
20% 2,000
10,000 25%
30%
1,000
5,000

0,000 0,000
1 1,2 1,4 1,6 1,8 2 2,2 1 1,2 1,4 1,6 1,8 2 2,2
Ur Ur

Figura 9.- Entropía de Kolmogorov en Bit/s. Figura 10.- Entropía de Kolmogorov en Bit/ciclo.

Aunque la entropía de Kolmogorov debe ser un invariante del sistema, la posible fórmula

empírica que permita su predicción a partir de las características del lecho supone siempre una

incertidumbre, sobre todo por la gran dependencia y sensibilidad con los parámetros iniciales,

característica de todo sistema caótico. No obstante, siguiendo las ideas de Schouten y otros

(1992) y (1998) se buscó una expresión que relacionara las características del lecho fluidizado -

cantidad de relleno (altura del lecho fijo), velocidad de fluidización y contenido en acero- con la

entropía de Kolmogorov, ensayándose la siguiente función:

K= P1 ( Ur -1)P2(χ/100+1)P3H0 P4 (17)

donde K es la entropía de Kolmogorov, en Bit/s

Pi, los parámetros de ajuste

χ, el contenido de acero, en %

H0, la altura del lecho fijo, en mm


20

Ur es la velocidad reducida de fluidización, magnitud adimensional que representa la relación en

la velocidad del gas y la velocidad mínima de fluidización

El primer paréntesis se justifica para garantizar que a Ur = 1, K = 0, y el segundo paréntesis

garantiza que para un relleno sin acero la entropía de Kolmogorov no es nula.

Los resultados del ajuste son:

Tabla 1.- Parámetros de ajuste de (17) y sus propiedades estadísticas


PARÁMETRO ESTIMACIÓN DESVIACIÓN TOLERANCIA
P1 110,493924 19,8335 0,011502
P2 -0,070166 0,031577 0,542469
P3 0,867080 0,234107 0,198321
P4 -0,320976 0,041885 0,012056

Así, la expresión 17 queda:


0 ,867
 χ 
K = 110,5(U r − 1)
− 0 , 070
 + 1 H 0− 0,3210 (18)
 100 
cuya representación gráfica, figura 11, permite apreciar cómo se ajustan los resultados experimentales.
60

50
Entropía de Kolmogorov (bit/s)

40

30

20

10

0
0 10 20 30 40 50 60
Entropía experimental (bit/s)

Figura 11.- Ajuste de los valores


experimentales a la ecuación 18

CONCLUSIONES:
La entropía de Kolmogorov es un eficiente parámetro para determinación del caos tambioen

para series temporales.


21

De su aplicación se deduce que los lechos fluidizados en general presentan un comportamiento

con una amplia componente caótica.

Las variaciones en el régimen de fluidización suelen ponerse de manifiesto por un cambio en la

entropía de Kolmogorov. Esto se hace más patente en su estimación por unidad de tiempo

debido a que el criterio de comparación es siempre el mismo para todos los ensayos y no

depende del régimen del fenómeno, mientras que el número de puntos por ciclo si depende del

propio fenómeno estudiado.

En cualquier caso y como ocurre con cualquier parámetro caotico, debe cotegarse el algoritmo

utilizado con series artificiales , deterministas y aleatorias para establecer los valores patrón y

cruzar los resultados con los aportados por otros parámetros.

BIBLIOGRAFÍA

1. Abashar, M.E.E. y Elnashaie, S.S.E.H. (1997). “Complex Non-Chaotic Attractors in

Fluidized Bed Catalytic Reactors”. Trans. IChemE, 75 A, 92-100.

2. Aragón, J.M.; Serrano, M. y Palancar, M.C. (1997). “Application of Neural Networks for

Predicting Size and Frequency of Bubbles in Fluidized Beds”. Proceedings of the II

European Conference on Fluidization. Bilbao.

3. Atkinson, C.M. y Clark, N.N. (1988). “Gas Sampling from Fluidized Beds: A Novel Probe

System”. Powder Technol., 54, 59-70.

4. Bai, D.; Bi H.T. y Grace, J.R. (1997). "Chaotic Behavior of Fluidized Beds Based on

Pressure and Voidage Fluctuations". AIChE Journal, 43 (5), 1357-1361.

5. Bai, D.; Masuda, Y.; Nakagawa, N. y Kato, K. (1996). “Transition to Turbulent Fluidization

in a Binary Solids Fluidized Bed”. Can. J. Chem. Eng., 74, 58-62.


22

6. Ben-Mizrachi, A.; Procaccia, I. y Grassberger, P. (1984). “Characterization of Experimental

(noisy), Strange Attractors”. Physical Review A, 29 (2), 975-977.

7. Bi, H.T.; Grace J.R. y Lim K.S. (1995). “Transition from Bubbling to Turbulent

Fluidization”. Ind. Eng. Chem. Res., 34, 4003-4008.

8. Broomhead, D.S. y King, P. (1986). “Extracting Qualitative Dynamics from Experimental

Data”. Physica, 20D, 217-236.

9. Crutchfield, J.P. “Caos”. Investigación y Ciencia, 16-29.

10. Daw, C.S. y Hallow J. S. (1993). "Evaluation and Control of Fluidization Quality

Through Chaotic Time Series Analysis of Pressure-Drop Measurements". AIChE Sym.

Ser., 296 (89), 103-122.

11. Daw, C.S. (1994). “Seeking Order in Chaos”. www.ornl.gov/ORNL Review/rev25-2.

12. Devaney, R.L. (1989). “An Introduction to Chaotic Dynamical Systems”. Addison-

Wesley.

13. Ditto, W.L. y Pecora, L.M. (1993). “Dominar el caos”. Investigación y Ciencia, 205, 48-55.

14. Fan, L.T.; Ho, T-Ch., Hiraoka, S. y Walawander, W.P. (1981). "Pressure Fluctuations in a

Fluidized Bed". AIChE Journal, 27 (3), 388-396.

15. Fan, L.T.; Ho, T-Ch.; y Walawender, W.P. (1983). "Measurements of the Rise Velocities

of Bubbles, Slugs and Pressure Waves in a Gas-Solid Fluidized Bed Using Pressure

Fluctuation Signals". AIChE Journal, 29 (1), 33-39.

16. Galindo, A. (2000). “Quanta e información”. Revista Española de Física, 14 (1), 30-47.

17. Gardner, M. (1978). “Música blanca y música parda, curvas fractales y fluctuaciones

del tipo 1/f”. Investigación y Ciencia, 21, 104-110.

18. Grassberger, P. y Procaccia, I. (1983). “Characterization of Strange Attractors”. Physical

Review Letters, 50 (5), 346-349.


23

19. Karamavruç, A.I. y Clark, N.N. (1997) “A fractal interpretation of local instantaneous

temperature signals around a horizontal heat transfer tube in a bubbling fluidized bed”.

Pow. Tech.90. 1235-244.

20. Kikuchi, R.; Tsutsumi, A. y Yoshida, K. (1996). "Fractal Aspect of Hydrodynamics in a

Three-Phase Fluidized Bed". Chem. Eng. Sci., 51 (11), 2865-2870.

21. Korsan, R.J. (1993). “Fractals and Time Series Analysis". Mathematica J. 3 (1), 39.

22. Kwon, H.W.; Kang, Y.; Kim, S.D.; Yashima, M. y Fan, L.T. (1994). “Bubble-Chord Length

and Pressure Fluctuations in Three-Phase Fluidized Beds”. Ind. Eng. Chem. Res., 33,

1852-1857.

23. Laherrère, J.-M.; Savary, H.; Mellet, R. y Tolédano, J.-C. (1990). “Dynamic-Light-

Scattering Study of the Solid-Liquid Interface in Succinonitrile During Growth”. Physical

Review A, 41 (2), 1142-1144.

24. Korsan, R.J. (1993). “Fractals and Time Series Analysis". Mathematica J. 3 (1), 39.

25. Letaief, N.; Rozé, C. y Gouesbet, G. (1995). "Noise/Chaos Distinction Applied to the

Study of a Fluidized Bed". Journal de Physique H, 12, 1883-1899.

26. Lirag, R.C. y Littman, H. (1971). “Statistical Study of the Pressure Fluctuations in a

Fluidized Bed” AlChE Symp. Series, 116 (67), 11-22.

27. Martínez Pons , J.A. ( 2000) “Aplicación de la Teoría del Caos Determinista al Estudio

de Lechos Fluidizados Gas – Sólido”. Tesis doctoral. Alcalá de Henares

28. Martínez Pons , J.A.; Vinagre Benito F.A. ( 2002) Comportamiento de lechos fluidizados

gas-sólido 2-d. Aplicación del análisis de Hurts. Revista Ingeniería química Septiembre

2002

29. Shannon, Calude E,, Weawer, W.(1949) The Mathematical Theory of Communication.

The University of Illinois Press

30. Schuster, H.G. (1989 ). “Deterministic Chaos”. Springer-Verlag. Berlín.


24

31. Solé, R.V y Manrubia, S.C. (1996). “Orden y caos en sistemas complejos”. UPC.

Barcelona.

32. Stappen, M.L.M van der.; Schouten, J.C. y van den Bleek, C.M. (1993). ”Deterministic

Chaos Analysis of the Dynamical Behavior of Slugging and Bubbling Fluidized Beds”.

Fluidized Bed Combustion-ASME, 1, 129-140.

33. Steward, I. (1994). “¿Juega Dios a los dados?: La nueva Matemática del caos”. R. B. A.

Barcelona.

34. Taxil, I.; Guigon, P.; Archimbault, F. y Gauthier, T. A. (1997). “Analyse des signaux

Temporels de Pression dans un Lit Fluidisé Turbulent de FCC”. Proceedings of the II

European Conference on Fluidization. Bilbao.

35. Villa Briongos, J. Guardiola Soler, J. (2003) Free top fluidized bed surface fluctuations

as a source of hydrodynamic data. Powder Technology 134(2003) 133-144


25

Anexo: Tabla 2 Algunos resultados

acero H0 Ur E de Kolmogorov Exponente Tiempo


% (mm) KML KML error Lyapunov Lyapunov
(Bit/s) (Bit/ciclo) (%) (Bit/s) (s)
0 40 1,12 108,3665 4,9465 1,0177 12,7007 0,079
1,25 47,1353 3,1896 0,8884 3,8686 0,258
1,37 31,3675 4,4644 0,9919 2,1606 0,463
1,56 35,6830 5,2752 0,8841 2,4963 0,401
1,87 31,4355 4,3133 0,7895 4,2043 0,238
2,18 30,2758 4,0101 0,9685 5,7080 0,175
80 1,25 19,8840 5,3603 0,9401 4,7883 0,209
1,40 23,7529 5,7698 0,9103 0,6423 1,557
1,50 25,1698 5,0298 0,9891 2,1751 0,460
1,75 42,8178 4,6721 0,9112 1,5037 0,665
2,00 40,6080 6,6307 0,9869 3,1971 0,313
120 1,15 13,4980 4,1424 1,0245 3,6788 0,272
1,29 17,4176 4,9743 0,9335 2,4088 0,415
1,38 18,9581 5,5485 0,9201 2,4963 0,401
1,47 35,2250 5,9830 1,0190 1,8686 0,535
1,61 35,3310 6,0310 1,0020 1,0803 0,926
1,84 34,9600 6,9500 1,1500 5,0511 0,198
2,07 42,0100 5,9300 0,9440 3,0511 0,328
10 40 1,12 39,2320 5,7057 0,9997 1,1825 0,846
1,25 36,8015 5,5695 0,9457 2,4817 0,403
15 40 1,12 46,1339 5,8621 0,9348 0,5109 1,957
1,25 47,8141 5,9330 0,9041 5,0949 0,196
1,37 48,1752 6,5839 1,1172 2,1168 0,472
1,56 43,3134 5,9669 0,9935 4,6569 0,215
1,87 33,5772 3,7347 0,9763 2,7001 0,370
2,18 34,2971 3,7483 0,9735 4,2190 0,237
2,49 31,3583 4,2534 0,9141 3,4306 0,291
80 1,10 67,6892 3,4665 1,0092 1,7080 0,585
1,25 28,8386 5,5504 0,9229 2,102 0,476
1,50 30,7467 5,4578 0,8530 2,7883 0,359
1,75 37,8869 6,1125 1,0511 1,7810 0,561
2,00 27,3939 5,2723 0,9424 3,1386 0,319
2,50 31,3574 6,7918 1,0240 4,0145 0,249
120 1,15 22,2480 5,6278 0,8829 1,8394 0,544
1,29 23,4743 6,2740 0,8959 3,2262 0,310
1,38 22,9400 5,6050 0,9584 3,8832 0,258
1,42 25,7770 5,6875 0,9920 2,8759 0,348
1,61 31,8060 5,9753 0,8476 1,0948 0,913
1,84 25,4990 5,8827 0,8759 2,7445 0,364
2,07 29,0110 7,8426 1,1227 6,1313 0,163
20 40 1,12 47,3080 5,7559 0,9327 1,5328 0,652
1,25 50,8632 6,4156 0,9116 2,4087 0,415
26

acero H0 Ur E de Kolmogorov Exponente Tiempo


% (mm) KML KML error Lyapunov Lyapunov
(Bit/s) (Bit/ciclo) (%) (Bit/s) (s)
1,37 54,5511 6,5789 0,9822 0,9051 1,105
1,56 47,4393 5,5937 0,8883 3,0802 0,325
1,87 37,9293 4,5905 0,9694 2,4671 0,405
2,18 42,1633 3,4464 0,9316 5,5328 0,181
2,49 31,5516 3,9507 0,9563 1,7226 0,581
80 1,10 201,4140 7,0350 1,0544 2,102 0,476
1,25 35,5447 5,6069 0,8941 1,7372 0,576
1,50 39,3079 5,3954 0,8749 5,6642 0,177
1,75 34,3962 5,0428 0,8817 1,0364 0,965
2,00 26,1926 5,9269 0,8953 1,3868 0,721
2,50 27,9941 6,9326 0,9411 5,7518 0,174
120 1,15 23,3738 5,4100 0,8140 0,5693 1,756
1,29 22,6387 5,4724 0,8405 3,4306 0,291
1,38 26,4532 5,3379 0,8722 1,7226 0,581
1,42 32,9061 5,6844 0,9002 3,503 0,285
1,61 37,0573 6,5780 0,9872 2,204 0,454
1,84 26,8901 6,2649 1,0508 5,0510 0,198
2,07 25,3166 6,2477 1,0357 2,2627 0,442
25 40 1,12 48,4326 5,2514 0,9847 1,7810 0,561
seno 0,0000 0,0000 0,96132 -0,0152 65,7895
Aleatorio 169,6050 4,7237 0,86941 infinito 0

S-ar putea să vă placă și